0% encontró este documento útil (0 votos)
205 vistas189 páginas

Varios - Sobre La Imaginacion Cientifica

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
205 vistas189 páginas

Varios - Sobre La Imaginacion Cientifica

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 189

¿Qué es una idea científica? ¿Cómo nace, triunfa o cae en desgracia?

En torno a estas
cuestiones tuvieron lugar los debates celebrados en el Museo de la Ciencia de Barcelona
en mayo de 1988, con la participación de seis grandes «imaginadores» contemporáneos
y de una audiencia diversa y polémica.

Conocimiento significa precisamente agitar ideas, un fenómeno que muchos asistentes


revivieron después del encuentro sobre el azar que tuvo lugar en 1985 en el Teatro-
Museo Dalí de Figueras, inmediato precedente y punto de partida de esta iniciativa
llevada adelante por el director de esta colección, Jorge Wagensberg.

Experiencias personales y ajenas, teorías y modelos se cruzaron durante dos días


intensos para reflexionar sobre ese singular proceso que es imaginar la naturaleza y
escribir sus leyes. La creatividad de la ciencia (y, por extensión, la de las tantas otras
formas de conocimiento) reside en un frágil punto situado entre el caos y la disciplina,
el desenfado y el rigor, la analogía y la paradoja, la revolución y la continuidad.

Benoît Mandelbrot —imaginador de la naturaleza fractal—, Douglas R. Hofstader —


fabulador de la autorreferencia y el infinito—, Hermann Haken y Arne Wunderlin —
constructores de una teoría de la complejidad—, Akira Okubo —un físico que inventa
ecología—, Ramón Margalef —fuente de ideas «diana» en biología— y Carles Ulises
Moulines —metaimaginador de la ciencia— respondieron, con sus ponencias e
interviniendo con entusiasmo en los debates, a la convocatoria del Instituto de
Humanidades de Barcelona y de la Fundació Caixa de Pensions. Este libro es el
testimonio de lo ocurrido.
AA. VV.
Sobre la imaginación científica

Una convocatoria de Jorge Wagensberg


La ciencia, esa ficción de la realidad

Jorge Wagensberg

De izquierda a derecha: D. Hofstadter; A. Wunderlin; A. Okubo; B.


Mandelbrot; R. Margalef; C. U. Moulines, J. Mosterín.
Introducción

Bienvenidos, amigos, a la imaginación científica. Mi agradecimiento a las dos jóvenes e


impetuosas instituciones que han hecho posible esta segunda convocatoria de reflexión
interdisciplinaria y a la audiencia presente por ese, al menos inicial, interés. Mi intención en este
breve prólogo es introducir el debate y la fórmula que proponemos para su desarrollo. La idea es
justamente eso: el concepto de idea, la idea en la ciencia y la idea en el conocimiento en general.
No hemos convocado a los especialistas y estudiosos de este concepto sino a sus practicantes, a los
protagonistas, a los ideadores. Todos ellos militan en dominios próximos a la ciencia y eso
significa que la reflexión empezará cerca de la ciencia, pero está claro que no está prohibido
alejarse de ella. Digamos que la ciencia, y esto forma parte de la fórmula de estos encuentros,
actúa a modo de anfitriona. Nos alegra comprobar que muchos pensadores de otros campos han
aceptado la invitación. A nuestros ponentes no les hemos pedido entonces que improvisen un
ensayo sobre el concepto idea. Les hemos convocado, eso sí, porque han tenido buenas ideas en su
trabajo, ideas que han trascendido y que han generado, a su vez, otras ideas. Les hemos pedido
simplemente que nos hablen de sus mejores ideas. La intención es que las exposiciones nos lleven
luego a una reflexión general, tácita o explícita, sobre la imaginación en la ciencia y en otras
formas del conocimiento.

¿Qué es una idea científica? ¿Cómo triunfa? ¿Cómo cae en desgracia? ¿Cómo favorecer la
emergencia de ideas? ¿Por qué nos empeñamos en hacer ciencia?

Todo empieza con esa secreta sensación de perplejidad total que asalta nuestro ánimo por lo
menos una vez en la vida: ¿Por qué es el mundo justamente de esta manera y no de otra?
Podemos imaginar innumerables mundos que podrían ser y no son. Es el que vemos que es. Esta
extrañeza se une a otra todavía mayor, la extrañeza de la propia condición. Porque resulta que el
mundo real, el único que es de todos los que podrían ser, está poblado de unas curiosas y
minúsculas partes que son las que se extrañan: las mentes humanas. La mente humana se
precipita inmediatamente en una especie de contradicción que es, creo, la esencia de la
investigación y de la imaginación científica. Por un lado, la mente contempla el mundo y se dice:
de todos los mundos que puedo imaginar éste no es, ciertamente, el más desordenado. Se percibe
mucha armonía y, al menos parcialmente, hay muchas cosas que parecen tener sentido (el amor
de una madre por sus hijos, el mimetismo de tal especie que significa protección respecto a sus
depredadores, el mimetismo de tal otra que significa poder acercarse a sus presuntas víctimas,
etc.). Einstein, una de las mentes más lúcidas de este mundo, solía decir maravillado que lo más
sorprendente del universo es que parecía inteligible. Podría perfectamente no serlo, claro. Pero
la verdad es que sabemos muy poco de nosotros mismos y del mundo que nos rodea. Lo que no
comprendemos se nos antoja desordenado. He aquí el conflicto que estimula el conocimiento:

El mundo se nos antoja inteligible y sin embargo no lo entendemos.


La ciencia, en particular, podría definirse como el resultado de reconocer el máximo orden
oculto en todo aparente desorden. La ciencia no es sino una de las formas posibles de representar
el mundo real. Para ello hacen falta imágenes. No hay inconveniente en admitir que la ciencia es
una ficción de la realidad, que hacer ciencia consiste en proponer a la naturaleza una ficción por
si ésta tiene a bien ser compatible con tal ficción. Y para proveernos de imágenes hay que apelar a
la imaginación. Es la imaginación científica. De aquí surgen las preguntas que sin duda
asomarán estos días: ¿Cuál es el proceso que sigue una idea científica? En ciencia no basta con
tener una idea buena. Hay que demostrarse a uno mismo que lo es. Y luego, sobre todo, también
hay que convencer de ello a los demás. Porque, también hay que admitir esto: ciencia es lo que la
comunidad de científicos competentes dice que es ciencia.

Permítaseme abrir el fuego, a modo de entrante, sobre la emergencia de ideas en la ciencia.


Hay muchos modos de apelar a la imaginación científica. He aquí algunos de ellos: Romper
Toda investigación parte de alguna cosa, de un esquema conceptual y de un método. Una idea
que ha dado sus frutos consiste en pasar lista a los prejuicios o a las hipótesis fie trabajo y romper
alguna de ellas, por sólida que pueda parecer, a ver qué ocurre. Por ejemplo, ante el enigma:

Se me cayó el anillo en la taza repleta de café y al sacarlo comprobé que estaba


totalmente seco,

puede funcionar el comprobar si el café no estaría en forma de grano dentro de la taza.


Los hermanos Wrigth consiguieron por fin volar rompiendo la antigua idea fija de
construir ingenios cada vez más estables; su avión fue el primer artefacto diseñado para
la inestabilidad (la adecuada, eso sí). La consideración de ideas absurdas da a veces
sorpresas, y quizá fuera así como De Broglie concibiera la dualidad onda-corpúsculo.
Las ideas que se obtienen por rompimiento brusco de lo establecido conducen por lo
general al fracaso, naturalmente, pero cuando triunfan se reconocen como ideas de
comprensión súbita (algo muy común en arte). Es el ¡aja!, o también llamado ¡eureka!

Inconsciente Consiste en poner la mente en un estado especial en el que la


conciencia y la experiencia cotidiana perturban menos. Se dice que Kekulé (lo dice él)
concibió así, fantaseando mientras dormitaba en un autobús, la estructura hexagonal
del benceno. Esta técnica (que tanto recomendaran dadaístas y surrealistas) tiene el
inconveniente de sugerir levemente una especie de apología del doping científico.

Combinación Se parte de la base de que en rigor nada nuevo hay bajo el sol y
consiste en remover, seleccionar y combinar ideas preexistentes para dar con ellas una
nueva interpretación del mundo. Muchas de las llamadas grandes revoluciones
científicas se han consumado por este procedimiento. Por ejemplo: Darwin. La selección
natural es una idea largamente darwiniana, sólo que como factor eliminador de lo que
no sirve; el genio de Darwin consistió en elevar el fenómeno a motor de la evolución
biológica y creador de nuevas estructuras. La selección artificial (los animales
domésticos también son predarwinianos) fue seguramente otro claro precedente. El
caso de Einstein es otro ejemplo magnífico. Los expertos nos dicen que en realidad todo
estaba ya ahí aunque por separado y desconectado. Su genio estuvo en unir ciertos
elementos y releer el universo con una peculiar combinación de los mismos. Lo mismo
puede decirse de Newton. Y de Schrödinger. Hace pocos días ha aparecido en la revista
Nature una virulenta crítica a su célebre libro What is Life?, en el que, como se sabe,
profetizaba y daba las pistas que permitieron poco después el acaso mayor
descubrimiento científico de este siglo: la estructura del DNA. La acidez del crítico se
basaba en la afirmación: todas las ideas viables del libro tenían su precedente. Bueno, ¿y
qué? Los precedentes eran oscuras y marginales publicaciones que tardaron decenas de
años en hacerse notar y, atención, fue justamente el genio de Schrödinger y su poder de
persuasión la causa de que finalmente fueran conocidas. La potencia generadora estaba
en la particular combinación y reinterpretación que Schrödinger hiciera con los
dispersos precedentes. Un caso muy similar lo tenemos entre nosotros y ya habrá
ocasión de comentarlo. Me refiero a Benoît Mandelbrot y sus objetos fractales. El
método de la combinación de ideas sugiere como mínimo una cosa: no va nada mal que
el investigador científico sea una persona científicamente culta.

Analogía Consiste en la consideración de ideas ajenas a la disciplina en cuestión,


incluso ajenas a la ciencia, incluso ajenas a la construcción de conocimiento
propiamente dicho. Se basa en la posible fecundidad del inóculo que ingresa, fresco e
inocente, venga de donde venga. Weissberg, en un libro reciente sobre la creatividad
científica, ilustra la potencia de la analogía con una lista impresionante de ejemplos.
Dos de nuestros invitados, el profesor Hofstadter y el profesor Margalef son dos
auténticos maestros de la analogía, por lo que será inevitable entrar en el tema. El
primero va a tratar directamente la cuestión en su ponencia, el segundo nos deleitará
con su utilización. El método de la analogía sugiere que conviene que un científico sea,
sencillamente, una persona culta.

Paradoja Paradojas de contradicción (A es A y no A) y paradojas de incompletitud


(A no es A ni no A) estimulan fuertemente la imaginación científica. Basta pensar por
ejemplo en los frutos de las paradojas de los antiguos griegos (Demócrito, Zenón,
Epiménides, etc.) en muchas cuestiones de la física, la matemática y la filosofía. Es, de
hecho, la vertiente dialéctica de la imaginación científica.

En fin, ¿cómo funciona la imaginación científica? ¿De cuáles de estas ideas se nutre
la imaginación? ¿Se puede favorecer la emergencia de ideas? De lo dicho, una cosa
parece clara, una cosa que además está en la etimología de la palabra conocimiento
(cogito = agitar conjuntamente): la imaginación se alimenta de remover las ideas. Akira
Okubo es un físico atraído por la ecología, Hermann Haken es el padre de una teoría
interdisciplinaria de la complejidad, Benoît Mandelbrot es el prototipo del triunfador
científico que arrasa con sus ideas en todos los campos de las ciencias duras y blandas,
Ramón Margalef es conocido por su poder de inyección de ideas de la física y la
matemática en ecología, Douglas Hofstadter ha conseguido que uno de cada cien
norteamericanos lea un libro titulado nada menos que Gödel, Escher y Bach, y Carles
Ulises Moulines es un estudioso de la metaciencia, es decir, su oficio consiste en tener
ideas sobre las ideas científicas. Todo parece pues favorable para proceder a la agitación
de ideas.
La inspiración científica y
los fundamentos de la singergética

Hermann Haken y Arne Wunderlin

Arne Wunderlin. Institute for Theoretical Physics and Synergetics.


Stuttgart Universität
Hemos escogido el nuevo campo interdisciplinar de la sinergética como paradigma
de la inspiración científica. La sinergética ha estimulado y unificado la comprensión de
los procesos de autoorganización espontánea que se observan en los sistemas complejos
de varias disciplinas científicas. Tomaremos la sinergética como una metaciencia y
aplicaremos sus principios fundamentales para explicar su propio desarrollo como
paradigma de inspiración científica.

1. Introducción

La sinergética fue fundada como disciplina científica por Hermann Haken en 1969,
en un curso de la universidad de Stuttgart [1, 2]. Este nuevo campo de la actividad
científica se ocupa del comportamiento de los sistemas complejos abiertos compuestos
por muchos subsistemas. Dichos sistemas pueden organizarse por sí mismos a escala
macroscópica por acción de unas influencias externas nada específicas. A consecuencia
de ello podemos observar unas estructuras espaciales, temporales o espacio-temporales
sumamente ordenadas que se extienden por todo el sistema. En otras situaciones
podemos encontrarnos con un funcionamiento muy bien definido del sistema complejo.
Entre tanto se han descubierto sistemas de esta clase en varios campos que en la
actualidad tienen interés científico, tanto en física como en química o biología. Los
principios y métodos descubiertos en el dominio de la sinergética pueden incluso
aplicarse a problemas que se plantean en el terreno de las ciencias sociales. Sus objetivos
interdisciplinares son especialmente interesantes y convierten a la sinergética en un
campo fascinante de la investigación científica moderna. El dominio de aplicabilidad de
la sinergética no se reduce, no obstante, a los sistemas materiales, sino que también es
aplicable a sistemas abstractos, un ejemplo de los cuales es la epistemología, a la que
nos referiremos en la parte final de este artículo.

En lo que sigue discutiremos varios aspectos de la inspiración científica refiriéndola


a esta disciplina, todavía joven pero ya muy desarrollada, que tomaremos como
paradigma. El artículo está estructurado del modo siguiente: en la sección 2
presentamos un Gedanken Experiment con objeto de motivar una definición precisa del
concepto de autoorganización. La definición definitiva la daremos en la sección 3, en la
que comentaremos los conceptos y principios fundamentales de la sinergética. En la
sección 4 presentamos en líneas generales el desarrollo histórico de la sinergética, con
objeto de mostrar varios modos de pensar originales y sus interrelaciones, las cuales
han acabado por condensarse en una teoría universal de los sistemas sinergéticos. En la
sección 5 se aplica directamente la sinergética al problema de la inspiración científica,
que será interpretada como una inestabilidad estructural del sistema complejo de la
comunidad científica. Estas consideraciones nos llevarán de modo natural a la idea de
aplicar la sinergética al estudio de su propio desarrollo, cosa que la convertirá en una
metaciencia.

2. El concepto de autoorganización

El método del Gedanken Experiment nos dará un modo ilustrativo de introducir el


concepto de autoorganización. Se trata de un método muy fructífero usado a menudo
en la ciencia, que frecuentemente nos da nuevas perspectivas y sirve de fuente de
inspiración científica. Tomaremos un ejemplo relativamente sencillo del mundo
inanimado. Y nos plantearemos la pregunta siguiente: ¿cómo se puede construir un
aparato capaz de producir luz coherente? La respuesta a esta pregunta nos confrontará
con consecuencias de gran alcance en el problema de la autoorganización. En especial,
nos aclarará la diferencia entre un sistema que es gobernado, y los procesos que se
producen espontáneamente y dan lugar a un estado macroscópico ordenado por
autoorganización. Es decir, nos ocuparemos de las diferencias fundamentales entre los
sistemas que estudia la cibernética y los que trata la sinergética. Para comprender mejor
el problema, empezaremos por elaborar claramente los procesos físicos subyacentes.

Como es bien sabido, la luz es producida por la acción de átomos aislados, a los que
podemos considerar como antenas atómicas emisoras de luz. En la figura 1 tenemos un
esbozo esquemático de este proceso, en el que el átomo individual es representado por

un modelo muy simplificado.

Fig. 1. Modelo simplificado de átomo aislado. El electrón describe órbitas circulares alrededor del núcleo y su
posición viene dada por el ángulo Φ.
Un electrón describe órbitas alrededor del núcleo atómico y emite luz, que se puede
detectar midiendo la intensidad del campo eléctrico E en función del tiempo t. La
posición del electrón puede conocerse mediante el valor instantáneo del ángulo Φ’, que
varía con el tiempo. Dicho ángulo φ está directamente relacionado con la fase del
campo de la luz emitida, es decir, un ángulo Φ’ distinto daría una posición distinta de
la onda en el diagrama de la figura 2.

Fig. 2. Emisión de luz por dos átomos iguales que actúan con fases distintas. E denota la intensidad del campo
eléctrico de la luz emitida, t es el tiempo y ω la frecuencia del movimiento de los electrones.

Si consideramos más átomos, por ejemplo dos, como ocurre en la figura 2, cada uno de
ellos tendrá generalmente una fase distinta Φ1 y Φ2, respectivamente. Ello provocará
que cada una de las ondas emitidas tenga una fase distinta. El campo de la luz
observada será en este caso la superposición de las ondas individuales. En tal caso
diremos que la luz es incoherente porque cada átomo actúa individualmente, con su
propia fase arbitraria. La luz coherente se obtiene solamente en el caso de que todos los
átomos produzcan luz con la misma fase. En la figura 3 tenemos un ejemplo de esta
situación.
Fig. 3. Campo de luz coherente producido por átomos que actúan con la misma fase Φ.

En este punto, el problema que nos habíamos planteado inicialmente, a saber, cómo
producir luz coherente, ha quedado reducido a la pregunta: ¿cómo hemos de preparar
los distintos átomos para que, en todo momento, estén en el mismo estado? No es un
problema trivial ni mucho menos, pues hemos de ser conscientes de que hace falta un
número enorme de átomos (normalmente unos 1018) para obtener una luz con efectos
macroscópicos. A continuación presentaremos tres sugerencias distintas para resolver el
problema.

La primera idea básica que aplicaremos nos la dan los métodos desarrollados por la
cibernética. Imaginemos que somos capaces de construir un ordenador gigante y
acoplarlo a cada átomo emisor para que regule convenientemente su fase. Está claro
que, debido al enorme número de átomos implicados en este proceso, a los que hay que
guiar uno por uno, esta solución del problema resulta prácticamente irrealizable.

Un segundo método nos sugiere el empleo de un marcapasos que mande señales a


cada uno de los átomos para mantenerlos en la fase conveniente. Nos encontramos, sin
embargo, con que este procedimiento tiene una serie de limitaciones bastante fuertes.
Las amplitudes de las señales, por ejemplo, han de ser muy pequeñas para poder
garantizar que la respuesta de los átomos siga siendo puramente lineal. De lo contrario,
se desestabilizaría el sistema y no podríamos obtener ninguna respuesta coherente del
mismo. Hemos de seguir buscando pues una solución más convincente a nuestro
problema.

En la sección siguiente veremos cómo el concepto de autoorganización nos da una


respuesta satisfactoria a nuestro Gedanken Experiment. De hecho, ya existe un aparato
capaz de producir luz coherente, el láser. La teoría del láser nos servirá para introducir
los conceptos y principios básicos de la sinergética y discutir el papel fundamental de la
autoorganización tomando como base este ejemplo.

3. Esbozo de los principios fundamentales de la sinergética Tomaremos el proceso del láser


como ejemplo que nos permitirá presentar los conceptos y principios básicos de la sinergética. En
la figura 4 tenemos un dibujo esquemático de un láser. Se conoce como láser de estado sólido, y
tenemos un ejemplo conocido en el láser de rubí. Entre dos espejos (uno de ellos
semitransparente) tenemos una red cristalina sólida que contiene los átomos activos del láser.
Estos constituyen los subsistemas del sistema compuesto láser. Como se indica en la figura 4, el
láser es un sistema abierto porque se puede bombear desde el exterior. Notemos que, de modo
completamente general, los sistemas abiertos se caracterizan por el hecho de que hay un flujo
continuo de energía, materia y/o información a través de los mismos.

Fig. 4. Modelo de láser de estado sólido.

En lo que sigue no presentaremos de modo completo la bella teoría matemática del


láser, sino que en su lugar dirigiremos primero nuestra atención a algunas
observaciones experimentales importantes, que luego explicaremos mediante el modelo
sencillo de átomo individual que ya hemos introducido en la sección anterior.
Consideremos la luz que sale del láser cuando bombeamos desde el exterior a un ritmo
muy lento. Se obtiene una luz totalmente incoherente. Esto significa obviamente que
cada átomo activo i está actuando individualmente, con su propia fase φ i. La luz
emitida tiene la misma calidad que la que se obtendría con una lámpara corriente. Pero
si, por el contrario, se aumenta el ritmo de bombeo más allá de cierto valor umbral, se
observa un comportamiento totalmente distinto: el láser emite una onda de luz
coherente, con una amplitud sumamente estabilizada y una frecuencia definida. Este
fenómeno sólo se puede entender del modo siguiente: todos los átomos activos del láser
actúan con la misma fase Φ en todo momento. Hemos de subrayar aquí que en este
estado ordenado, la acción coherente de todos los subsistemas no viene impuesta al
sistema por condiciones o influencias externas al mismo. La energía del bombeo no
tiene ninguna cualidad especial y es completamente incoherente. Por tanto, el orden lo
produce el propio sistema. Si ahora llamamos microscópico al nivel de los subsistemas,
y macroscópico al del sistema global, habremos de considerar el fenómeno observado
como una autoorganización espontánea a escala macroscópica. Esto incluye el hecho de
que, para producir y mantener el estado macroscópicamente ordenado, ha de entrar en
juego un número enorme de subsistemas.

Consideremos más de cerca este estado macroscópicamente ordenado. Observamos


en primer lugar que la luz coherente del láser tiene una fase bien definida. Por otra
parte, hay una fuerte interacción entre la luz y la materia, mediante la cual el campo de
la luz, con su fase bien definida, adquiere la capacidad de hacer que los átomos
conserven las fases apropiadas, manteniendo así el comportamiento ordenado de los
subsistemas. El orden de los subsistemas garantiza a su vez la existencia del campo de
luz coherente. Usaremos por tanto la amplitud del campo de luz coherente como un
parámetro que medirá el orden del estado macroscópicamente ordenado del sistema.
En este caso, tenemos que el estado macroscópico del sistema queda completamente
caracterizado por este parámetro de orden, que se ha generado por la acción colectiva
de los subsistemas. Esta observación nos lleva de lleno al principio más fundamental de
la sinergética, conocido como principio de dominación, porque es efectivamente el
parámetro de orden el que domina los subsistemas para que actúen coherentemente.

Este principio nos proporciona la base para la comprensión genérica de los sistemas
que se autoorganizan. Se puede considerar la autoorganización como el resultado de la
acción de unos pocos parámetros de orden macroscópicos, producidos por los
subsistemas y que a su vez los dominan para producir y mantener el estado
macroscópicamente ordenado [1-3].

La teoría general de los sistemas sinergéticos nos proporciona un método


matemático general para predecir los parámetros de orden correctos y para encontrar
sistemáticamente la estructura macroscópica ordenada. La dinámica del
comportamiento de los parámetros de orden del sistema es regida por las ecuaciones de
los parámetros de orden. Como ejemplo sencillo discutiremos con cierto detalle la
ecuación del parámetro de orden de un láser unimodo, en cuyo caso tenemos un solo
parámetro de orden, la amplitud de la onda de luz coherente, que denotaremos por ξ u.
Éste ejemplo elemental nos servirá para mostrar el comportamiento típico de un
parámetro de orden y también para introducir conceptos sinergéticos nuevos e
importantes.

En nuestro ejemplo, la ecuación del parámetro de orden tiene la forma siguiente:

ξu = ε ξu − ξu3 (1)

donde el punto indica derivada respecto al tiempo, y ε es el parámetro de control que


mide las influencias externas. En el caso de un láser, ε está directamente relacionado
con el ritmo de bombeo, ε > 0 indica un ritmo de bombeo bajo, mientras que ε > 0
significa que el ritmo de bombeo es alto. Introducimos la cantidad V(ξ u) definida por

ξu = − dV/dξu (2)

y obtenemos inmediatamente que (aparte de una constante arbitraria)

V(ξu) = − ½ ε ξu2 + ¼ ξu4 (3)

Las ecuaciones del tipo (2) son bien conocidas en mecánica clásica, donde se usan
para describir el movimiento sobreamortiguado de una partícula en el potencial V(ξ u).
En otras palabras, V(ξ u) nos da la forma de un paisaje en el que se mueve una bola de
modo sobreamortiguado. Los mínimos (valles) de este paisaje indican los puntos de
equilibrio estable de la bola, y los máximos, los puntos de equilibrio inestable. En la
figura 5 representamos la función V(ξ u) dada por (3) para tres valores distintos del
parámetro externo ε.
Fig. 5. El potencial V como función del parámetro de orden para tres valores distintos del parámetro de control
ε.

Si ε<0, esto es, ritmo de bombeo lento, sólo tenemos un estado de equilibrio, a saber
ξu = 0. Este hecho admite la siguiente interpretación: el estado de equilibrio estable está
caracterizado por un valor nulo del parámetro de orden es decir, el sistema permanece
en un estado desordenado. Por el contrario, en el caso de ritmo de bombeo alto, ε<0,
encontramos un comportamiento totalmente distinto. ξ u = 0 sigue siendo un estado de
equilibrio, pero ahora es inestable. Además, han aparecido dos nuevos mínimos,
dispuestos simétricamente respecto del máximo, que significan dos nuevos estados
estables con ξ u ≠ 0. Un valor finito para el parámetro de orden ξ u indica la presencia de
un estado del sistema macroscópicamente ordenado.

Cuando cambiamos de modo continuo el ritmo de bombeo, esto es, hacemos que ε
pase de negativo a positivo, el potencial V va cambiando de forma continuamente. La
frontera entre las dos formas de potencial cualitativamente distintas, a saber ε = 0,
señala lo que se conoce como punto crítico de la transición del estado desordenado al
estado macroscópicamente ordenado. Cuando nos acercamos al punto crítico desde ε <
0, el potencial se va aplanando en las proximidades del punto de equilibrio estable. Este
hecho produce el siguiente efecto: si desplazamos la bola alejándola del mínimo ξ u = 0,
regresará otra vez, pero cada vez más lentamente. Este fenómeno, que se observa
generalmente en la proximidad de los puntos críticos de esta especie, se conoce como
deceleración crítica, y se puede usar para detectar experimentalmente si nuestro sistema
está cerca o no de un punto crítico. La transición entre las dos formas de potencial
descritas se conoce como inestabilidad estructural. «Estructural» significa que las dos
formas del potencial, por encima y por debajo del punto crítico, son topológicamente
distintas.

La pregunta que nos queda por responder aún es: ¿cómo reconoce el sistema la
inestabilidad? La respuesta nos la da el hecho de que cada sistema se encuentra
sometido a fluctuaciones inevitables. Estas van dando constantemente golpecitos a la
bola y en cada momento ponen a prueba la estabilidad del estado actual del sistema.
Por un razonamiento similar al de más arriba, cuando hablábamos de la deceleración
crítica, es de esperar que la reacción de la bola a las fluctuaciones sea más intensa en la
proximidad de un punto crítico. Este fenómeno se conoce como fluctuaciones críticas.
Como las fluctuaciones serán las responsables de que el sistema descubra los nuevos
mínimos que aparecen cuando ε > 0, resulta imposible predecir en cuál de ellos acabará
el sistema. Este acaba siendo un resultado puramente estocástico. Tenemos pues que la
«necesidad» es representada por el potencial V, mientras que las fluctuaciones
representan el «azar». Diremos finalmente que, debido a la simetría localmente rota de
los mínimos de V en el caso ε > 0, la transición que hemos descrito se conoce como
transición de ruptura de simetría.

Estas consideraciones que hemos presentado en el contexto de la teoría del láser no


se limitan, ni muchísimo menos, al caso del láser. Hemos escogido este caso como
paradigma de una inestabilidad que da lugar a un orden espontáneo en las escalas
macroscópicas. El resultado general es que la autoorganización aparece por medio de
una inestabilidad relacionada con la deceleración crítica y las fluctuaciones críticas. Más
allá de la inestabilidad, el sistema genera unos pocos parámetros de orden
macroscópicos que regulan los subsistemas con objeto de producir y conservar el estado
macroscópicamente ordenado. Las interacciones entre distintos parámetros de orden,
así como entre los parámetros de orden y los subsistemas son esencialmente no lineales.
Consideraciones parecidas se pueden aplicar cuando un sistema efectúa una transición
de un estado ordenado a un estado ordenado superior, o de un estado ordenado a un
estado de caos macroscópico.

La teoría matemática general de la sinergética se ha aplicado también con éxito a


otros sistemas físicos, en los campos de la óptica no lineal, la hidrodinámica, la física del
estado sólido y la física de plasmas [1, 2]. Dicha teoría general se ha aplicado también
para predecir y explicar estructuras ordenadas en reacciones químicas y sistemas
biológicos. Por citar algunas, tenemos aplicaciones en morfogénesis, en el problema de
la coordinación del movimiento de las manos humanas, y en investigaciones muy
recientes sobre el cerebro humano.

4. Sobre el desarrollo de la sinergética

Fueron necesarios momentos notables de inspiración científica para que se pudiera


desarrollar una teoría matemática completa de los sistemas autoorganizados. Desde el
punto de vista histórico, la teoría del láser señala los primeros mojones de este camino.
En una serie de artículos, Haken elaboró una teoría completa de este nuevo fenómeno y
pudo identificar el modo láser como un estado totalmente nuevo producido por la
interacción de la radiación y la materia. Posteriormente el láser se ha convertido en un
paradigma de sistema sinergético por cuanto es el sistema mejor comprendido a todos
los niveles desde el punto de vista teórico, y su teoría matemática se ha podido
desarrollar a partir de principios fundamentales de la física.

Posteriormente Haken descubrió que su teoría matemática se podía aplicar también


para explicar el comportamiento cooperativo de sistemas de otras ramas de la física y
de otras disciplinas científicas, como la hidrodinámica, la física del plasma, las
reacciones químicas, los sistemas biológicos, etc. Este punto de vista unificado, que se
manifestaba en las estructuras matemáticas de tales sistemas, convirtió la sinergética en
una teoría científica interdisciplinar. La unificación se ha acabado de coronar con la
formulación matemática del principio de dominación, que se ha convertido en la base
común fundamental de cualquier tipo de proceso de autoorganización.

Tenemos por tanto el esquema de desarrollo que insertamos en la página de


enfrente.

La unificación ha estimulado la aparición de nuevos progresos en la sinergética,


algunos muy recientes, que han dado lugar a la sinergética macroscópica y la
sinergética fenomenológica. En las líneas siguientes las explicaremos y comentaremos
brevemente. Para empezar volveremos sobre el ejemplo del láser, en el que conocemos
perfectamente el comportamiento de los subsistemas y también de sus interacciones, a
partir de principios fundamentales. La teoría cuántica de los átomos y la
electrodinámica cuántica del campo de luz constituyen la base que nos permite conocer
todos los detalles a nivel microscópico. En este caso, conocimiento significa de hecho
que somos capaces de obtener un enorme sistema de ecuaciones del movimiento de
nuestro sistema. Al pasar al nivel macroscópico, la aplicación del principio de
dominación nos permite reducir dicho sistema a otro de muy pocas variables, el sistema
de ecuaciones sobre los parámetros de orden. Estas últimas tienen formas universales y
predicen la aparición de estructuras macroscópicas ordenadas.

Sin embargo, hay sistemas formados por subsistemas que ya de por sí son
complejos. En tal caso resulta imposible conocer todas las variables y sus interrelaciones
a nivel microscópico. Pero en la proximidad de los puntos críticos de tales sistemas,
sigue siendo válido el principio de dominación. La universalidad de este principio nos
permite predecir y explicar los estados autoorganizados que se forman, a pesar de no
conocer al detalle todos los subsistemas y sus interacciones. En tales casos la teoría
matemática ha de partir directamente de un nivel macroscópico. Fue este hecho el que
condujo a la aparición de la sinergética macroscópica y de la sinergética
fenomenológica. La primera trata básicamente del reconocimiento de formas, mientras
que la segunda pretende predecir formas a partir de unos pocos datos macroscópicos.

ESQUEMA 1

PRIMER PASO:

El fenómeno no

Observación de un nuevo
se puede explicar mediante

fenómeno (el láser)


las teorías tradicionales

(teorías lineales)

(inspiración para explicar los experimentos) Desarrollo de un tipo de teoría

cualitativamente nueva a

partir de un problema concreto

(teoría no lineal del láser)

Fórmulas matemáticas
(inspiración por inducción)

Otros ejemplos presentan la

misma estructura matemática

SEGUNDO PASO:


(inspiración a partir de analogías)
Formulación de nuevos

principios unificadores


(nuevas conclusiones a partir Desarrollo de nuevas teorías

de principios generales) a partir de dichos principios

Fundación de una nueva

disciplina científica

Nuevas teorías y aplicaciones

Hemos citado ya importantes aplicaciones de estos progresos recientes. En la


coordinación del movimiento de las manos humanas los subsistemas son las células
nerviosas, las musculares, etc. Se trata de subsistemas de una complejidad tan alta que
no podemos conocerlos al detalle. Consideraciones análogas valen también en el caso
del cerebro humano, donde los subsistemas (neuronas de distintos tipos
interconectadas por dendritas y axones, etc.) no se conocen completamente. Pero a
pesar de ello es posible explicar las estructuras macroscópicas tal como se observan
mediante los conceptos de parámetro de orden y dominación. En relación con esto
último, también podemos considerar los pensamientos como parámetros de orden
correspondientes a los estados sumamente ordenados del disparo de las neuronas.

5. La sinergética como metaciencia

El desarrollo de las variantes macroscópica y fenomenológica de la sinergética ha


abierto un vasto dominio de nuevas aplicaciones. Gracias a los conceptos de parámetro
de orden, dominación, inestabilidad, etc., estamos incluso en condiciones de discutir el
comportamiento de sistemas sociales en la vecindad de situaciones críticas. Ahora
aplicaremos métodos sinergéticos para introducir nuevos puntos de vista relativos a la
evolución de la ciencia. Y finalmente veremos cómo, mediante la sinergética, podemos
explicar su propio desarrollo.

Tomemos un cierto estado de una disciplina científica, al que consideraremos como


un estado sumamente ordenado. El orden viene representado por sus principios
fundamentales, sus ideas básicas y las escuelas dominantes. Esto nos lleva a tomar
dichas ideas, principios, etc. como los parámetros de orden que caracterizan su estado
actual. En este contexto habrá que considerar a cada científico como un subsistema del
sistema complejo en el sentido siguiente. El éxito de su trabajo científico estará
asegurado si trabaja congruentemente en el marco que le proporcionan los parámetros
de orden, por ejemplo, los principios aceptados por toda la comunidad. Cada científico
está incrustado en el sistema ordenado de su disciplina científica y, mediante sus
propias contribuciones, su compromiso, su enseñanza, sostiene precisamente dicho
orden. La interacción íntima entre los parámetros de orden y los subsistemas puede
mantener el estado cualitativamente estable de la disciplina científica a lo largo de
escalas de tiempo relativamente largas. El estado de la disciplina científica sólo sufre
cambios cuantitativos, es decir que se van añadiendo cada vez más resultados, pero sin
romper el marco original.

Sin embargo, los cambios puramente cuantitativos pueden provocar una variación
lenta de las condiciones de la propia disciplina científica. Podemos tomar como ejemplo
una situación en la que la precisión de los experimentos aumente cada vez más.
Disponer de mediciones cada vez más finas puede llevarnos a descubrir desacuerdos
entre la teoría y los experimentos. Además, la inspiración nos puede llevar a descubrir
nuevos Gedanken Experimente que no encajen en el marco de los principios e ideas de la
disciplina científica en su forma actual. De este modo, el descubrimiento de
limitaciones, posibles desacuerdos, etc., puede desestabilizar el estado que hasta el
momento había sido muy ordenado, con lo que se hacen necesarios nuevos principios y
nuevas ideas. En este punto, la inspiración científica juega un papel esencial. Nacerán
un montón de nuevas ideas con el solo objeto de alcanzar un nuevo estado ordenado
más complejo de la disciplina científica en cuestión. Muchas de dichas ideas morirán
inmediatamente, otras tendrán una vida más larga pero acabarán también por
desaparecer debido a la selección, las incongruencias, etc. Pero al final quedarán muy
pocas ideas, generalmente principios establecidos, que serán apoyadas y realzadas por
un gran número de científicos, y que acabarán por tomar el papel de nuevos parámetros
de orden de un nuevo estado, más complejo que el de partida. La competencia entre las
distintas escuelas e ideas habrá seleccionado y dado lugar a un nuevo estado ordenado,
o quizás a una nueva disciplina científica. Ello nos lleva a considerar este fenómeno
como una inestabilidad estructural en el sentido que comentábamos más arriba. Queda
claro inmediatamente que la aceptación de nuevas ideas depende fuertemente de las
condiciones generales y de la situación de la disciplina científica en consideración.

Tenemos por tanto el siguiente esquema general:

ESQUEMA 2
Incongruencias Desestabilización

Fluctuaciones críticas:

Nuevas ideas por inspiración

Competencia

Selección

Nuevo paradigma

Está claro también que podemos aplicar estas ideas a la evolución de la propia
sinergética, tal como la hemos presentado en la sección anterior. Y es en este sentido
que podemos decir que la sinergética puede considerarse también como metaciencia.
Finalmente, hacemos notar que las consideraciones precedentes pueden resultar
especialmente valiosas para tratar sistemas abstractos como, por ejemplo, los que
estudia la epistemología.
Referencias

1. Haken, H.: Synergetics. An Introduction (3.a edición), Springer-Verlag, Berlín,


Heidelberg, Nueva York, 1983.

2. Haken, H.: Advanced Synergetics, Springer-Verlag, Berlín, Heidelberg, Nueva


York, 1982.

3. Wunderlin, A.; Haken H.: Z. Physik B 44, 135, 1981. Haken, H.; Wunderlin A.: Z.
Physik B 47, 179, 1982.
COLOQUIO

Luis M. Garrido: Usted opina, creo, que el concepto de idea podría asociarse al de «un
parámetro de orden» del cerebro. Sin embargo para mí la analogía significaría, en todo
caso, que la idea es el parámetro de orden de las células.

Arne Wunderlin: Las ideas están relacionadas con estructuras especiales en el córtex.
Y nada impide considerar el parámetro de orden de tales estructuras de la misma
manera que hemos hecho en el caso del láser.

Luis M. Garrido: Ya, pero en ese caso el parámetro de orden del láser poco tiene que
ver con los fotones que lo constituyen. En el cerebro, sin embargo, digamos que las
ideas en nada difieren de las propias ideas.

Arne Wunderlin: Aquí habría que decir que la idea se distingue perfectamente del
disparo de una neurona. Permítame un ejemplo para ilustrar cómo funciona esta sinergia
macroscópica. Basta un simple y conocido experimento que puede hacer usted aquí
mismo: se trata de mover dos dedos en movimiento contrapuesto. Si el ejercicio se hace
muy despacio no hay dificultad y la frecuencia del movimiento, por ejemplo, sirve
como parámetro de control. Pero al aumentar la velocidad aparece, inevitablemente,
una transición. Está claro que hay una gran cantidad de sustancias involucradas en este
movimiento y el parámetro de orden debe identificarse ahora como la fase relativa del
movimiento. Las células musculares, las células nerviosas y otros muchos elementos
microscópicos están ahora digamos dominados al servicio del nuevo orden
macroscópico.

Luis M. Garrido: Buen ejemplo.

Jorge Wagensberg: Su aproximación tiene una clara voluntad de tratar el concepto de


estructura a través de las magnitudes clásicas de la física: intercambio de materia y
energía. ¿No falta aquí alguna idea nueva? Por ejemplo, añadir otra magnitud como la
información.

Arne Wunderlin: Creo que la información está tácitamente implícita en algunas de las
ideas nuevas que introducimos y directamente en otras. Nos preguntamos por ejemplo
por la información formal que depende de las probabilidades en las transiciones de fase
de no equilibrio. En el caso del láser hemos demostrado que los únicos cambios de
información vienen dados a través de los parámetros de orden.
Carles Ulises Moulines: No acabo de ver la diferencia conceptual entre los parámetros
de control y los parámetros de orden. Permítame reproducir lo que he entendido. Los de
control serían los que vienen como entrada al sistema en estudio y los de orden serían
los que de algún modo se descubren luego aplicando cierta teoría.

Arne Wunderlin: Los parámetros de control se refieren efectivamente a sistemas


abiertos cuyo intercambio de materia y energía se controla desde el exterior. El cambio
de algunos específicos, como el de la energía en el caso del láser, generan parámetros de
orden que son, a su vez, una medida de la nueva estructura creada. Así es que los de
control pueden ser manipulados por el observador, mientras que los de orden son
generados por el propio sistema.

Caries Ulises Moulines: Otra cuestión. Siento curiosidad por saber si su llamado
principio de dominación es un auténtico principio en el sentido de que (como las leyes de
Newton) no se deduce de nada anterior, o bien es un producto de la propia teoría.

Arne Wunderlin: Bueno, hay una gran polémica sobre esto. Nosotros lo consideramos
un principio con un status similar al de las leyes de Newton porque permite el
establecimiento de todo un conjunto de aplicaciones que hacen posible, a su vez, la
interpretación de las estructuras de autoorganización reales en términos de la
metamorfosis de estructuras matemáticas. Resulta además que tales aplicaciones son
biunívocas, por lo que consideramos la dominación como un principio de la naturaleza
que conecta procesos experimentales a objetos matemáticos.

Francesc Castells: He disfrutado mucho con su exposición, pero creo que ha podido
dar la sensación de que el segundo principio de la termodinámica se cumple en unas
ocasiones y en otras no. Pero soy completamente reduccionista en el sentido de que creo
que tal principio se cumple siempre. Creo que lo que ocurre aquí es una cierta
indefinición de lo que en cada caso es el universo de los sucesos en cuestión…

Arne Wunderlin: No sólo eso. Hay otro problema mucho más grave: el segundo
principio se enuncia para sistemas que está muy lejos de las estructuras de
autoorganización a través de la magnitud entropía. Y, como usted sabe, en estos casos
no existe una función continua que juegue este papel. En mi opinión no se puede
asegurar con nuestras teorías actuales que los estados de no equilibrio contengan a los
de equilibrio como casos particulares. Es cierto, aquí quedan todavía huecos por llenar
y, por lo tanto, muchas cuestiones para la especulación.
Asistente no identificado: Ha establecido usted ciertas condiciones para que un sistema
se comporte espontáneamente como autooorganizativo. La capacidad para exhibir este
comportamiento, ¿es entonces una conclusión o una condición?

Arne Wunderlin: Es una condición aunque sólo sea por la exigencia de no linealidad
para las interacciones. Sin embargo no hay condiciones más fuertes que ésta.

Jesús Mosterín: Si lo he entendido bien, la sinergia es una especie de paradigma con


una metateoría muy bien construida para describir el caso del láser. Pero ¿cuál es su
universalidad? ¿Puede utilizarse por ejemplo para explicar la evolución biológica? ¿Son
las especies biológicas sistemas sinergéticos? Si es así, me gustaría saber cuáles serían
entonces los parámetros de control y los parámetros de orden y cómo habría de
entenderse el principio de esclavización.

Arne Wunderlin: Bien, no todo es sinergia. Para aplicar el método hay que fijar muy
bien las condiciones. Y el método sólo es aplicable en las proximidades de ciertos
puntos críticos en los que aparece la transición de un estado a otro. En biología tales
puntos se dan con mucha frecuencia. La dinámica de poblaciones en ecología es uno de
los más tratados. Ahora bien, la evolución biológica como un todo no puede encajar en
este, como usted le llama, paradigma.

Antoni Prevosti: Permítame insistir un poco en el tema. De sus ejemplos he deducido


que los sistemas genéticos son parámetros de orden. Pero ¿qué opina usted de los
enzimas? Aquí ya no estoy tan seguro.

Arne Wunderlin: En este caso me remito a los trabajos de Manfred Eigen. En el caso
de la evolución prebiótica los procesos catalíticos descritos por las ecuaciones de Eigen
juegan un papel trascendente. No hay mejor explicación para una evolución que nos
lleve eficazmente del caos a la complejidad.

Josep M. Pons: Ha expuesto usted un diagrama que mostraba la sinergia de las ideas.
¿Qué hay de las otras teorías o ideas que compiten con la sinergia para explicar
fenómenos parecidos?

Arne Wunderlin: Las que lo hacen con mayor mérito son las de Prigogine, sin duda.
La escuela de Bruselas parte del concepto de mínima producción de entropía para los estados
estacionarios, que desde luego no sirve para la descripción de los fenómenos de
autoorganización. Por ello introducen la idea de exceso de producción de entropía, que
equivale a nuestro análisis de la estabilidad lineal. Con ello se predicen las situaciones
críticas pero no lo que ocurre después. Para ello es esencial un tratamiento no lineal, y
en eso ambas aproximaciones convergen aplicando técnicas matemáticas parecidas,
desarrolladas con anterioridad en hidrodinámica y en óptica no lineal.
La metaciencia como arte

C. Ulises Moulines

Carles Ulises Moulines. Universität Bielefeld


Debo empezar esta charla con una justificación por el tema escogido. La
problemática general que nos ha reunido en este coloquio lleva el título de «La
imaginación científica», y éste es un rótulo lo suficientemente amplio como para que
bajo él quepan un sinnúmero de enfoques y opiniones sobre la ciencia y su relación con
la imaginación. Ahora bien, cualquier discurso que trate de la ciencia como objeto forma
parte de una actividad que podemos llamar «metaciencia» y que, en principio, no tiene
por qué identificarse con la ciencia misma. No obstante, yo he escogido como objeto de
discusión no la ciencia, sino la propia metaciencia y su relación con la imaginación
creativa; es decir, mi discurso no será metacientífico —como supongo que lo será el de
la mayoría de mis colegas— sino metametacientífico. En rigor, pues, me estoy saliendo
del marco establecido por el rótulo general y podría parecer que, si se me ha permitido
escoger este tema, ello se debe a una generosidad excesiva por parte de los
organizadores del coloquio. Por supuesto que debo la posibilidad de dirigirme hoy a
ustedes a la generosidad del «Institut d’Humanitats de Barcelona», que no sé si es
excesiva, pero sí en todo caso muy grande y que agradezco sinceramente. En cualquier
caso, también quisiera defender mi elección temática haciendo notar que, por sus
características propias, la metaciencia está irremediablemente ligada tanto a la ciencia
misma como a la imaginación creativa, por lo cual, hablar sobre la metaciencia implica
de algún modo también hablar sobre la ciencia y la imaginación científica.

Para comprender por qué esto ha de ser necesariamente así, es preciso empezar por
aclarar algunas ideas sobre lo que es, o pretende ser, la metaciencia y su relación con la
ciencia.

Una de las principales características de la especie humana es su capacidad para


formar conceptos, principios y teorías con el propósito de comprender el mundo que
nos rodea. A este tipo de actividad humana podemos llamarla «teorización». El
dedicarse a la teorización proviene de nuestro impulso a analizar, sistematizar y, en
algún sentido, ordenar lo que percibimos directamente.

Hay muchas maneras de teorizar. Por ejemplo, mitos, religiones y concepciones


metafísicas son el producto de diversas maneras de teorizar sobre el mundo. Y
asimismo lo son las ciencias. Podemos decir que la ciencia en general, al igual que los
mitos, las religiones, etc., resulta de una actividad teorizadora que se refiere
directamente al mundo. Por ello podemos decir también que todo este tipo de
actividades humanas se hallan en un primer nivel de teorización, dado que se refieren a la
realidad inmediata. El resultado de las actividades teorizadoras del primer nivel no
forma parte de los elementos constituyentes de la realidad empírica inmediata; pero
esta última es el punto de partida de las teorizaciones del primer nivel. Así, la percepción
de un relámpago y sus consecuencias inmediatas puede ser el origen de ideas tan
diversas como las de dios, castigo, fluido eléctrico o campo electromagnético.

Ahora bien, otra característica peculiar de la especie humana es el carácter recursivo


de muchas de sus actividades. Y así como podemos hablar sobre el lenguaje o soñar que
estamos soñando, asimismo un impulso irrefrenable, y que sólo una sociedad totalitaria
podría impedir, nos lleva a teorizar sobre nuestras teorizaciones sobre la realidad.
Emprendemos entonces la tarea de analizar, sistematizar y, en lo posible, ordenar las
teorizaciones del primer nivel. Este tipo de actividad se ubica en un segundo nivel de
teorización. En este segundo nivel, estudiamos no ya los relámpagos, sino los mitos, las
religiones y las ciencias que se refieren a los relámpagos. En el caso particular de las
ciencias, construimos teorías que versan sobre las teorías científicas, es decir,
construimos metateorias. Y a la disciplina dentro de la cual ocurren dichas
construcciones, podemos llamarla pues «metaciencia».

Con ello no hago sino seguir la tradición que introdujo el uso del vocablo
«metamatemática» para el estudio de las teorías matemáticas, y «metalógica» para el
estudio de los sistemas lógicos.

La metaciencia construye modelos, es decir, formula teorías acerca de diversos


aspectos de la ciencia. Podemos formular teorías, por ejemplo, acerca de cómo la
personalidad de los científicos incide sobre las teorías que ellos forjan o aceptan, o bien
sobre las relaciones de poder centro de las instituciones científicas o entre instituciones
distintas. Pero además, también podemos formular teorías acerca de la estructura de las
teorías científicas, por así decir, como entidades con existencia propia. En tal caso,
construimos metateorías en el sentido filosófico del término. No creo que el análisis
metateórico de las teorías científicas se reduzca o disuelva en el análisis de las
personalidades o comunidades productoras de dichas teorías. Ello equivaldría a una
forma de psicologismo o sociologismo que, si bien está en boga en ciertos medios
intelectuales hoy día, no sólo me parece erróneo, sino de un primitivismo cultural
bárbaro. Me parece obvio que podemos identificar las estructuras conceptuales de la
ciencia como entidades relativamente autónomas con respecto a la idiosincrasia
personal o social de sus usuarios, del mismo modo como podemos identificar las
estructuras gramaticales de una lengua sin necesidad de conocer muy bien la biografía
de sus parlantes ni las tensiones sociales a las que están sometidos. Si palabras como
«concepto», «teoría», «marco conceptual» no tuvieran ningún sentido más que como
abreviaciones de ciertos estados mentales de un individuo humano o de ciertas
interacciones entre individuos de una comunidad, entonces la metaciencia, y en general
cualquier teoría de la cultura, no tendrían ninguna razón de ser. Analizar teorías
implica ya tomar un punto de vista filosófico determinado, aunque sea en un sentido
muy amplio: implica rechazar formas extremas de nominalismo, conductismo o
sociologismo, según las cuales no tiene sentido analizar conceptos o ideas con relativa
independencia de los individuos biológicos o las comunidades sociales que los
expresan.

Hoy día parece claro que el nominalismo no lleva a ninguna parte en


metamatemáticas, y que el conductismo sería un desastre para los fundamentos de la
psicología; sostengo que el resultado no sería mejor si adoptáramos el sociologismo en
metaciencia en general.

Tiene sentido, pues, abordar el estudio metateórico de las teorías científicas como
entidades irreductibles ontológica y metodológicamente a sus usuarios. Lo que quizá no
está tan claro es la naturaleza y el modo de operar de este tipo de estudio, sobre el cual
se ha reflexionado todavía poco porque es históricamente muy reciente. En lo que sigue,
voy a dedicar mis reflexiones a elucidar esta cuestión.

Una primera concepción posible del objetivo básico de la metaciencia es que se trata
de redactar una especie de enciclopedia universal de las ciencias, donde se describa
simplemente en qué consisten éstas según los textos estándares que las exponen. Es
decir, la actividad del metacientífico consistiría en hacer un recuento del siguiente tipo:
«La ciencia consta de las especialidades de física, química, biología, etc. A su vez, la
física consta de la mecánica, la electrodinámica, la termodinámica, etc. A su vez, la
mecánica consta de tres principios: el primero, el segundo y el tercero…». O algo por el
estilo.

Es verdad que durante los primeros balbuceos históricos de la disciplina que ahora
llamamos «metaciencia», a saber en la época de Auguste Comte y sus discípulos, ésta
tendía a parecerse a la caricatura que acabo de hacer. Pero esto no fueron sino los
primeros balbuceos que, como en toda disciplina que comienza, al principio son
primitivos y modestos. Si examinamos con mínima atención las principales
producciones metacientíficas de los últimos sesenta años, nos percataremos de que
tienen un carácter muy diferente al de meras clasificaciones enciclopédicas. Lo que no
está tan claro precisamente es cuál es ese carácter más complejo, y sobre ello hay
todavía mucho que discutir. Mi contribución a esta discusión se resume en dos tesis:

1) Que la metaciencia es una forma de ciencia.

2) Que la metaciencia es una forma de arte.


La mayoría de practicantes de esta actividad seguramente estarán de acuerdo en la
primera tesis. Por otro lado, nadie se sorprenderá por ello, puesto que, en una época en
la que todo el mundo quiere ser científico, ¿qué más natural, se dirá, que también los
que estudian la ciencia quieran hacerlo científicamente?

Ahora bien, claro que no se trata aquí de hacer esta concesión malévolamente
benévola y señalar que, como todo el mundo se autoclasifica de científico hoy día, este
rótulo ya no quiere decir nada, y lo podemos aplicar a quién se nos antoje, incluidos los
propios metacientíficos. Tampoco se trata de volver a las andadas de los padres
fundadores de la disciplina, los positivistas lógicos, y tratar de establecer un criterio de
demarcación tajante entre ciencia y pseudo-ciencia, y hacerlo de tal modo que uno
mismo caiga, por una especie de milagro auto-referencial, en el cajón de las disciplinas
científicas. Al afirmar el carácter científico de la metaciencia, se trata de decir algo más
interesante: se trata de trazar ciertos paralelismos, que nos parecen reales y fructíferos,
entre la metaciencia misma y algunas de las disciplinas paradigmáticamente reconocidas
como ciencias.

En publicaciones anteriores («La filosofía de la ciencia y las ciencias de la cultura»;


Exploraciones metacientíficas, cap. 1; «On How the Distinction Between History and
Philosophy of Science Should Not be Drawn») he expuesto en qué sentido la actividad
metacientífica, al menos tal como yo la entiendo, revela al análisis notables paralelismos
con disciplinas que nadie dudaría en clasificar de científicas, especialmente la
matemática y la lingüística. Aquí no voy a extenderme sobre este punto. Voy a darlo
por sentado, y pasar a la segunda tesis, que probablemente choque con más resistencias:
la de que la actividad metateórica, aparte de ser científica, es también una forma de arte.

Naturalmente, no quiero decir con esto que la metaciencia sea un arte en el sentido
trivial en que llamamos «arte» a toda actividad humana deliberada que se ejecuta con
mayor o menor pericia, en el sentido en que hablamos, por ejemplo, del «arte de amar»
o del «arte de la guerra». Lo que propongo a consideración es que al tipo especial de
teorización de segundo orden del que tratamos aquí se le pueden aplicar una serie de
categorías estéticas características de las artes generalmente reconocidas como tales,
ante todo de las artes plásticas, y en buena medida también de la música y la
novelística. Tampoco se trata de defender la tesis confusa de la identidad entre arte y
ciencia, tesis que tomada en su generalidad me parece, o bien trivial, porque prescinde
de cualquier posición en las nociones de arte y ciencia, o bien, si se la precisa un poco,
manifiestamente falsa. Thomas Kuhn, en su ensayo «Comments on the Relations of
Science and Art» (Kuhn, The Essential Tension, cap. 14) ha argüido de manera
convincente que la tesis general de la identidad entre arte y ciencia es insostenible, y no
creo necesario abundar en los argumentos kuhnianos.
Lo que es más interesante es comprobar que algunas actividades reconocidamente
científicas son, en un sentido profundo, muy próximas a lo que normalmente se
entiende por arte, sin perder por ello su carácter científico. El caso más notable y
generalmente admitido de esta situación es el de las matemáticas, la «reina de las
ciencias», que, al menos en su forma pura, está determinada en gran medida por
categorías estéticas. Ya Spengler había notado, en su monumental Decadencia de
Occidente, este carácter de las matemáticas: «La matemática también es un arte. Tiene
sus estilos y sus períodos estilísticos. Ella no es, como cree el lego… algo inmodificable
en su substancia, sino que, al igual que cualquier forma de arte, está sometida a
transformaciones que varían imperceptiblemente de una época a otra. No habría que
estudiar el desarrollo de las grandes artes jamás sin echar una ojeada, siempre útil, a la
matemática coetánea» (Spengler, Der Untergang des Abendlandes, págs. 82-83). La tesis de
Spengler, que a principios de siglo podía sonar todavía un poco aventurada, es hoy día
casi un lugar común entre los matemáticos «puros».

Pues bien, la tesis que yo quisiera defender aquí es que la metaciencia es un arte en
un sentido similar a como lo es la matemática, lo cual no debería parecer asombroso
porque ya he señalado que, a mi entender, hay cierto parentesco entre ambas
disciplinas. Por otro lado, no estoy sosteniendo que la metaciencia es arte en
exactamente el mismo sentido o de igual manera en que lo es la matemática. Cada una de
ellas constituye sus valores estéticos de acuerdo a sus formas propias, como también lo
hacen por su lado, cada una a su modo, la pintura y la arquitectura, por ejemplo. Y las
fuentes de dichos valores son en uno y otro caso distintas; aunque haya paralelismos.

Los componentes estéticos en la producción metacientífica provienen directamente


de su carácter reconstructivo. Las metateorías que proporciona la filosofía formal de la
ciencia suelen caracterizarse como «reconstrucciones lógicas» o «formalizaciones» de las
teorías científicas que son su objeto: En vez de reconstrucciones también podríamos
hablar de «representaciones», si se hace hincapié en el prefijo «re» de esta palabra y no
se la toma como sinónimo de «fiel reflejo» del objeto.

En su obra pionera en la teoría estética analítica, Languages of Art, Nelson Goodman


distingue entre dos grandes clases de sistemas simbólicos en la producción cultural
humana: los sistemas descriptivos, típicos del lenguaje común y también de las formas
básicas del lenguaje científico, por un lado, y los sistemas representacionales,
característicos del arte, por otro. Goodman subraya que su noción de representación no
debe ser entendida en el sentido de una copia o imitación fiel del objeto representado
por parte del representante. Es más, su noción de representación no presupone la de
semejanza en el sentido usual. Es cierto que hay formas artísticas, como la pintura
naturalista, que giran justamente alrededor de la semejanza entre representado y
representante.

Pero esta característica no puede generalizarse a todas las formas de arte, y no es ni


siquiera la más frecuente. La representación de la que habla Goodman y que él en su
libro nunca acaba por definir exactamente, la interpreto como el producto de un
particular proceso simbólico de desconstrucción del objeto representado junto con la
posterior síntesis abstractiva de los elementos esenciales del mismo en una unidad
global, que nos permite ver lo representado bajo una luz distinta. A partir de cierto
grado de internalización de la experiencia estética que nos propone la obra de arte,
aprendemos a percibir el mundo empírico que nos rodea —el mundo de las
impresiones visuales y acústicas, de las emociones y los sentimientos de la vida
cotidiana— de una manera distinta, bajo una unidad simbólica superior. Nos ocurre
entonces que ante cierto paisaje de cipreses en Provenza, somos capaces de
contemplarlo como nos lo propone Van Gogh, o que, acogidos bajo la nave de una
catedral gótica, vislumbramos el significado que puede tener lo que se llama «un
sentimiento de elevación mística», incluso si no estamos ni remotamente capacitados
para pintar como Van Gogh o para construir como los maestros del siglo XIII. En un
comentario posterior a su libro, Goodman escribe: «Después de haber pasado un par de
horas en una exposición, a menudo salimos de ella y entramos en un mundo visual
muy diferente del que habíamos dejado. Vemos lo que no habíamos visto antes, y lo
vemos de una manera nueva. Hemos aprendido» («Replies», pág. 173). Yo sostendría que
el tipo de experiencia que describe Goodman, y que es un lugar común referida al caso
de la pintura u otras artes plásticas, es enteramente similar a la que se tiene, o se debería
tener, ante una buena reconstrucción lógica de teorías o conceptos científicos, del tipo
de las que ha producido la filosofía formal de la ciencia en este siglo. De manera
análoga al pintor, el metateórico nos propone una representación o reconstrucción bajo
una luz nueva, más sintética y abstracta a la vez, de cosas que para cualquier estudiante
de ciencias pueden ser tan familiares como la mecánica newtoniana o el concepto de
entropía. Nótese que la mayor o menor intensidad de esta experiencia ante la
representación artística de un objeto, nada tiene que ver con la mayor o menor fidelidad
descriptiva al mismo, en el sentido vulgar de una reproducción fotográfica. Esta es una
lección que nos ha dado magistral y explícitamente la pintura de los últimos cien años,
pero que en realidad ya estaba contenida en esta forma de arte desde mucho antes. La
pretensión de reflejo fiel, en el sentido físico, del objeto representado, es ajena, o por lo
menos irrelevante, para la representación estética, tanto en el caso de las artes plásticas
como en el de las reconstrucciones metateóricas. La fidelidad fotográfica, ya sea con
respecto a objetos físicos como cipreses o seres humanos, o bien con respecto a
entidades abstractas como teorías o constructos científicos, es asunto para un buen
reportero periodístico, pero no tarea para pintores ni para filósofos, respectivamente.
Para aceptar esto, naturalmente, hay que romper fuertes resistencias debidas a los
hábitos perceptivos y a los prejuicios producto de la socialización. Actualmente, estas
barreras se han roto ya en gran medida por lo que respecta a las artes plásticas, aunque
no hay que olvidar que ha sido un proceso largo y difícil. Basta recordar que, todavía en
1925, en La deshumanización del arte, Ortega y Gasset caracterizaba las «nuevas» formas
de expresión estética (nuevas entre comillas, porque ya para entonces llevaban un
cuarto de siglo de existencia) como un arte esencial e irremediablemente impopular, y
predecía que nunca iba a ser aceptado por el público en general. En cierto modo, esto
sigue siendo así, pero el rechazo se ha mitigado y, en todo caso, ya no está fomentado
institucionalmente. La gente que acude hoy a una exposición de los minotauros de
Picasso, aunque no sea entendida en pintura, ya no espera que el toro representado en
uno de esos cuadros se parezca, como una gota de agua a otra, a los de las fiestas de San
Fermín. Claro que en algunos medios culturales, sobre todo en aquellos países cuyo arte
está dominado por el llamado «realismo socialista», este punto de vista acerca del
carácter representativo y no descriptivo de la obra de arte aún no está ampliamente
difundido; pero, en cualquier caso, parece que incluso en esos países la gente informada
y, sobre todo, los propios artistas, ya se están dando cuenta de lo insostenible de la idea
del arte como «fiel reflejo» de la realidad. En cambio, los filósofos formales de la ciencia
hasta ahora han sido menos afortunados que los pintores y escultores, y no sólo en los
países totalitarios. Con respecto a la metaciencia, las resistencias originadas por lo que
puede llamarse el «espíritu fotográfico-periodístico», es decir, por la perspectiva
puramente descriptivista, son todavía muy fuertes, y en muchos medios académicos
impera aún algo así como un «realismo socialista» con respecto a las reconstrucciones
formales de constructos científicos. Mientras que el aficionado a los toros mínimamente
educado que asiste a una exposición de Picasso no espera reencontrar allí la fiel
reproducción del toro que vio en la plaza, en cambio, es frecuente una reacción de
aversión, cuando no de rechazo sin apelativos, por parte de quienes no ven en alguna
reconstrucción lógica de la mecánica newtoniana exactamente lo mismo que aquello
que están acostumbrados a ver cuando abren un libro de texto de física.

Claro que hay diferencias notables entre las categorías de objetos representados en la
pintura y en la metaciencia, respectivamente. La pintura, al menos hasta épocas
recientes, ha solido representar objetos de nuestra experiencia visual ordinaria, es decir,
básicamente objetos físicos ubicados concretamente en el espacio y en el tiempo,
mientras que las metateorías representan objetos abstractos como teorías o sistemas
conceptuales científicos, que no forman parte de la experiencia común y cuya
percepción requiere cierto nivel de abstracción intelectiva. Sin embargo, por un lado
hay que hacer notar que esta diferencia en las categorías de objetos quizá no es tan
radical como podría parecer a primera vista, ya que la pintura del siglo XX ha caminado
un buen trecho hacia la representación de objetos abstractos, desligados de cualquier
concreción física, como son formas puras, configuraciones cromáticas, equilibrios de
masas, etc., y tales objetos no se hallan tan alejados como parece de las estructuras
conceptuales que produce la ciencia. Por otro lado, en definitiva no es una posible
similitud en la categoría ontológica de lo representado lo que interesa enfatizar aquí,
sino en el tipo de operación por el que se lleva a cabo esa representación.

La analogía entre la representación pictórica y la metacientífica nos permite aclarar


ciertos aspectos de esta última que han sido objeto de muchos debates entre filósofos de
la ciencia. En particular, un aspecto que ha inquietado o molestado con frecuencia a
quienes se ven confrontados por primera vez a trabajos de reconstrucción formal de
teorías científicas es la falta de univocidad en la reconstrucción o representación de una
misma teoría o sistema de conceptos. A primera vista, esta disparidad puede parecer
debida a la rivalidad entre distintas escuelas metacientíficas que difieren
irremediablemente en cuanto a sus convicciones epistemológicas fundamentales. No
obstante, esta explicación sólo en parte es plausible. En primer lugar, no se ve en
muchos casos por qué las disparidades en las representaciones propuestas de una
misma teoría-objeto tienen algo que ver con supuestas concepciones filosóficas
distintas. En segundo lugar, incluso dentro de una misma escuela metodológica, es
frecuente que se hagan propuestas de reconstrucción bastante distintas, o que un mismo
autor cambie de representación con el paso del tiempo, sin que él mismo o sus colegas
sientan eso como un cambio radical en sus concepciones epistemológicas o filosóficas
fundamentales. Esta pluralidad de representaciones, incluso coexistentes dentro de la
misma escuela, suele dar al exterior la impresión de arbitrariedad, y para aquellos que
creen que sólo puede haber una metateoría verdadera que describa la ciencia tal como
ésta es, esa situación debe necesariamente aparecer como un rotundo fracaso de la
metaciencia. Pero, si abandonamos la idea de que las metateorías de la ciencia son
sistemas simbólicos descriptivos y aceptamos, que son representativos, entonces la
plurivocidad de reconstrucciones lógicas de una misma teoría pierde su aire de
arbitrariedad inaceptable, y resulta algo natural y hasta deseable. Reconstrucciones no-
equivalentes de la misma teoría científica pueden ser igualmente valiosas en el sentido
de que ponen de relieve distintas estructuras profundas, todas igualmente interesantes,
del mismo objeto teórico. Y así como nadie se escandaliza por el hecho de que el mismo
objeto simbólico, por ejemplo Cristo crucificado, haya sido representado plásticamente
de manera distinta por Velázquez y Dalí, ni clama por ello que asistimos al fracaso de la
pintura, así tampoco hay por qué escandalizarse de que la representación de la
mecánica newtoniana llevada a cabo por Richard Montague en lógica de primer orden
sea distinta a la ejecutada por Patrick Suppes y sus colaboradores en teoría informal de
conjuntos. Y así como no tiene sentido preguntarse si el Cristo de Velázquez es «más
verdadero» que el de Dalí, tampoco lo tiene el preguntarse si la axiomatización de la
mecánica debida a Montague es más verdadera o más falsa que la propuesta por
Suppes. Aunque a veces el modo de exposición, tanto en un ámbito como en el otro,
parezca descriptivo, el metateórico, al igual que el pintor, no nos dice: «El mundo es
así», sino que nos exhorta: «¡Ved el mundo así!».

Más que diferencias de escuelas, lo que constituye la disparidad manifiesta dentro


de la metaciencia son las diferencias de estilo. Y éste es, nuevamente, un concepto
esencialmente estético. «Diferencias de escuelas» suele entenderse como divergencias
entre distintos grupos de gente, de los cuales cada uno afirma que posee la verdad y
que todos los demás están equivocados. Es cierto que a veces algunos metateóricos
hablan como si fuera justamente ésta su actitud en las discusiones. Pero, o bien es que
no han sido cautos en el modo de presentar su punto de vista, o bien se trata de algo
peor: no han comprendido cuál es el objetivo de su propia disciplina. Esto último quizá
tampoco es de extrañar, ya que la historia de ésta es muy reciente y se halla aún teñida
de un largo pasado metafísico repleto de batallas truculentas por la posesión de «la
Verdad». En cualquier caso, la diferencia que existe entre el modo de representar las
teorías físicas que expone, por ejemplo, Rudolf Carnap en su Introduction to Symbolic
Logic and Its Applications y el modo de Günther Ludwig en Die Grundstrukturen einer
physikalischen Theorie no radica en que uno posea la verdad y el otro no, sino en una
diferencia de estilo reconstructivo, al igual que el modo como Velázquez representa a la
aristocracia de su tiempo y el modo en que lo hace Goya también se diferencian por el
estilo, y no porque el uno sea más verdadero y el otro menos. Los cuadros de Goya nos
hacen ver el mismo mundo de una manera distinta a como nos lo hacen ver las pinturas
de Velázquez, y análogamente el estilo estructural-operacionalista de Ludwig nos
propone una visión de las teorías físicas distinta de la propuesta por el estilo
axiomático-formalista de Carnap.

Hace poco me contaban que un colega filósofo, cuya identidad guardaré en púdico
secreto, manifestaba clamorosamente que cierto programa metateórico, el del
estructuralismo iniciado por Joseph Sneed, «ya carecía de interés porque había sido
refutado». Esta afirmación es un caso de lo que en jerga filosófica llamamos un «error
categorial». Nadie puede demostrar que la metateoría estructural es falsa, así como
nadie puede demostrar, tampoco, que es verdadera. «Verdad» y «falsedad» no son,
justamente, el tipo de categorías que pueden aplicarse a la metateoría estructural, como
tampoco a ningún otro programa metateórico.

Ver las diferencias entre distintos enfoques metacientíficos fundamentalmente como


diferencias de estilo, nos permite identificar mejor la naturaleza y los objetivos de los
distintos programas de representación de la ciencia en este siglo. A continuación, voy a
dar algunos ejemplos, sin la pretensión de ser exhaustivo. Uno de los primeros estilos
reconstructivos claramente identificables en la metaciencia moderna, quizás el primero
históricamente, fue el que podríamos llamar “constructivo-fenomenalista”, y que tiene
su expresión paradigmática en los años veinte con la obra de Carnap, Der logische
Aufbau der Welt («La construcción lógica del mundo»). La idea era construir, utilizando
métodos rigurosos de la lógica, la teoría de conjuntos y la topología, todos los conceptos
fundamentales de las ciencias empíricas, paso a paso y a partir de una base sensorial de
elementos consistentes en las experiencias globales momentáneas de un sujeto
percipiente, elementos que Carnap llama «vivencias» (Erlebnisse). El procedimiento
recuerda la construcción del número real a partir de los números naturales mediante
sucesivas definiciones de relaciones de equivalencia, y está sin duda inspirado en él,
aunque es mucho más ambicioso y por ello mismo más plagado de dificultades técnicas.
Personalmente no me cabe ninguna duda de que el Aufbau de Carnap es una auténtica
obra de arte, en cualquier sentido de la palabra, sin duda una de las más grandiosas de
la metaciencia de este siglo, y creo que cualquier lector atento y desprejuiciado
convendrá en ello, independientemente de cuál sea su propio estilo metateórico. Tiene
el mismo élan grandioso y descarnado, apasionado y racionalista a la vez, que
podríamos encontrar en una composición de Alban Berg o en un edificio de la Bauhaus.
Las analogías no son casuales y Carnap mismo era plenamente consciente de ellas. En el
prólogo de 1928 a su libro escribe:

«Sentimos que existe un parentesco interno entre la actitud que sostiene nuestro
trabajo filosófico y la actitud espiritual que se manifiesta actualmente en otros dominios
muy distintos de la vida; notamos esta actitud en ciertas corrientes artísticas,
especialmente de la arquitectura… En todos estos ámbitos notamos la misma actitud
básica, el mismo estilo de pensar y de crear. Es la tendencia a buscar en todos lados la
claridad» (Der logische Aufbau der Welt, pág. XX).

El estilo constructivo-fenomenalista ha tenido pocos continuadores. Dos excelentes,


aunque poco estudiadas, muestras posteriores de ese estilo son The Structure of
Appearance, de Goodman, y A Deductive Theory of Space and Time, de Saul Basri. Por mi
parte, he tratado de hacer una contribución a dicho estilo en mi libro La estructura del
mundo sensible.

Carnap mismo abandonó el estilo constructivo-fenomenalista poco después de la


publicación de su Aufbau y, al igual que aquellos pintores que abandonan un estilo en el
que ya han logrado cuajar una obra significativa para experimentar con nuevas técnicas
o enfoques, se pasó a un procedimiento de reconstrucción de teorías empíricas bastante
distinto, que podríamos denominar «axiomático-formalista». Si al estilo inaugurado por
el primer Carnap podemos calificarlo de dinámico y musical, al de la nueva etapa sería
más conveniente concebirlo como estático y pictórico-abstracto. La inspiración provino
en este caso del programa formalista de Hilbert en metamatemáticas; y la idea era ver
las teorías empíricas como cálculos lógicos nointerpretados, a los que luego había que
proveer de reglas de correspondencia que ataran algunos de sus términos básicos al
dominio de lo observable. Ya he citado antes la obra más completa de Carnap en este
estilo: Introduction to Symbolic Logic and Its Applications. Pero la culminación, al menos
provisional, de este modo de representación de teorías empíricas probablemente no se
encuentre en Carnap mismo, sino en su discípulo Montague, con su ensayo
Deterministic Theories.

Otro estilo metacientífico general es el que podríamos clasificar con el rótulo de


«operacionalista», en un sentido muy amplio de esta palabra. Consiste en la propuesta
de reconstruir los conceptos y teorías de las ciencias empíricas a partir de nociones
directamente interpretables como operaciones de laboratorio. Es difícil encontrar
calificativos estilísticos para describir apropiadamente cada estilo metateórico, pero en
este caso quizá cabría hablar de un estilo «rectilíneo» y «simplista», sin que esta
terminología implique una evaluación negativa, sino que es sólo el intento de expresar
gráficamente la idea básica del operacionalismo, a saber, la de reducir estrictamente los
aspectos más complejos, teóricos y cuantitativos de la ciencia a operaciones cualitativas
de estructura muy simple. En realidad, caben dentro del operacionalismo como marco
general diversos subestilos claramente diferenciados. Hay el operacionalismo puro y
duro de Bridgman, el cual, no obstante, y a pesar de la influencia directa que ha ejercido
en muchos medios científicos desde la física hasta la psicología, nunca cuajó en una
gran obra de arte, a menos que se subsuma bajo esa corriente la obra ignorada pero
espléndida de Giles, Mathematical Foundations of Thermodynamics, en la que se «reduce»
(como dicen los operacionalistas) toda la termodinámica a las tres nociones cualitativas
operacionales de «identificación de estados», «transición de un estado a otro» y
«combinación de estados». Otra forma de operacionalismo radical, más consolidado
que el anterior, es el de la llamada «Escuela de Erlangen» fundada por P. Lorenzen en
Alemania, siendo la obra más notable en ese estilo quizá la Protophysik der Zeit de Peter
Janich. Podemos identificar también formas de operacionalismo menos radicales, más
sofisticadas, elaboradas o matizadas, como son el operacionalismo
«representacionalista» de Suppes y sus colaboradores, expuesto en el impresionante
volumen titulado Foundations of Measurement, y el operacionalismo bourbakista
estructural de Ludwig en el no menos importante texto ya citado, Die Grundstrukturen
einer physikalischen Theorie.

Existe finalmente por lo menos otro gran estilo de representación formal de las
teorías científicas en el panorama metacientífico actual: el que en términos muy
generales podríamos denominar «estilo semántico o modelo-teórico». A él pertenecen el
enfoque de Suppes y Van Fraassen, el de ciertos autores polacos como Przelecki y
Wojcicki y, por supuesto, el ya mencionado «programa estructuralista», iniciado por
Sneed en The Logical Structure of Mathematical Physics y cuyas excelencias, por un
mínimo pudor, no voy a cantar, porque yo mismo trabajo desde hace años en él. Me
limitaré a caracterizarlo brevemente como un estilo que pretende la máxima flexibilidad
posible en la representación y que, al contrario del operacionalismo, no pretende llevar
a cabo ninguna reducción de lo complejo-cuantitativo a lo simple-cualitativo, ni
tampoco asume un modo de reconstrucción unidireccional. Más bien habría que hablar
aquí de un estilo multidimensional, en el que se conjugan diversos planos de
construcción, y sobre todo en el que se pretende representar el carácter global de la
ciencia. Es, si se quiere, un estilo holista y organicista.

No quiero fatigarles más a ustedes con una ducha de títulos y nombres, que para la
mayoría deben sonar a música celestial o, mejor dicho, a música infernal. Con este
recuento relativamente largo de enfoques, perspectivas y procedimientos (a los que por
supuesto podría añadir otros), sólo quería participarles una mínima impresión de la
variedad de formas de representación en la metaciencia reciente, variedad que puede
competir perfectamente con la que conocemos todos en la pintura o la música
contemporáneas.

Esta pluralidad de enfoques o, como sería mejor decir, de estilos, puede resultar
chocante o incluso repugnante a quien busque un punto de vista absoluto desde el cual
apresar lo que supuestamente es la verdad única sobre las teorías científicas; pero será
bienvenida, en cambio, por aquellos que, como yo mismo, consideren que es en la
variedad de opciones donde radica el interés y el atractivo de cualquier discurso
representacional, no-descriptivo, ya sea con respecto a la ciencia como en cualquier otro
campo de la cultura.

Negar el carácter puramente descriptivo tanto del arte como de la metaciencia, negar
que las categorías de verdad y falsedad en el sentido de correspondencia con los hechos
puedan aplicarse realmente a las obras de arte y a las metateorías, afirmar en fin el
carácter necesariamente multívoco de ambos tipos de producciones; todo eso no implica
en absoluto caer en el relativismo. No implica que en metaciencia «todo valga», que no
haya criterios para evaluar más positivamente unas metateorías que otras, como
tampoco sería correcto inferir del carácter no-descriptivo de la pintura en general que
cualquier cuadro tiene el mismo valor artístico que cualquier otro.

Lo que ocurre es que los criterios de evaluación no están basados en la noción de


verdad, al menos en el sentido clásico de esta noción como correspondencia biunívoca
entre el pensamiento y los hechos. Puede hablarse de algo así como de una «verdad
interna» con respecto a las reconstrucciones metateóricas, de modo análogo a como los
críticos de arte hablan de la verdad interna de una pintura o una novela. Esta verdad
interna puede equipararse a la idea de adecuación de una representación artística, pero
justamente es una adecuación que no debe confundirse con la adaequatio rei et intellectus
de la teoría clásica de la correspondencia. Más bien debe entenderse aquí la palabra
«adecuación» en el sentido en que podemos decir que cierto tipo de vestido es
adecuado para cierto tipo de persona. Un vestido no es «verdadero» de una persona,
sino que «le queda» más o menos bien, y sobre todo es importante notar que a esa
misma persona le pueden ser adecuados, le pueden quedar bien, cierto número de
vestidos diversos, aunque claro que también habrá ropajes que no le queden bien en
absoluto, e incluso puede que haya vestidos que no le vengan bien a nadie.

Cuando una vez un estudiante le preguntó a Sneed por qué prefería representar las
teorías científicas al modo estructuralista y no, por ejemplo, de la manera más clásica al
estilo de Carnap, Sneed repuso: «Porque así es más elegante». Efectivamente, «elegancia»
es un término que expresa el tipo de criterio que puede usarse para escoger unas
metateorías frente a otras. Es evidente que se trata de un término de carácter
eminentemente estético. Y no es el único de esta clase que puede aplicarse a las
reconstrucciones metateóricas. Términos de naturaleza igualmente estética o para-
estética, tales como «coherencia», «potencia expresiva», «claridad», «perspicuidad», son
también de uso común en este contexto. Ninguno de los criterios que expresan estos
términos y otros parecidos pueden reducirse a nociones veritativas o epistémicas.

Ello no significa, por otra parte, que los únicos valores que puede transmitir una
metateoría sean valores estéticos y no también valores epistémicos. En realidad, la
supuesta dicotomía entre arte y conocimiento es una de tantas burdas dicotomías que
hay que abandonar. El arte nos proporciona también conocimiento, aunque claro está
que se trata aquí de una forma de conocimiento distinta de la que obtenemos cuando
alguien nos informa que Katmandú es la capital de Nepal. Se trata de un tipo de
conocimiento cuyas vías de acceso son distintas a las del lenguaje descriptivo; son
justamente vías estéticas. Pero no hay que olvidar que la función primordial del arte es
proporcionar este tipo de conocimiento; su función es fundamentalmente epistémica. La
idea de que el arte es algo que se hace para pasar un buen rato, para divertirse o con el
fin exclusivo de tener sensaciones agradables, es una idea que probablemente ningún
artista o crítico del arte en sus cabales admitiría hoy día. Ninguna auténtica obra de arte
es un juego de niños, sino que es el resultado de un penoso esfuerzo… de «sangre,
sudor y lágrimas»; y no sólo por parte del artista, sino también por parte de quien trata
de incorporar en sí mismo el mensaje artístico. Dos grandes teóricos de la estética,
Adorno y Goodman, de quienes nadie sospechará que pertenezcan a la misma escuela o
tradición, coinciden en este punto: el arte no tiene nada que ver con el placer o con el
divertimiento. Adorno es lapidario: ante la obra de arte, dice, «sólo goza quien es
ignorante» (Ästhetische Theorie, pág. 24). Goodman matiza un poco más, pero en esencia,
sostiene lo mismo: «El carácter placentero o bonito no define ni mide la experiencia
estética o la obra de arte. El carácter agradable o desagradable de un símbolo no
determina su eficacia cognitiva general o su mérito específicamente estético» (Languages
of Art, pág. 259). Estas palabras las podemos aplicar sin cambiar nada a la experiencia
que implica la creación o la consideración de una representación metacientífica. Ella es
el producto de un esfuerzo, y no de la arbitrariedad juguetona, y es justamente a través
de este esfuerzo, el cual posee un carácter esencialmente estético, como alcanzamos
cierto tipo de conocimiento sobre la ciencia. Claro está que, subrayo nuevamente, este
conocimiento no es del tipo del transmitido por la proposición «Katmandú es la capital
de Nepal». Sería de este tipo si la metaciencia se limitara a proporcionarnos informes
enciclopédicos sobre la ciencia del tipo de los que mencionaba al principio de esta
charla, si se limitara a explicarnos que la mecánica newtoniana es una teoría que
aparece en los manuales de física y que consta de tres principios. Pero por supuesto que
esto no es lo que esperamos que nos ofrezca la metaciencia cuando representa
formalmente la mecánica newtoniana. Desgraciadamente es verdad que los escritos de
algunos metacientíficos y de algunos científicos que hablan sobre su propia ciencia a
veces se acercan peligrosamente a esta clase de trivialidades. Pero no son éstas las
producciones que debemos considerar como características de la metaciencia. La
apariencia inmediata de verosimilitud o de objetividad superficial no es canon de
evaluación en ningún arte. Aunque un reportaje periodístico sobre la vida en México en
los años 50 sea más «apegado a los hechos» que una narración de Juan Rulfo, no por
ello le daremos mayor valor literario al primero que a la segunda. Es más, en realidad
consideraremos que, a pesar de su aparente extrañeza, la narración de Juan Rulfo
representa mucho mejor, más profundamente, la realidad mexicana. Análogamente, la
misión de la reconstrucción de teorías no es la de proporcionar descripciones
aparentemente verosímiles de su objeto de estudio, sino hacérnoslo comprender mejor,
a un nivel más profundo e interesante.

Tómese cualquiera de las representaciones de la ciencia, en particular de la mecánica


newtoniana, para seguir con ese ejemplo, que se hallan contenidas en las obras de arte
metacientíficas que he citado más arriba, por ejemplo en las de Montague, Suppes,
Ludwig o Sneed, y se comprobará en seguida cuán lejos están de trivialidades del tipo
«la mecánica consta de tres principios», aun cuando por otro lado difieran
considerablemente en aquello que representan de la teoría mecánica y en el modo como
lo hacen.

El metateórico, al igual que cualquier artista, hace uso de su imaginación creativa


para inventar y, a través de ese inventar, descubrir algo que no era manifiesto. La
dicotomía invento/descubrimiento es otra de las incontables dicotomías fatales que hay
que superar si queremos alcanzar un nivel de reflexión adecuado a la naturaleza de la
obra de arte en general, y en particular al caso de las metateorías. Inventamos cierto
modo de representar, de descomponer y recomponer la ciencia, y a través de ello se nos
hacen manifiestos aspectos insospechados de la misma, aspectos que, vistos bajo esa luz
sintetizadora, nos dan una especial sensación de coherencia, que es justamente la base
del llamado «goce estético». Es una sensación que podemos comparar a la que se nos
induce cuando ya no vemos los números reales como esos entes opacos, ininteligibles
que eran para los griegos (por mucho que supieran calcular con ellos), sino como
entidades transparentemente construidas a partir de los números naturales con la sola
ayuda de nociones de lógica y teoría elemental de conjuntos. Y ésa es también la
sensación que se nos despierta ante unos cuantos cipreses esparcidos en un campo
cualquiera cuando, gracias a Van Gogh, ya no los percibimos como una configuración
amorfa e indiferente, que «no nos dice nada», sino como una unidad de significación de
orden superior. Para emplear un vocablo que en la estética actual parece haber caído un
poco en desuso, pero a falta de otro mejor, yo diría que lo que es común al resultado de
todos esos esfuerzos, lo que está en la base de su valor estético, es que logran constituir
una forma de armonía en la interacción entre el sujeto y el objeto de representación. Esa
armonía procura una sensación cadenciosa y, ciertamente, un sentimiento de
satisfacción; el cual, sin embargo, no es valioso por sí mismo, sino sólo en cuanto que es
signo de cierto tipo de conocimiento, de descubrimiento. En este sentido, el resultado de
la imaginación creativa y de su esfuerzo concomitante es esencialmente el mismo, ya
sea en el arte, en las ciencias exactas o en la reflexión metacientífica: el conocimiento por
vía estética.
Referencias

Adorno, Th. W.: Ästhetische Theorie, Suhrkamp, Frankfurt, 1970.

Basri, S.: A Deductive Theory of Space and Time, North-Holland, Amsterdam, 1966.

Carnap, R.: Der logische Aufbau der Welt, 1.ª edición, 1928; 2.ª edición, Felix Meiner,
Hamburgo, 1961.

—Introduction to Symbolic Logic and Its Applications, Dover, Nueva York, 1958.

Giles, R.: Mathematical Foundations of Thermodynamics, Pergamon Press, Nueva York,


1964.

Goodman, N.: The Structure of Appearance, 1.ª edición, 1951; 3.ª edición, Reidel,
Dordrecht, 1977.

—Languages of Art, Bobbs-Merril, Nueva York, 1968.

— “Replies”, Erkenntnis, vol. 12 (1978), págs. 153-179.

Janich, P.: Protophysik der Zeit, Suhrkamp, Frankfurt, 1980.

Krantz, D. H.; Luce, R. D.; Suppes, P.; Tversky, A.: Foundations of Measurement,
Academic Press, Nueva York, Londres, 1971.

Kuhn, Th. S.: “Comments on the Relations of Science and Art”, en The Essential Tensión,
University of Chicago Press, 1977.

Ludwig, G.: Die Grundstrukturen einer physikalischen Theorie, Springer, Berlín,


Heidelberg, 1978.

Montague, R.: “Deterministic Theories”, en: Thomason, R. H. (ed.), Formal Philosophy,


Selected Papers of Richard Montague, New Haven, Londres, 1974.

Moulines, C. U.: La estructura del mundo sensible, Ariel, Barcelona, 1973.

—“La filosofía de la ciencia y las ciencias de la cultura”, Metamorfosis, n.º 13, 1981, págs.
21-26.
—Exploraciones metacientificas, Alianza, Madrid, 1982.

—“On How the Distinction Between History and Philosophy of Science Should Not Be
Drawn”, Erkenntnis, vol. 19, 1983, págs. 285-296.

Ortega y Gasset, L: «La deshumanización del arte», Revista de Occidente, Madrid, 1925.

Spengler, O.: Der Untergang des Abendlandes, Munich, Beck, 1967-1969.


COLOQUIO

Jorge Wagensberg: Son muchos los atractivos de la metaciencia tal como la has
expuesto. Vaya eso por delante. Pero tengo curiosidad por saber si existe alguna
pretensión del digamos metacientifico por influir en la marcha de la propia ciencia.
Dirac decía (no se sabe si en serio o en broma) que la estética de las ecuaciones podía
llegar a decidir a la hora de elegir una descripción. ¿Crees que lo bello y lo feo ha de
tenerse en cuenta junto a lo verdadero y lo falso o lo bueno y lo malo?

Carles Ulises Moulines: Bien, no digo que el criterio estético haya de ser decisivo, pero
mi impresión es que tal criterio apenas ha sido tenido en cuenta hasta ahora en la
discusión científica y filosófica. Sin embargo, creo que en el fondo juega un gran papel a
la hora de decidirnos por una representación u otra de las teorías científicas. Esto no
significa que la formulación de metateorías no utilice otros criterios no precisamente
estéticos. Los filósofos de la ciencia de la escuela de Popper, por ejemplo, sostienen que
el criterio fundamental de la metaciencia debe ser de tipo normativo. Según esto el
metacientífico sería una especie de jurista, o incluso de policía, que va dirigiendo el
tráfico de las actuaciones: por aquí vamos mal, por aquí vamos bien, etc… Eso es para mí
una visión muy pobre de la tarea de la metaciencia, pobre e inútil, porque los
investigadores científicos tampoco harían demasiado caso. No niego con esto que en
ciertos casos la reflexión de tipo normativo no tenga su sentido. En la reconstrucción de
teorías se puede llegar a demostrar la existencia de elementos que funcionan mal:
contradicciones lógicas, ambigüedades, etc. En esos casos el metacientífico puede hacer
recomendaciones. Pero insisto en que mi intención es señalar que este tipo de criterio no
es el único, ni siquiera el más importante, para evaluar metateorías sobre las teorías
científicas. Creo que lo que nos apasiona en gran medida en un enfoque u otro es la
elegancia o la coherencia formal de la representación. La coherencia de Gunther
Ludwig, a quien tú conoces muy bien, es bien distinta a la de los formalistas clásicos. A
este nivel no tiene sentido hacerse preguntas sobre cuál es la verdadera y cuál es la falsa.
Lo que nos preguntamos en estos casos no difiere en nada de lo que nos preguntamos
ante una obra de arte, lo que nos preocupa es más bien la emoción.

Jorge Wagensberg: Las metateorías no deben, en todo caso, valorarse según su


capacidad de influencia en las teorías.

Carles Ulises Moulines: No, claro que no, al menos no sólo por eso. La verdad es que
tales influencias se han dado, pero han sido siempre negativas, han influido pero han
influido mal. Y eso es justamente lo que me hace sospechar de esta concepción de la
metaciencia. El positivismo comptiano, por ejemplo, influyó claramente en su origen, en
el siglo XIX, en toda una manera de hacer ciencias sociales, cosa que los sociólogos
actuales no aprecian demasiado. El llamado operacionalismo fue una metateoría que
favoreció el conductismo en psicología… y no sé si habrá conductistas en la sala, pero…
Las influencias metacientíficas en las disciplinas científicas no tienen en suma
demasiado prestigio.

Jesús Mosterín: Has dicho que la metaciencia es un arte en el mismo sentido que la
matemática…

Carles Ulises Moulines:… parecido.

Jesús Mosterín: Bueno, parecido. Pero somos muchos los que creemos que la
matemática es algo muy distinto de la ciencia. Un elemento esencial de la ciencia es sin
duda la representación de la realidad en su sentido más fuerte. Y está claro que en la
matemática no se impone tal elemento. Un ejemplo trivial pero ilustrativo: en la
realidad todo es finito, incluso el número de partículas del universo; en la matemática
ocurre lo contrario, los conjuntos más pequeños (como los números naturales) son
infinitos. La libertad del matemático es incomparablemente mayor que la del físico, el
químico o el biólogo… El lenguaje del matemático es como el del Dios Padre del día de
la creación: Sea tal cosa, hágase tal otra… Está sometido a muy pocas constricciones. En
este aspecto el metacientífico me parece mucho más próximo al científico que al
matemático. Esto es lo que permitía por ejemplo a Kuhn hacer una dura crítica a cierta
filosofía de la ciencia anterior calificándola de filosofía de la ciencia ficción. La escuela
estructuralista también se ha aprendido bien esta lección. ¿No crees exagerado conceder
a la metaciencia este tipo de libertad artística de la que sí goza la matemática?

Carles Ulises Moulines: Bien, se trata de una pregunta disparada al centro de la


cuestión. Creo haber respondido ya a ella, así que lo que voy a hacer es retomar los
puntos esenciales de mi ponencia en relación a este malestar tuyo. Diré, en primer lugar,
que para mí la metaciencia se parece a la matemática tanto en el aspecto científico (en su
modo de proceder) como en el artístico. No creo que todos los matemáticos y filósofos
de las matemáticas compartan tu visión de esta disciplina. Es muy general, por ejemplo,
admitir que existe un dominio de las estructuras abstractas no detectables por el aparato
sensorial humano, pero que de algún modo son percibibles. Es el caso de los números.
El matemático representa estos entes de la manera más elegante, coherente, etc., en
diversas teorías que no son únicas. Kroenecker decía, por ejemplo, que los números
naturales están dados por Dios, pero luego, claro, hay muchas maneras posibles de
construir teorías matemáticas. Para mí existen objetos abstractos externos a la mera
arbitrariedad y esta existencia restringe sin duda sus posibles representaciones
matemáticas. Kurt Gödel, a quien tú, yo y tantos otros en esta sala admiramos, opinaba
que el matemático ve los objetos que luego intenta tratar formalmente. Algún
nominalista estricto calificaría todo esto de basura metafísica, pero estoy seguro que son
muy pocos los matemáticos que se conformarían con llenar folios de fórmulas con la
sola restricción de no incurrir en contradicciones lógicas. Su voluntad es representar
entes que tengan sentido independientemente de ellos mismos. Si se acepta esta visión,
entonces creo que también puede aceptarse la similitud que he propuesto entre la
matemática y la metaciencia. Ambas actividades se dedican a representar entes
abstractos; en un caso son números, conjuntos u otras estructuras, y en el otro nada
menos que las teorías científicas. Son entes de distinta naturaleza porque las teorías son
entes históricos (normalmente con fecha de nacimiento y de defunción), pero ambos son
entes abstractos (lo son la mecánica de Newton y la termodinámica) y, sobre todo,
ambos de alguna manera existen, son percibibles.

Salvador Paniker: Debo empezar diciendo que he disfrutado mucho tu exposición,


aunque soy consciente que lo he hecho desde la posición del profano. Quiero hacer
entonces tres comentarios desde fuera, a la manera en la que Adorno hacía el elogio de
los ignorantes. Primero: a los valores epistémicos y estéticos, yo añadiría los valores
terapéuticos. Segundo: no entiendo bien por qué subrayar el criterio estético
precisamente en lo que tú llamas metaciencia y no en la ciencia misma o en la también
concebible metaciencia de la metaciencia. No comparto la idea de Mosterín, puesto que
las ciencias empíricas también están llenas de fenómenos culturales y creo que un poco
de arte tampoco les vendría mal. Tercero: estoy de acuerdo en que hay que superar
muchas dicotomías, pero ¿cómo superas tú la dicotomía filosófica entre idealismo y
realismo en el contexto de la metaciencia?

Carles Ulises Moulines: Empezaré por la última. Es la gran pregunta: relativismo versus
idealismo. Pero me temo que eso equivaldría aquí a la metafísica como arte en lugar de la
metaciencia como arte, curiosamente el error que se ha cometido en algunos de los
programas de mano que circulan por la sala y del que he advertido al principio de la
conferencia. Ojalá pudiera entrar algún día en cuestiones de este calibre. De momento
yo diría que la metaciencia debe superar tal dicotomía, justamente porque es arte.
Preguntarse si la metaciencia debe ser realista o idealista tiene el mismo sentido que
preguntarse si la representación de unos cipreses de Van Gogh es idealista o realista. Es
decir, para mí, ningún sentido. En cuanto a lo del valor terapéutico, tengo mis dudas. Si
nos referimos a la influencia sobre los científicos, entonces ya he expresado mi
prevención; y si nos referimos a su efecto, a sus efectos psicológicos, entonces creo que
la terapia es en todo caso un efecto secundario; no creo, por ejemplo, que un
conocimiento deba rechazarse porque sea en algún sentido desagradable. Totalmente
de acuerdo, por otro lado, con el arte en la ciencia misma, sobre todo en lo que se refiere
a las grandes teorías. Cuanto más general es una teoría física, más se difunde su
frontera con una metateoría filosófica de la física y mejor se puede aplicar la visión
artística que he dado de la una a la otra.

Luis Navarro: A mí me parece que lo que has hecho en tu exposición es recorrer dos,
digamos, cadenas de producción: la de la rama científica y la del arte. De este modo has
establecido ciertos paralelismos entre eslabones de dichas cadenas para concluir al final
que la metaciencia tiene mucho que ver con el arte. Pero has hablado sobre todo de
analogías, no de diferencias. Y está claro que si las segundas superan a las primeras,
entonces la balanza se inclinaría del otro lado. No has hablado, por ejemplo, de los
respectivos métodos y objetivos. Y yo creo que son muy distintos. La correspondencia
entre eslabones no está nada clara. En ciencia podemos tomar, como tú has señalado, la
realidad, la teoría y la metaciencia, pero, ¿qué viene después de la realidad y de la obra de
arte? En todo caso, luego se te ha escapado que la teoría de la relatividad es una obra de
arte, y eso introduce una notable confusión. Porque entonces, ¿qué es lo que hace
alguien que reflexiona sobre la teoría de la relatividad? Se parece al individuo que va al
Museo del Prado a copiar un cuadro de Goya, o más bien al crítico que juzga la obra o
que nos cuenta cómo ve él la tela. Esta última interpretación es, por cierto, de dónde
surge la mala imagen del metacientífico, del metacientífico como científico frustrado,
etc.

Carles Ulises Moulines: Veamos. El arte no es, en principio, meta de nada, excepto
quizá de la realidad misma. Por otro lado, tengo importantes dudas sobre el eslabón
que corresponde a ciertas teorías científicas. Me pregunto, por ejemplo, hasta qué punto
un físico teórico no deja, en muchas ocasiones, de referirse directamente a la pura y
dura realidad en sus teorías. Sus representaciones lo son con frecuencia de otras formas
previas de representación. Los niveles, o eslabones como tú les llamas, no tienen
separaciones tan claras y discontinuas; hay una cierta gradación que va desde las meras
descripciones del experimentador hasta las teorías más generales. Yo, por mi parte, no
tendría ningún problema en admitir que no hay una distinción clara entre la
metaciencia y este tipo de teorías más abstractas de la propia ciencia.

Luis Navarro: Has dicho que en las reconstrucciones formales de las teorías se
procura prescindir de las vicisitudes personales de sus autores. Supongo que con esto
no quieres decir que se prescinde del componente histórico. Mi pregunta se refiere
entonces a cuál es la incidencia de la historia en el marco en el que tú te mueves.

Carles Ulises Moulines: Sí, personalmente creo, en efecto, que el carácter histórico (y
acrónico) de nuestro objeto de estudio (las teorías científicas) es absolutamente esencial.
Más aún, dentro de las múltiples variedades del estilo metacientífico, existe una, que
además es justamente en la que yo estoy, para la que el carácter histórico de los
productos científicos es el objeto mismo que tratamos de representar. Por ello, para las
teorías científicas existe un paralelismo artístico mejor que el de las pinturas: el de las
películas. Digamos que en metaciencia hay personas que hacen pintura (y para ellos el
tiempo importa un comino) y hay personas, entre las que me cuento, que hacen cine.

Jorge Wagensberg: Supongo que no es extraño que en un debate sobre la imaginación


haya ciertos conceptos, como el de paralelismo o el de analogía, que aparezcan tan
temprano. En particular, he visto con alegría las relaciones establecidas ya entre el arte y
otras formas de conocimiento. Sin embargo, deseo establecer una diferencia que, al
menos para mí, es esencial. El acto artístico se basa para mí en una especie de emoción
que se establece entre, digamos, el creador y el consumidor de la obra de arte (aunque
ambas sean la misma persona). Se trata de una emoción difícil de describir y ése es
quizá, justamente, el sentido de la obra de arte. Es una emoción que nada tiene que ver
con la contemplación, por ejemplo, de una cumbre nevada, sino una emoción asociada a
la comprobación de una referencia ajena. Según esta idea, el milagro del arte es creer
comprender la comprensión de otro. Las grandes teorías de la ciencia y de la metaciencia
también nos emocionan, pero me temo que, en general, se trata de una emoción mucho
más parecida a la de las cumbres nevadas que a la genuina emoción del arte. Creo que
se puede decir que cuando en ciencia se experimenta una emoción de tipo artístico,
entonces se vive uno de esos escasos momentos sublimes, yo diría, incluso, que de
comprensión profunda. He de confesar que he vivido muy pocos de esos momentos en
ciencia. Sólo es un comentario, pero ya que lo he hecho te pregunto: ¿has vivido tales
emociones en la metaciencia?

Carles Ulises Moulines: Ja, ja… Es una pregunta llena de insinuaciones. Sí, claro que
sí. Por ejemplo, ya he dicho que yo no trabajo en el estilo de Carnap; sin embargo, lo he
vuelto a leer hace poco y me he emocionado. Es muy difícil comparar emociones y
hablar de ellas, pero creo que en este caso he experimentado esa clase de emoción a la
que te refieres. Yo casi diría que me ocurre con frecuencia, con las teorías científicas y
con las metateorías de ciertos colegas, incluso de aquellos de otros campos con los que
suelo pelearme intelectualmente…

Joaquín Boya: Un poco más sobre estética y emociones. He aquí, creo, un motivo más
para distinguir entre matemáticas y la ciencia propiamente dicha. En la matemática la
belleza está más en los teoremas que en las categorías. Y en ella no pienso que se pueda
dar el tipo de emoción que experimenta el científico en el momento de concebir una
teoría. Ahora me viene a la memoria el caso de Heisenberg, que cuenta que estaba en
una isla del Báltico pensando en la mecánica cuántica, cuando de repente, dijo, lo vi claro
y fui feliz. En el caso de la teoría de la relatividad, la emoción también está, creo, más en
su propia construcción de la teoría que en cierta adecuación a la realidad.

Carles Ulises Moulines: Sólo quiero insistir en el hecho de que para mí las
matemáticas son más realistas de lo que nos quiere hacer creer el programa formalista
hilbertiano. Un matemático es algo más que un pensador lógico que sólo se preocupa
por evitar las contradicciones.

Joaquín Boya: Una pregunta relacionada con una vieja preocupación personal: el
reduccionismo. ¿Qué papel juega en la metaciencia?

Carles Ulises Moulines: Existe. Lo fue por ejemplo el primer Carnap. Se trataba
justamente de reducir todos los conceptos científicos a conceptos de la experiencia
sensorial pura. Y en este sentido también las teorías más avanzadas serían reducidas a
otras más elementales. Personalmente no me interesa esa manera de representar las
teorías. No creo que sea un programa muy prometedor; todas las supuestas reducciones
que se han afirmado, por lo menos hasta la fecha, son mucho más problemáticas de lo
que parecen y para sostenerlas hay que hacer muchos trucos ad hoc que no tienen nada
de elegantes. Por ejemplo, para reducir la termodinámica fenomenológica a la mecánica
estadística en un sentido preciso, hay que aplicar demasiados parches. Esta es al menos
mi posición ante esta cuestión.
Analogías con fluidos y
creatividad humana

Douglas R. Hofstadter

Douglas R. Hofstadter. Psychology Department. University of Michigan


FARG y sus objetivos

Dirijo un pequeño grupo de investigación en la Universidad de Michigan


denominado Grupo de Investigación de Analogías con Fluidos (FARG, en siglas
inglesas). Nuestro objetivo es triple: 1) entender la fluidez de los conceptos humanos; 2)
entender cómo se usan conceptos asociados a los fluidos en la creación de analogías
llenas de sentido, penetrantes y fundamentadas estéticamente; y 3) entender el papel
que juegan tales analogías en el pensamiento altamente creativo. Nuestro enfoque de las
cuestiones 1) y 2) es en su mayor parte a través de modelos por ordenador. Para la parte 3)
nos basamos en el cuidadoso estudio de la creatividad humana en diversos dominios,
prestando particular atención a aspectos como la percepción, la estética y las analogías.

El buque insignia del proyecto FARG es un programa de ordenador llamado


«Copycat» que resuelve problemas sobre analogías. Estamos desarrollando también
otros dos programas de ordenador, Tabletop y Letter Spirit, pero no están tan
avanzados como Copycat. Hay que decir, sin embargo, que estos programas de
ordenador no agotan los propósitos de nuestro trabajo, por la sencilla razón de que
algunas de nuestras ideas sobre creatividad y analogías van más allá de las
posibilidades actuales de describirlas (algo más que metafóricamente) en términos de
nuestros modelos por ordenador.

Estamos por tanto estudiando ciertas áreas clave de la creatividad humana en un


intento de encontrar nuevos principios para nuestro trabajo de modelización por
ordenador. Entre estas áreas cabe citar: 1) el humor; 2) la formación de letras; 3) la
composición musical; 4) el descubrimiento matemático y científico; y 5) la vida
cotidiana. En «vida cotidiana» incluimos fenómenos tales como… analogías
conversacionales y escenarios contrafactuales, así como errores espontáneos de muchos
tipos: errores tipográficos, lapsus linguae, errores perceptuales, y meteduras de pata.
Consideramos que hay una estrecha relación entre la capacidad humana universal de
cometer errores y la capacidad humana universal de encontrar nuevas maneras de
mirar las cosas.

En resumen, FARG tiene un lado más teórico, representado por nuestras


observaciones sobre el comportamiento humano, y un lado más experimental,
representado por nuestros modelos por ordenador. Ambos lados progresan
simultáneamente y se enriquecen mutuamente. El estudio, desde varios ángulos, de la
creatividad humana nos ayuda a definir más claramente los fenómenos que tratamos de
modelizar; y viceversa, nuestras teorías y modelos nos proporcionan términos y
metáforas con los cuales clasificar y categorizar diferentes facetas de los actos creativos
humanos.
Aspectos que todavía no hemos entendido sobre un particular acto creativo carecen
de nombre, y permanecen como una silueta contra el fondo, atrayendo la atención hacia
ellos mismos e incitándonos a extender nuestros modelos para explicarlos.

Creemos que estamos haciendo progresos en la explicación (o por lo menos la


descripción por nuevas vías) de ciertos aspectos importantes de la creatividad, pero
para demostrar la generalidad y la potencia de nuestras ideas es necesario que
estudiemos con exquisito cuidado muchos actos creativos y, para un cierto número de
dominios distintos, tenemos que producir programas de ordenador que sean
fehacientemente creativos y que exhiban «estilos» distintivos.
Las motivaciones de nuestro trabajo

«Creatividad» es una palabra rodeada por una aureola de magia. La gente tiende a
tener opiniones rígidas sobre el tema. Una opinión bastante popular afirma que la
creatividad constituye la línea divisoria entre los mecanismos y las mentes, de manera
que la gente puede ser creativa, mientras que las máquinas no. Otra opinión, también
corriente pero opuesta a la anterior, sostiene que no hay ningún tipo de magia en un
acto creativo, y que pronto podremos ver ordenadores verdaderamente inteligentes, y
que más adelante probablemente nos superarán también en creatividad. Es interesante
señalar que ambos puntos de vista tienen sus grandes defensores en las ciencias y en las
humanidades. Sería simplista e incorrecto atribuir el primero a los humanistas y el
segundo a los científicos.

Mi punto de vista personal es que la creatividad está estrechamente ligada con un


sentido de la estética y con una capacidad de separar lo esencial de los aspectos
superficiales. Hasta ahora, la dificultad para caracterizar formalmente estas
capacidades, o para recogerlas en programas, ha sido insuperable. No obstante, estoy
convencido de que, en un sentido teórico, los seres humanos son mecánicos, puesto que
operan de acuerdo con las leyes físicas, y por tanto en principio, a mi entender, estas
capacidades (y por tanto la creatividad) son descriptibles científicamente y
mecanizables. Por otro lado, creo que hay un grano de verdad en el punto de vista de
que «la creatividad es mágica», en el sentido siguiente: en cualquier programa de
ordenador lo suficientemente complejo para exhibir creatividad, será probablemente
imposible localizar las fuentes de un determinado acto creativo, y así siempre quedará
un cierto grado de inexplicabilidad. Tendremos que conformarnos con una explicación
más difusa para los actos creativos, basada en una caracterización general de cómo son
representados los conceptos y de cómo interactúan en la mente (o en los modelos de
ordenador de la mente). Esto dejará una cierta aureola de misterio, si no de magia,
acerca de cualquier acto creativo específico.

Nuestro trabajo con ordenador está centrado en un tipo de estructura que


denominamos «Slipnet», que engloba, grosso modo, nuestra noción de lo que son los
conceptos, cómo se superponen, y cómo, bajo ciertas presiones, un concepto puede
«deslizarse» («slip») hacia otro concepto relacionado, produciendo un cambio de
perspectiva y tal vez una nueva percepción. Tales «deslizamientos» (que son el
elemento crucial en nuestro intento de modelizar la creatividad) son el resultado de
gran cantidad de pequeños acontecimientos independientes que tienen lugar a lo largo
del propio Slipnet y también en otras estructuras. Si alguno de nuestros modelos da
lugar a un buen número de actos que la gente ve llenos de sentido o creativos, tal hecho
vendrá en apoyo de lo que decíamos en el párrafo anterior: es decir, que la creatividad
(por lo menos en pequeña escala) puede ser mecanizada, pero que la responsabilidad de
los actos creativos se distribuye sobre un modelo entero de la mente.

Actualmente, hay un razonable número de proyectos implicados en modelizar por


ordenador el aprendizaje y el descubrimiento, pero hay mucha menos investigación
centrada en la creatividad. Se ha tendido a estudiar la creatividad sin recurrir a los
modelos por ordenador. A mi entender, lo que singulariza el enfoque que hace el FARG
de la creatividad es su doble naturaleza: desarrollamos modelos por ordenador, al
mismo tiempo que examinamos la creatividad humana. Creemos que un trabajo largo y
continuado en esta línea proporcionará una visión más penetrante sobre las raíces de la
creatividad artística y científica.

Una panorámica de nuestros proyectos

Esta sección consiste en dos partes. La primera da una visión general de los tres
proyectos de modelización por ordenador que tenemos en marcha y su correspondiente
arquitectura subyacente. La segunda recoge los distintos enfoques con que estudiamos
la creatividad humana y describe cómo diversos aspectos de nuestro trabajo se
ensamblan y complementan mutuamente.
Modelos por ordenador

I - Copycat. El programa Copycat es el material de trabajo más avanzado de FARG.


Copycat resuelve problemas de analogías en un dominio cuidadosamente
confeccionado cuyo nivel más visible consiste en las letras del alfabeto, y cuyo nivel más
oculto implica abstracciones de muchos tipos, incluyendo simetrías, agrupamientos, y
otros. Es mejor presentar un ejemplo —tomaremos uno que Copycat maneje
fácilmente— y después comentarlo. Consideremos este rompecabezas relativamente
simple:

abc cambia a abd; hacer «lo mismo» con ijk.

Mucha gente responde ijl (regla: reemplazar la letra más a la derecha por la
siguiente en orden alfabético) sin vacilar. No obstante, hay otras respuestas rivales que
tienen alguna plausibilidad, tales como ijd (reemplazar la letra más a la derecha por d)
e ijk (reemplazar todas las c por d). Con algo menos de plausibilidad alguien podría
proponer incluso abd (reemplazar la estructura entera por abd). ¿En qué se apoya la
común preferencia humana por ijl?

La respuesta en este caso es muy simple: abstracción. Por razones de generalidad,


uno debería describir un hecho con términos que tengan que ver lo menos posible con
sus aspectos específicos, pero que todavía capten su esencia. Aquí, el hecho era el
cambio de abc por abd. De las cuatro reglas rivales que hemos abstraído, «reemplazar
la letra más a la derecha por su sucesora (la siguiente en orden alfabético)» es la que
menos tiene que ver con los aspectos específicos de las líneas consideradas (abc y abd).
En suma, es la más abstracta, aunque recoge completamente el hecho.

Si sólo la abstracción permitiera hacer buenas analogías, la vida sería mucho más
simple y aburrida. Sin embargo, hacer buenas analogías requiere mucho más que tan
sólo abstracción, ¡afortunadamente! Para ver el porqué, consideremos esta variante del
rompecabezas:

abc cambia a abd; hacer «lo mismo» con kji.

La receta usada antes para nuestra «mejor» respuesta produciría aquí kjj, una
respuesta que gustaría a muy poca gente. La gente tiende a dividir sus respuestas entre
las dos siguientes: kjh y lji. La regla para kjh es: «reemplazar la letra más a la derecha
por su predecesora (alfabética)» (notar el deslizamiento creativo de «sucesora» a
«predecesora»), y la regla para lji es: «reemplazar la letra más a la izquierda por su
sucesora» (otro deslizamiento creativo a partir de la regla original). Podría decirse que
se han construido variaciones sobre la regla original, o también que la regla original está
simplemente siendo interpretada liberalmente, de manera que unas palabras como «más a
la derecha» pueden, en un cierto contexto, significar realmente «más a la izquierda».
Cómo lo describimos es cuestión de gusto, pero lo importante es que ha ocurrido un
deslizamiento conceptual, y el deslizamiento es algo que está por encima y más allá de la
abstracción.

¿De dónde vienen estos deslizamientos? Cada uno procede de una manera
específica de aplicar la estructura original abc en la estructura objetivo kji. Si
examinamos ambas estructuras de la izquierda a la derecha (aplicando a a k, b a j, y c a
i) en un caso saltamos de cada letra a su sucesora alfabética (de a a b y de b a c) mientras
que en el otro saltamos de cada letra a su predecesora (de k a j y de j a i). Esta manera de
aplicarse mutuamente los objetos entre los dos «mundos» induce una aplicación más
abstracta entre conceptos; en este caso, la aplicación de «sucesor» (en el mundo abc) en
«predecesor» (en el mundo kji). Esta aplicación conceptual es pensada entonces como
un deslizamiento, y es utilizada para modificar, o traducir, la regla abstracta que hemos
formulado antes, en la forma que puede verse en la página de enfrente.

El deslizamiento «más a la derecha-más a la izquierda» es el resultado de analizar


abc y kji en orden alfabético, que, efectivamente, aplica a a i, b a j, y c a k. Esta aplicación
de objeto a objeto induce una aplicación entre los conceptos «más a la izquierda» y «más
a la derecha», sin tocar el concepto «sucesor».

En resumen, las maneras en que los objetos de los dos «mundos» se aplican entre
ellos, dictan un conjunto de deslizamientos conceptuales; estos deslizamientos nos
instruyen de cómo traducir ideas en un mundo en sus correspondientes en el otro.
Considerar sólo la abstracción no es suficiente

Regla original:

Reemplazar la letra más a la derecha por su sucesora.

desplazamiento

Regla traducida:
por su
Reemplazar la letra más a la derecha
predecesora.

¿Qué sucede con la otra respuesta (Iji)?

Esta puede ser justificada por la siguiente traducción de la regla original:

Regla original:

Reemplazar la letra más a la derecha por su sucesora.

desplazamiento

Regla traducida:

Reemplazar la letra más a la izquierda por su sucesora.

para obtener buenas analogías; es necesario tener en cuenta también los


deslizamientos creados por aplicaciones.

La fuente de los conocimientos de Copycat sobre deslizamientos es el Slipnet, una


red de nudos y enlaces. Cada nudo representa el núcleo de un concepto, y los enlaces
(«slip-links»), de diversas longitudes, lo conectan con otros nudos (los núcleos de
conceptos próximos conceptualmente). Así, cada enlace representa un deslizamiento
potencial, que será más probable cuanto más corto sea el enlace. Nosotros concebimos
un concepto como una región difusa, de densidad variable, en el Slipnet, algo como una
nube de perfume. Un concepto será más denso en su nudo central, y se desvanecerá
rápidamente a medida que nos alejemos de éste.

Para hacer una analogía entre dos situaciones dadas, hay que crear una aplicación
entre mundos, esto es, decir qué objetos corresponden a qué objetos. Tal como hemos
mostrado más arriba, tal aplicación induce un conjunto de deslizamientos conceptuales.
Así, una aplicación entre mundos no es otra cosa que un selector de desplazamientos del
repertorio de todos los posibles desplazamientos (el Slipnet). Pero hay una condición
crítica en cualquier aplicación entre mundos, a saber: tiene que ser tal que todos los
desplazamientos que selecciona sean paralelos (o casi). La noción de desplazamientos
paralelos (o casi paralelos) es sutil, y tal vez sea mejor introducirla a través de un chiste:
El norteamericano: Fíjese usted si somos libres que podemos plantamos delante de la
Casa Blanca y gritar «Abajo Reagan» sin ningún miedo de que nos detengan.

El ruso: ¡Gran cosa!, nosotros también podemos plantarnos ante el Kremlin y gritar
«Abajo Reagan» sin ningún miedo de que nos detengan.

El humor se produce por el defecto evidente de la analogía tácita del ruso: uno de
sus deslizamientos («Reagan →Reagan») no es paralelo a los otros dos («USA →URSS» y
«Casa Blanca →Kremlin»).

En nuestro modelo, el conocimiento de cuáles deslizamientos son paralelos y cuáles


no, reside en el Slipnet. Cada enlace lleva una marca entre varias posibles, y un criterio
de paralelismo es que los enlaces implicados compartan la misma marca. El otro criterio
es que los dos deslizamientos han de salir de nudos que no estén muy lejos entre sí en el
Slipnet. Cuanto más lejos estén los nudos de salida, menos paralelos serán los
deslizamientos. Señalemos, sin embargo, un detalle importante del Copycat: las
distancias entre nudos varían según el contexto, de manera que desplazamientos que
pueden no ser vistos como paralelos en una analogía, lo pueden ser en otra. Creemos
que el Slipnet de Copycat provee de un buen andamiaje para el estudio de los conceptos
y la fluidez conceptual.

Copycat produce cada una de las dos «buenas» respuestas rivales con mucha
frecuencia. También produce, aunque más raramente, respuestas más débiles como kjd
y dji. Las entrañas de Copycat son no-deterministas, y su «gusto» se refleja en el hecho
de que algunas respuestas son alcanzables a través de caminos más computacionales
que otros, y que algunos caminos son más probables que otros. En principio Copycat
puede producir respuestas muy extrañas, pero los caminos computacionales para tales
respuestas son tan improbables que éstas se dan muy poco o no se dan nunca.

II - Tabletop. El ámbito de proyecto Tabletop presenta dos individuos hipotéticos,


Henry y Eliza, cara a cara en la mesa de un café. En la mesa hay varios objetos, como
tazas, platos, servilletas, varios utensilios, un tazón de azúcar, sal, pimienta, un
cenicero, etcétera. Henry toca uno de los objetos —su taza de café, supongamos— y dice
a Eliza: «¡Haz esto!». El programa Tabletop juega el papel de Eliza e intenta convertir la
noción de «esto» de Henry en la que correspondería a Eliza. En este caso, si Eliza tiene
también una taza de café, debería tocarla. Por otro lado, si ella no tiene más que un
tenedor, ¿qué debería hacer? Podría tocar su tenedor que no tiene nada que ver con la
taza de Henry, o bien tocar la taza de Henry, ¡que tiene demasiado que ver con la taza de
Henry! El dilema de Eliza no es tan intenso si tiene un vaso, porque un vaso es lo
bastante próximo a una taza como para tocarlo sin pudor.

Para hacer las cosas un poco más complicadas, supongamos que Henry tiene
exactamente dos objetos: un tenedor y una taza de café, mientras que Eliza tiene
solamente uno: un tenedor. Henry toca su taza y dice: «¡Haz esto!». Eliza razona para sí
misma: «No quiero tocar la taza de Henry… esto sería demasiado simplista. De manera
que debo tocar algo mío. Pero sólo tengo un tenedor, y mi tenedor se corresponde con
su tenedor, no con su taza. Por tanto no tengo que tocar mi tenedor. En este caso,
desgraciadamente, no tengo otra opción que tocar la taza de Henry». He aquí un caso
bastante insólito: ¡hacer literalmente la misma cosa (tocar el mismo objeto), que en muchas
circunstancias sería considerado como una conducta muy mecánica y nada creativa,
ahora es el resultado de un deslizamiento creativo!

El programa Tabletop tiene un Slipnet como el de Copycat, pero con conceptos


enteramente diferentes. En Tabletop interactúan presiones de muchos tipos para causar
deslizamientos. Hay presiones debidas a la posesión de objetos, su proximidad física, y su
proximidad conceptual (tal como viene determinada por el Slipnet). Para cada analogía,
hay una familia de analogías estrechamente relacionadas en las cuales están presentes
objetos similares pero diferentes, o bien los mismos objetos pero en distintos sitios.
Observando las respuestas de Tabletop a variantes próximas, podemos controlar
claramente los efectos de variar determinadas presiones. En un típico problema de
analogías del Tabletop hay bastante menos regularidad y simetría que en uno del
Copycat. Por estas razones, encontramos que Tabletop complementa exquisitamente a
Copycat. Las arquitecturas subyacentes a los dos programas son, sin embargo,
parecidas.

III - Letter Spirit. Este proyecto maneja letras del alfabeto, pero de una manera
completamente diferente a la de Copycat. Allí, las letras son entidades abstractas sin
forma ni sonido; aquí, en contraste, la forma es algo. El proyecto del Letter Spirit
pretende modelizar cómo pueden realizarse las 26 letras minúsculas del alfabeto en un
estilo común, de manera que compartan un «espíritu» uniforme. La idea del programa
Letter Spirit —que estamos desarrollando actualmente— consiste en empezar con una
letra «semilla» y, usando esta letra como inspiración, crear todas las restantes, una a
una. Las letras que hayan sido ya generadas pueden ejercer influencias estilísticas sobre
las que todavía faltan.
Aunque el proyecto se concentra en el estilo en un dominio particular, estamos
interesados en la cuestión general del estilo. Nos guían preguntas como: ¿Qué tienen en
común todas las composiciones de Bach? ¿Cómo podemos extender un estilo en la
formación de letras a un estilo en diseño de muebles, o arquitectura, o incluso música?
¿Qué es lo que caracteriza tan ampliamente un estilo como el Art-Déco?

Para hacer las letras lo más abstracto y conceptual posible, hemos prescindido de
todos los aspectos de visión-de-bajo-nivel de las formas de las letras para restringirnos
al entramado discreto y elemental que se muestra en la figura. Las letras tienen que
formarse como combinaciones de segmentos cortos uniendo los puntos oscuros.
Mostramos una «a» en el entramado para ilustrar esta idea (ver las figuras siguientes).

La última figura muestra un problema típico de analogía que surge de


consideraciones estilísticas. Convendría que el lector intentara resolverlo antes de seguir
adelante.

Lo que inmediatamente salta a la mente de casi todos es la reflexión especular de la


«d» dada. Esta estrategia, aunque sea usualmente una buena base para exportar el estilo
de una «d» a una «b», tropieza aquí con una dificultad especial, porque la forma
especular (ver el dibujo más abajo) pertenece probablemente más a la categoría «h» que
no a la «b». Por lo menos, es una «b» dudosa. Como en el Copycat y el Tabletop,
necesitamos un camino suelto, fluido, para trasladar la esencia de un entramado al otro.
He aquí una solución más elegante:
Reconocer el problema existente con la primera forma propuesta requiere entender
claramente la esencia de las categorías de las letras «b» y «h», y encontrar un
deslizamiento que lleve a una solución elegante requiere entender claramente el espíritu
de la «d» original.

Este tipo de problemas de «exportación de estilo» pueden caracterizarse como una


lucha entre dos fuerzas mentales abstractas: una fuerza «atractiva» o «centrípeta» que
quiere atraer la forma tan cerca como sea posible del centro de la categoría de la letra
propuesta, y una fuerza «repulsiva» o «centrífuga» que trata de empujar la forma lejos del
centro y hacia los bordes de la categoría de la letra, para hacer el estilo lo más conspicuo
posible.

A causa de la íntima batalla entre estos dos tipos de fuerzas mentales opuestas, el
proyecto de Letter Spirit concierne necesariamente más a los detalles de la estructura
interna de las categorías que los otros dos proyectos. Aunque la visión de bajo nivel (la
conversión de una formación de puntos en una representación que contenga
segmentos) no haya sido considerada, la visión de alto nivel todavía tiene que ser
simulada, lo que significa el ensamblaje de segmentos en totalidades significativas a
varios niveles. Niveles intermedios incluyen «roles» tales como el del «palo» (el
elemento vertical en cualquier «d», «h», etc.) y el del «círculo» (la parte redondeada de
una «d», «b», etc.). El tipo más elevado de totalidad significativa es, por supuesto, una
letra completa, reconocida por lo que es (es decir, emparejada a su «categoría
platónica»). Descubrir cuál es la categoría platónica representada por un conjunto de
líneas resulta muy sutil en el dominio del Letter Spirit, porque las formas pueden
pertenecer a sus categorías propuestas a través de caminos muy exóticos. Esto es
ilustrado en la figura de la página 85, que muestra las siete primeras letras de siete
distintos «espíritus».

Crear una colección de letras («gridfont») entera —esto es, extender cada fila hasta la
«z»— es un auténtico reto, incluso para los humanos. Parte del problema es que uno
tropieza constantemente con obstáculos no previstos como el de la «h» de antes, que lo
fuerzan a concebir las categorías familiares de las letras por caminos radicalmente
nuevos. Otro problema es que algunas letras ya creadas pueden influir
simultáneamente en la persona que intenta producir una nueva «h» o «m» o «z». Tratar
con tantas influencias a la vez es una de las dificultades centrales de este proyecto.
Algunos miembros de FARG han probado su habilidad en la creación de familias, y
algunos han producido muchas. Nuestra colección de distintas familias supera las 400,
muchas de las cuales son bastante asombrosas a la vista y exhiben destellos infrecuentes
de agudeza. Esperamos compilar las mejores en un libro y escribir un ensayo sobre su
creación, pero preferiblemente en el futuro, cuando el programa Letter Spirit pueda
contribuir por sí mismo a la formación de familias interesantes.

Es probablemente justo decir que los problemas en el Letter Spirit son más difíciles
que en el Copycat o el Tabletop; además, a menudo exigen deslizamientos
extremadamente creativos basados en criterios estéticos casi inarticulables.
Consideramos, por tanto, que la creación de estilos alfabéticos en este simple entramado
constituye un dominio ideal para el estudio de saltos artísticos genuinamente creativos.
Estudios sobre la creatividad humana

A continuación describiremos algunas áreas de estudio. Estos estudios estimulan


constantemente las ideas en los proyectos con ordenador. Mucho de lo que vamos a
decir tiene un lado lúdico; pero así y todo es serio al mismo tiempo. Sin embargo, si
faltara su conexión con las ideas fundamentales que están siendo desarrolladas en los
modelos por ordenador, sería mucho menos significativo.

Humor. En la sección dedicada al Copycat hemos contado un chiste para ilustrar la


idea de los deslizamientos paralelos y no paralelos. Nos tomamos muy en serio la idea
de que tipos desviados de deslizamiento están en la raíz de parte del humor más
interesante. Los deslizamientos desviados incluyen no sólo los deslizamientos no
paralelos, sino también los deslizamientos extremos, los deslizamientos extra, la falta de
deslizamientos, y otros. Todos ellos existen no solamente en chistes, sino también en los
micromundos de nuestros modelos por ordenador. Para ciertos problemas de analogías
hasta hemos producido respuestas que provocan la risa, no porque sean estúpidas, sino
porque son extrañas e inesperadas; tales respuestas parecen tener algo en común con lo
que sería la parte aguda de un chiste. Estamos trabajando para caracterizar las
condiciones bajo las cuales un deslizamiento desviado produce algo que la gente
encuentra divertido, más que simplemente peculiar o idiota. Así analizamos
simultáneamente las analogías humorísticas en microdominios, y chistes reales.

Una segunda manera de estudiar el humor es desvistiendo los chistes hasta llegar a sus
esencias, de la misma forma con que uno puede desvestir un relato, y descubrir que su
esencia es recogida en algún conocido adagio, como «ver la paja en el ojo ajeno…».
Estamos compilando un catálogo de «esencias de chiste», para ver cómo distintas
maneras de vestir la misma esencia puede afectar la calidad del humor. Muchas de estas
ideas pueden tener repercusiones en nuestro trabajo de modelización por ordenador.

Formación de letras. No puede haber ninguna duda de que las letras del alfabeto
están entre las más ricas de las categorías visuales. Los artistas se han ocupado de la
formación creativa de letras desde hace milenios. El diseño de tipos de letras ha
experimentado prácticamente una explosión en las últimas décadas, y la caligrafía ha
atravesado algo así como un renacimiento. Muy pocos proyectos de visión en
inteligencia artificial se han ocupado de las letras y del reconocimiento de palabras,
pero mucho menos han tratado del estilo y diseño de letras, tal como hace el Letter
Spirit. En el FARG, mezclamos la experimentación personal directa en la formación
creativa de letras con la exploración científica de los mecanismos subyacentes en tal
actividad.
Un par de miembros del FARG han desarrollado una experiencia considerable en un
tipo especial de formación de letras, los ambigramas. Un ambigrama es una muestra
escrita que admite dos (a menudo idénticas) lecturas. Normalmente la segunda lectura
se obtiene girando o reflejando la primera. En el siguiente ejemplo, los nombres
“Michael” y “Barbara” son reflexión especular uno del otro.

La posibilidad de realizar ambigramas no depende de algún tipo muy escaso de


simetría intrínseca que poseen muy pocas palabras (como «ojo»); aunque resulte un
poco sorprendente, pueden construirse ambigramas casi con cualquier palabra, o par de
palabras. El arte consiste en distorsionar cuidadosamente las letras de tal manera que
cuando la forma gráfica es girada o reflejada, aparecen otras letras ante el ojo humano,
formando otra palabra. Se usa a menudo el truco del «reagrupamiento», por el cual los
contornos de las letras en las dos lecturas no coinciden (como en el ejemplo).

Las formas de letras distorsionadas son muestras particularmente vivas de las


maneras exóticas por las que los ejemplos pueden pertenecer a las categorías, algo que nos
parece crucial para la percepción fluida y los actos creativos. Más todavía, el
reagrupamiento es una técnica general que se extiende a todos los dominios en los que
el ser humano crea estructuras complejas. El estudio detallado de la creación de
ambigramas, como el de la creación de familias de letras, abre así una ventana sobre
actos humanos creativos muy sutiles, permitiendo modificar y refinar las teorías del
deslizamiento y la creación de analogías incorporadas a nuestros programas de
ordenador.

Composición musical. Un área de mucho interés para nosotros es tratar de entender


cómo las restricciones pueden aumentar el impulso creativo más que impedirlo (piénsese,
por ejemplo, en las restricciones que impone la escritura en contrapunto, que resultan
particularmente estrictas en la forma conocida como canon). Otra cuestión de especial
interés es la de qué constituye una línea musical atractiva. De todas maneras, este tema de
la comprensión, de la captura de una melodía, es probablemente demasiado difícil para
poderlo manejar en un futuro próximo.

Como sustituto, empecemos con algo más simple: los problemas de traducción (o
traslado) en música. Está, por ejemplo, la cuestión de trasladar una melodía dada de
tonalidad mayor a menor (o viceversa). Algunas melodías no ofrecen resistencia,
mientras que con otras es prácticamente imposible sin significativos deslizamientos.
Aparte de las tonalidades mayor o menor, hay también otras (dórica, lidia, etc.) que
también serían interesantes. Otra cuestión relacionada es la de las entradas «real»
versus «tonal» en un tema de fuga.

Un problema mucho más difícil que éstos, pero todavía más simple que la creación
de melodías, es la extensión de melodías. Por ejemplo, dada la parte «A» de una melodía
del tipo «ABA», ¿cuál sería una buena parte «B»? (Una cuestión relacionada pero más
sencilla sería la del juicio: entre varias continuaciones de la melodía, ¿cuál juzgamos la
mejor?)

Un proyecto antiguo del FARG era un programa llamado «Seek-Whence», cuyo


propósito era descubrir la regularidad subyacente en una sucesión de números enteros
que se van añadiendo de uno en uno; en otras palabras, se trataba de «buscar de dónde»
(«seek whence») venía la sucesión. El programa era pues de descubrimiento y extrapolación
a la vez. Las sucesiones que puede extrapolar el Seek-Whence tienen como un sabor
musical; pueden exhibir ritmos de variada complejidad, y a menudo contienen
fragmentos que parecen pasajes conjuntos (pasajes hechos con tonos vecinos) en una
melodía. Sin embargo, estos esquemas son todavía mucho más simples que ocuparse de
melodías atractivas.

Otra área de estudio respecto a las melodías es parecida a la idea de las «esencias de
chiste»: las esencias de melodía, una idea bastante familiar a los teóricos de la música, que
a veces las llaman Urlinien («líneas primordiales»). Nos interesan los principios por los
cuales puede extraerse una Urlinie a partir de toda una melodía; sin duda están
estrechamente relacionados con los mecanismos para extraer la esencia de un chiste, un
relato, etcétera.
Descubrimiento matemático y científico. El aspecto más importante del
descubrimiento matemático (contrariamente a la imagen habitual que se tiene de la
demostración como el núcleo de las matemáticas) es la construcción de nuevos conceptos,
uno detrás de otro, generalizando cada vez algún aspecto de los anteriores. Por
supuesto, cada construcción inventada tiene propiedades que no pueden ser
controladas, sino tan sólo descubiertas; en este sentido, las matemáticas combinan la
invención y el descubrimiento. La mayor parte de los nuevos conceptos se producen
mediante ciertos tipos de «recetas» no escritas que todos los matemáticos entienden
intuitivamente, y que normalmente se pueden caracterizar como «gloriosos giros del
botón»; esto es, partir de un fenómeno familiar, encontrarle algún aspecto que hasta
ahora había permanecido fijo (éste sería el botón), convertir explícitamente este aspecto
en una variable, y ver qué sucede cuando toma valores distintos del usual. A menudo,
girar el botón significa simplemente que un número sustituye a otro número que antes
se había sido considerado como invariante, pero a veces significa que un concepto
sustituye a otro.

Un ejemplo sencillo de botón numérico es la invención (o descubrimiento) de una


jerarquía infinita de operaciones aritméticas. La suma es presentada al principio en la
escuela como una operación con dos números, pero cuando se permite variar el «2», y
todos los sumandos son iguales, aparece la multiplicación: sumar n copias de un
número dado m. De nuevo, la multiplicación aparece como una operación binaria, pero
podemos repetir el truco: multiplicar n copias de m. Esto da lugar a la exponenciación.
Las matemáticas de la escuela se paran aquí, pero la jerarquía ya ha sido sugerida:
exponenciar n copias de m, y así sucesivamente. Cada nivel de esta jerarquía puede ser
estudiado separadamente, pero ahora es más importante subrayar que la jerarquía como
un todo produce un nuevo tipo de estructura con propiedades completamente nuevas
(¡y que puede ser generalizada a su vez!).

El descubrimiento de botones y el giro de botones son aspectos de la generalización,


muy ligados entre sí pero independientes. Girar un botón ya descubierto es muy
sencillo, pero descubrirlo es lo difícil. A menudo funcionan en este caso ciertas «recetas
de matemáticos». La analogía juega entonces un papel central, así como otras poderosas
recetas que implican operaciones muy abstractas como la inversión, el reagrupamiento,
el cambio de nivel y otras. El papel de la estética no puede despreciarse.

En la física, tales generalizaciones juegan también un papel central: antes de su


descubrimiento, el mesón pi había sido propuesto como un primo (con masa) del fotón
(sin masa). Igualmente, la relatividad general es una generalización de la relatividad
especial, el isospin es una variante del spin ordinario, las teorías gauge son variantes del
electromagnetismo, etcétera. La generalización fundamentada estéticamente está en el
mismo corazón de la física teórica moderna.

Los denominados «cambios de paradigma» parecen jugar un papel central en el


avance científico; surgen siempre que alguna contradicción bloquea el progreso y tienen
que desarrollarse nuevas ideas. Por fortuna, todos nuestros micromundos contienen
ejemplos fascinantes de cambios de paradigma ocasionados por obstáculos ocultos. Un
ejemplo en el Letter Spirit es el problema de la «b» inspirada en «d» (con el obstáculo de
la «h»). El ejemplo más elegante en el Copycat es tal vez éste:

abc cambia a abd; hacer «lo mismo» con xyz.

En principio parece igual que el problema con ijk que ya hemos visto antes, de
manera que ahora z sería la letra que corresponde a c; pero hay un obstáculo: la regla
que habíamos aplicado antes no funciona porque z no tiene sucesora. Para hacer las
cosas más interesantes, prohibiremos explícitamente la noción, muy sencilla, de alfabeto
circular, que nos habría dado la respuesta xya. El lector debería considerar este
problema antes de seguir leyendo.

Con un brillante cambio de paradigma, a puede aplicarse a z (ambas letras son


extremos del alfabeto), y por consiguiente c queda aplicada a x, y b a y. Esto implica un
deslizamiento «derecha →izquierda», pero todavía no es todo. Si recorremos xyz de
derecha a izquierda, pasamos de una letra a su predecesora alfabética, lo que significa
que hay un segundo deslizamiento conceptual: «sucesora →predecesora». Unidos, estos
deslizamientos dictan la respuesta, elegante y sutil, wyz. Caben, por supuesto, otras
muchas respuestas; la más bien humorística dyz, que mezcla de modo no plausible la
profundidad con la completa rigidez, mientras que la más plausible yyz olvida
simplemente el segundo deslizamiento.

Estamos convencidos de que tales cambios radicales de punto de vista no proceden


de la nada, sino que más bien son el resultado de presiones de suficiente intensidad.
Efectivamente, en cualquier teoría hay potenciales «puntos bisagra» donde es más
probable que se produzca una flexión al actuar una cierta presión, mientras que otras
partes son menos flexibles. La investigación que realizamos en todos nuestros
micromundos (incluyendo el Seek Whence) se dirige intensamente a entender la
procedencia de estos «puntos bisagra», o lugares de probable deslizamiento.

Vida cotidiana. Varios miembros de FARG tienen especial cuidado en advertir y


tomar nota de ejemplos de errores de habla (lapsus linguae), errores de oído, meteduras de
pata, etcétera. Hay además otros actos cognitivos cotidianos que, sin ser errores, son
altamente reveladores de mecanismos subyacentes, y también son debidamente
archivados. Uno de estos fenómenos es el de… analogías conversacionales, que a
menudo denominamos simplemente el fenómeno del a-mí-también, donde el significado
de una frase elemental como «a mí, también», o «esto me sucedió a mí» esconde una
sutil transferencia por analogía. Por ejemplo:

Ana: Mi madre siempre me llama «María», y María, «Ana».

Juan. Mi padre también lo hace.

Otros fenómenos cotidianos que resultan de interés para el estudio de la creatividad


incluyen: contrafactuales de sentido común («Ayer habría ahorrado mucho tiempo si
hubiera sabido que Correos estaba abierto»), analogías cotidianas (la Copa de América es
la Copa del Mundo de yates), el recuerdo de hechos (Oh, tuve una experiencia exactamente
como ésta…), etcétera.

Colectivamente, FARG ha recogido un gran número de fascinantes ejemplos de


cognición en la vida real, y han sido catalogados bajo numerosas rúbricas. Sin embargo,
dentro de cada variedad, queda por hacer gran cantidad de estudio detallado. Nuestra
meta es clasificarlos en subtipos, cruzarlos de muchas maneras, y proponer mecanismos
que den cuenta de ellos.

Esto concluye la descripción de nuestras diversas áreas de estudio de la creatividad


humana. De esta larga lista algunos temas generales sobresalen como las claves de
nuestro trabajo: la caracterización de cómo las presiones generan deslizamientos; la
reducción de estructuras complejas a sus esencias; la abstracción y generalización de
situaciones específicas. También, ciertos mecanismos muy generales, como la inversión,
el reagrupamiento y el cambio de nivel, parecen jugar papeles clave en los actos de
creatividad que hemos observado, y queremos llegar a entenderlos lo suficiente como
para implantarlos en nuestros modelos por ordenador.
COLOQUIO

Jesús Mosterín: ¿Cuál es el papel de la analogía en el contexto general del


pensamiento? ¿Tiene eso algo que ver con las corrientes que tienden a considerar que el
pensamiento funciona a base de asociaciones, según un mecanismo de ir sustituyendo
conceptos por otros asociados a éstos?

Douglas Hofstadter: Antes he dicho que los conceptos deben representarse más por
nubes que por puntos (o nodos). Según este modelo, cada concepto sería una nube
centrada en un nodo que, al difundirse, se solapa con otras nubes, con otros conceptos.
La idea de asociación hay que buscarla en la naturaleza de tales solapamientos. La
emergencia de conceptos nuevos de la superposición (suficiente) de otros conceptos
previos es el centro y el punto crítico de nuestra investigación sobre la creatividad y la
percepción. Lo que hacemos es ensayar modelos de superposición de conceptos para
ver su capacidad para producir analogías profundas y abstractas. En realidad, nosotros
no estudiamos la analogía en sí misma sino que la utilizamos como una herramienta
para evaluar la viabilidad de un cierto modelo de conceptos.

Jorge Wagensberg: ¿Existe algún tipo de métrica que permita medir una especie de
distancia entre analogías? Y si es así, ¿puede arriesgarse algo sobre la estructura de
analogías que correspondería a una mente creativa?

Douglas Hofstadter: Nuestro modelo de conceptos asociados a nubes es un modelo


general de cómo el individuo percibe las situaciones abstractas, pero no aclara de forma
inmediata por qué unas percepciones son mejores que otras. Tampoco, claro, por qué
unas mentes son mejores que otras. Para obtener una respuesta se necesitaría algo
parecido a lo que has sugerido, esto es, una estructura de deslizamiento de conceptos
(slipnet) cuya función distancia se adapte mejor al universo en el que vivimos. Otras
estructuras teóricamente del mismo valor serían simplemente menos aprehensibles por
el organismo. De modo que ciertas slipnets se verían favorecidas sobre las otras. Se trata
de una selección de slipnets, aunque los mecanismos son siempre los mismos. Los
parámetros a ajustar serían precisamente los que determinan las distancias de las
estructuras, de modo que variando los parámetros en un mismo programa se obtienen
los distintos comportamientos de una estructura. Esta es justamente la idea: buscar
cuáles son los parámetros óptimos para un programa determinado para hallar a
continuación la estructura que ofrece las analogías más potentes. Creo, además, que el
mapa de los solapamientos de las nubes de conceptos, las formas que aparecen en él, la
cantidad de solapamiento existente, da ya una buena idea de su potencialidad.
Josep M. Pons: Para comprender la mente humana, ¿cree que es necesario admitir un
comportamiento determinista a nivel microscópico?

Douglas Hofstadter: Creo que en algún momento he mencionado que nuestro


programa tiene dos niveles, uno en el que da la respuesta a la situación dada en cada
caso (es el macroscópico), pero luego está el nivel de los detalles que llevan a tal
respuesta (el microscópico) a través de complejas trayectorias. Y este nivel microscópico
es definitivamente no determinista. Lo que he tratado de sugerir con el problema ijkl
es, de hecho, que sólo existe una solución buena: ijkm. Hay otras soluciones como ijkd,
pero hay que esperar que la respuesta macroscópica sea determinista, esto es, acabará
en ijkm sea cual sea la trayectoria microscópica seguida. Hay muchas trayectorias
microscópicas para una misma respuesta macroscópica.

Alberto Cardín: Me pregunto si no hay precedentes claros de su investigación en la


lógica y en la retórica clásicas.

Douglas Hofstadter: No veo la relación que pueda tener la lógica o la retórica con este
tipo de analogías. Supongamos que alguien lee, por ejemplo, las instrucciones de un
libro de retórica. ¿Significa eso que sabe hacer analogías? Supongamos que enseñamos a
alguien a componer una obra por el uso de ciertas reglas fundamentales; pero si no
puede escribirse un programa con el mismo resultado, está claro que el quid de la
cuestión está en el ser humano. Creo que sólo una descripción rigurosa de la forma en
que se producen las analogías es convertible en un programa de ordenador. Nada
parecido se ha creado en lógica ni en retórica.

Alberto Cardín: Sin embargo, se puede decir de la retórica lo que usted ha dicho de la
analogía. Pienso que no ha dejado de emplear figuras retóricas, aunque quizá no sea
consciente de ello. Cuando Lévy-Strauss buscaba los principios de la mente humana en
otras culturas (fuera de la occidental), intentó ya formularlos según las figuras de la
retórica clásica. Y encontró, precisamente, que ciertas culturas de la selva del Amazonas
empleaban la metáfora, la analogía, la metonimia, etc.

Douglas Hofstadter: Le entiendo, le creo y estoy de acuerdo. Pero insisto en que


disponer de una descripción exacta de las reglas de la retórica no significa que se pueda
traducir a un programa de ordenador.
Primer debate general

La imaginación científica

contada por ellos mismos

Primer debate general


Luis Navarro (moderador): No existe, desde luego, una medida de la imaginación
científica, ni siquiera una teoría de tal concepto. Incluso es posible que una misma teoría
científica requiera mucha imaginación para unos y poca para otros. Pero quizá
podamos intentar una aproximación a ciertos rasgos generales que serían característicos
de la imaginación científica o de los grandes imaginadores científicos. Una manera de
empezar sería invitar a ponentes y asistentes a proponer casos concretos que hayan
valorado en su experiencia personal como de alta aportación imaginativa. Creo que, en
este punto, las vivencias personales aportarán al menos la valoración que uno hace de
su propia obra.

Ramón Margalef: Yo querría empezar comentando un punto, interesante para mí, que
ha surgido varias veces en el día de hoy. Se trata de la distinción entre el universo
matemático (o lógico) en el que cabe todo lo que existe y lo que no existe, y otro
universo, contenido en el anterior, que es el mundo de lo real. La representación que
nosotros nos hacemos de cómo funciona el mundo acaso esté más limitada que nuestra
propia trayectoria, incluso más limitada aún que la forma según la cual interpretamos la
trayectoria del mundo. Me refiero a la evolución, la sucesión, etc. La imaginación sería
entonces, en cierta manera, una cierta habilidad para mariposear en tomo de la visión
concreta del mundo como sistema histórico dentro de aquel gran marco de referencia
que hemos llamado universo matemático. Es decir, dentro del enorme mundo que
contiene todo lo que consideramos posible, existe una realidad condicionada por la
historia y que nos condiciona a nosotros mismos. Por eso creo que la imaginación no
puede separarse de la historia. Se trata además de una conclusión que deduzco no sólo
de mi propio caso, sino de la contemplación de la trayectoria de la mayor parte de los
científicos. La vida humana está muy programada por las cosas que tenemos entre las
manos en cada momento y no siempre es fácil distanciarse para hacer reflexiones más
amplias. Me ha interesado el modelo de Hofstadter y mi manera de interpretarlo se
parece a la unión de las dos piezas de un enchufe que no acaban de encajar del todo. Se
trata de investigar cuál es la forma más deformada posible. Si la cosa funciona,
funciona. En caso contrario, uno va ensayando ulteriores deformaciones de estos
enchufes individuales. He aquí, para mí, un ejercicio importante de la imaginación que
quizá no sea tan lógico como para optimizar el deslizamiento (slippage) del que hablaba el
profesor Hofstadter, pero que abre, creo, nuevas posibilidades.

Akira Okubo: Mi aportación para empezar será (recogiendo la invitación del


moderador) el comentario de un par de casos concretos de imaginación científica, muy
cercanos además a mi experiencia personal.

Se trata, en primer lugar, del profesor Richardson. A pesar de ser meteorólogo


desarrolló muchas cuestiones distintas. Uno de sus primeros trabajos consistió en poner
a punto un esquema matemático para la predicción meteorológica (escribió todo un
libro hacia 1925). Hoy en día, aunque quizás en una versión más sofisticada, se usa aún
esencialmente su modelo. Richardson quiso ponerlo en práctica en una época en la que
los ordenadores no estaban disponibles, así que buscó nada menos que cien personas
para ayudarle a hacer los cálculos de la dinámica de la atmósfera y, con ello, de las
predicciones del tiempo. Aun así, las operaciones requerían unas cien horas de trabajo.
Entonces no tenía interés práctico real; hoy, como ya he dicho, es universalmente
utilizado. Poco después se interesó por la cuestión de la difusión atmosférica y en este
campo mostró un poder imaginativo que siempre he admirado profundamente. Con un
número de datos limitadísimo (creo recordar que eran sólo siete puntos en un diagrama
experimental que relacionaba el número de partículas difundidas en la atmósfera frente
a una escala de difusión) llegó a la conclusión que la relación debía de ser igual a cuatro
tercios. De hecho los datos permitían un margen entre 1,2 y 1,5, tal como él mismo
admitía en su artículo. Sin embargo eligió, y yo supongo que por sugerencia de su
propia imaginación, justamente el valor de 4/3 = 1,3… Más tarde se demostraría con otras
técnicas, otros recursos técnicos e incluso otros principios teóricos, la precisión de su
propuesta. Y finalmente también diré que Richardson fue el primero en ver el concepto
de FRACTAL (aquí el profesor Okubo se inclina hacia delante para observar la reacción de
Benoît Mandelbrot, que se sienta algunas sillas a su izquierda). Por ello considero a
Richardson como una de las personas más imaginativas de mi campo de investigación.

En segundo lugar quiero referirme a otro prodigio de la imaginación. Se trata de


Kolmogorov (no recuerdo ahora su nombre de pila), el gran matemático. Mi primer
contacto con él fue siendo estudiante el mismo día que el profesor definió el concepto
de probabilidad. Así que relacioné el nombre con la formalización moderna de la teoría
de la probabilidad. Más tarde volví a encontrar su nombre cuando, ya como
investigador, me decidí por estudiar cuestiones de turbulencia oceánica, ya que en este
dominio existe toda una teoría de Kolmogorov (1941). Preocupado por mis asuntos, no
caí en que se trataba de la misma persona. Hace unos quince años me interesé por la
ecología matemática y de nuevo me encuentro a Kolmogorov encabezando la teoría
general de la interacción depredador-presa. Por lo que yo sé, Kolmogorov todavía vive
(moría unos meses después del encuentro que transcribimos) y no hace mucho he conocido en
EE. UU. a un matemático judío ruso discípulo suyo de Leningrado, Lev Ginsberg, quien
me ha hablado de cómo Kolmogorov captaba la esencia de la realidad del mundo que le
rodea fuera cual fuera el problema. Ginsberg trabajaba en genética de poblaciones y
llevaba ya mucho tiempo atascado con un problema. Se lo expuso a Kolmogorov, que
no sabía absolutamente nada del tema, y en exactamente cinco minutos dio con la
solución definitiva. Lo que más impresionó a mi amigo fue la extrema sencillez de la vía
sugerida por Kolmogorov. Ginsberg no había caído. Eso es todo. ¿Eso es todo? Me
quedé pensativo porque ésa era efectivamente la constante, la característica y acaso el
secreto de la imaginación de Kolmogorov: la sencillez. En toda la obra de Kolmogorov la
idea fundamental es curiosamente muy sencilla, incluso en su teoría de la turbulencia
oceánica que, como todo el mundo sabe, es justamente una teoría de comportamientos
muy complejos. La prueba es que yo he sido capaz de explicar la teoría del
comportamiento turbulento (uno de los dominios más complicados de la física) en la
enseñanza media y a no científicos después, y no antes, de leer a Kolmogorov. Sencillez
e imaginación, he aquí una pista.

Benoît Mandelbrot: Me alegra que el profesor Okubo haya hablado de Richardson y


de Kolmogorov porque yo me estaba preparando para citar a estos dos mismos autores.
Para mí el aspecto central de la imaginación científica es el caos. La disciplina mata,
sencillamente, la imaginación. Lo esencial es justamente cómo moverse entre esos dos
extremos. Yo tengo una admiración inmensa por Richardson, y de hecho creo que existe
una evidencia clara de que he contribuido a que su nombre sea hoy ampliamente
conocido en el mundo científico. (Su familia y sus colegas me llamaron para contribuir
con una conferencia en el centenario de su nacimiento). Sin embargo, creo que la
imaginación de Richardson estaba totalmente íbera de control. En otras palabras, si no
llega a ser por ciertos accidentes que hicieron que ciertas personas, como yo mismo, le
leyeran e introdujeran algo de disciplina en su obra, Richardson estaría hoy del todo
olvidado. Se necesitó pues de alguien que reconociera la relevancia de su obra, que viera
lo que había en el interior de su trabajo, que conectara los aspectos aparentemente
desconectados de sus escritos… He leído toda su obra con atención y, con la excepción
de sus modelos precursores del uso del ordenador para la predicción meteorológica, se
puede asegurar que su obra es totalmente caótica. G. A. Taylor, un colega de Richardson,
dijo con ocasión de su muerte que si su obra no había sido comprendida,
probablemente era porque era incomprensible. Creo que el juicio es correcto. He podido
leer muchos de sus escritos originales (algunos de ellos copias únicas que me
entregaron con ocasión de su centenario) y creo que pueden calificarse de silvestres. En
las condiciones actuales de publicación en las revistas especializadas, ni uno sólo
superaría el sistema de juicio de los consejeros científicos editoriales. De aquí pueden
extraerse dos conclusiones interesantes: el sistema oficial que juzga artículos científicos
es quizá demasiado rígido pero, por otro lado, Richardson no hacía, digamos, sus
deberes con demasiada diligencia. Criticar a un hombre de ciencia tan grande por una
cosa así quizá sea ridículo, pero creo que la crítica debe hacerse.

Kolmogorov (de él hay que decir por cierto que su nombre de pila es Andrei
Nicolaievich y que vive todavía, aunque es ya un hombre muy anciano y muy enfermo)
es un caso muy distinto. Pero vale la pena compararlos. Richardson se había adelantado
decenios a su tiempo pero, ya lo hemos dicho con una metáfora escolar, no hacía sus
deberes. Kolmogorov, en cambio, se adelantaba sólo pocos minutos a su época, pero sí
hacía sus deberes. La prueba está en que la obra de Kolmogorov fue desarrollada
simultáneamente por otros científicos como Onsager o Weizacker, es decir, otros
tuvieron las mismas ideas de manera independiente. Kolmogorov es un caso típico de
imaginación científica totalmente disciplinada. Nunca he oído decir a nadie que
Kolmogorov tuviera una idea prematura. Hay otro aspecto de este matemático que
concierne estrechamente a la imaginación científica. Aparte de su famoso trabajo sobre
la turbulencia de 1941, Kolmogorov escribió algunos más sobre este tema. Pues bien: el
de 1962 era erróneo. ¡Y hay que decir que este trabajo esterilizó toda la escuela rusa en
este campo! Su tremendo prestigio y la enorme magnitud de sus logros inspiraban tal
respeto, que nadie osaba desafiar sus edictos. El primer trabajo que yo publiqué en este
tema trataba cuestiones muy próximas al artículo de 1962 y me vi obligado a poner un
título parecido a éste: POSIBLE MATIZACIÓN DE LA HIPÓTESIS DE
KOLMOGOROV…, porque nadie me hubiera admitido de entrada la pretensión de
corregir al maestro. Este es quizás un aspecto negativo que hay que soportar de los
grandes imaginadores. Pero también da pie a otro aspecto de la propia imaginación
científica: la capacidad para reaccionar contra cosas sólidamente establecidas. Esa fue
justamente la aportación de mi imaginación en este caso: concebir seriamente la
posibilidad de que la gran estatua de mármol de Kolmogorov podría haber cometido
una equivocación ridícula, que yo la había encontrado y que yo podía corregirla. La
desobediencia es un elemento fundamental de la imaginación científica, y digamos que si
Kolmogorov no hubiera desobedecido a sus inmediatos antecesores, entonces
Kolmogorov no hubiera sido Kolmogorov. Así que Richardson y Kolmogorov
representan casi dos extremos opuestos de la imaginación científica, pero de los dos hay
mucho que aprender.

Jorge Wagensberg: En su caso se observa claramente otro elemento estimulador de la


imaginación. Me refiero a la simple posibilidad de manejar un ordenador.

Benoît Mandelbrot: Reconozco que yo he disfrutado de un gran privilegio: la


posibilidad de usar ordenadores en una época en que los ordenadores no eran todavía
demasiado accesibles. Esto nos lleva, en efecto, a otro aspecto central de la imaginación:
la importancia de las herramientas nuevas. Sin embargo, en contra de lo que la gente
cree, no tuve acceso a computadoras excesivamente especializadas. Estaba inmerso en
un gran laboratorio de computación que era además el primero (y eso sí fue decisivo)
con la capacidad para producir imágenes de ordenador. Pusimos a punto un sistema
realmente sofisticado. Allí me di cuenta de cuán rápidamente uno puede reaccionar
ante la contemplación de un mundo nuevo desvelado, de repente, por una nueva
técnica. En particular, me di cuenta de cómo la intuición humana, que de algún modo se
nos antoja eterna, puede ser modificada, formada y entrenada en muy poco tiempo por
el concurso de nuevos útiles. En realidad nuestra imaginación previa está asociada a la
colección de herramientas, técnicas y métodos vigente en cada momento. Hay una
tendencia clara a subestimar la importancia de tales herramientas. En matemáticas a
veces ocurre lo contrario; se tiene una fuerte tendencia a exagerar su importancia. Es lo
que ocurre, por ejemplo, cuando se reduce la geometría a las construcciones que pueden
hacerse con un lápiz, una regla y un compás. La historia de las matemáticas es de hecho,
hasta cierto punto, la historia de la lucha contra cierto rigor y cierta disciplina que se
autoimpone restricciones de este tipo. Y no es fácil romper las reglas preexistentes sin
destruirlas del todo, esto es, destruirlas lo bastante delicadamente como para evitar ser
marginado por ello. Afortunadamente la intuición es pues algo enormemente variable y
sensible a los nuevos métodos. Sin la existencia de los ordenadores hubiera sido una
presunción ridícula por mi parte introducir la iteración en la matemática pura en 1955
con las técnicas ordinarias, sobre todo teniendo en cuenta que yo no era ni muchísimo
menos el mejor matemático en este dominio. Desde luego no resultó nada ridículo, sino
algo extraordinariamente divertido y muy fácil; fui sencillamente el primero en usar las
nuevas herramientas para resolver viejos problemas y para reemplazar unos esquemas
que se habían convertido en algo excesivamente disciplinado y clasificado, incluso para
terminar con esta sensación de soldado a sueldo que yo tenía de mí mismo. Todo esto
hace que surja otro aspecto muy agradable para las personas que, como yo mismo, ya
no pueden considerarse muy jóvenes. La imaginación siempre puede ser realimentada
porque las cosas cambian o por el advenimiento de nuevas herramientas, incluso
después de los sesenta.

Pero déjenme decir que el contraste entre Kolmogorov y Richardson no es único en


absoluto. He conocido muy bien a John von Neumann y a Norbert Wienner. Cuando
Von Neumann ya estaba muy enfermo, tenía una manera muy amarga de analizar su
vida. Decía que siempre había sido considerado como el hombre más imaginativo de su
generación. Y, en efecto, era el más brillante de los científicos que rodeaban a Einstein
en Berlín en los años veinte. Pero en realidad sólo veía un día hacia delante. De hecho,
él veía muy claramente lo que de algún modo iban a hacer los demás al día siguiente.
Wienner era todo lo contrario. A menudo daba unos saltos de imaginación totalmente
silvestres e incluso ridículos, pero en muchas otras ocasiones tales saltos eran también
extraordinariamente profundos. Paul Lévy, mi profesor de matemáticas, era un caso
parecido. (Fue miembro de la Academia de Ciencias de Francia después de cumplir los
setenta y, para dar una idea de lo que era esta augusta sociedad, diré que cuando Paul
Lévy murió, a los ochenta y cuatro años, la edad media de los académicos del
departamento de geometría creció porque el resto de los miembros aún eran más
viejos). Paul Lévy era especialmente conocido por sus intuiciones y premoniciones.
Nadie se explicaba cómo lo hacía. Von Neumann confesaba que Lévy era para él un
motivo constante de preocupación. Para mi es como un marciano —decía—: se presentaba
de repente con unos juicios extraños sobre cierta función matemática y cuando le preguntaba por
las razones de sus afirmaciones, contestaba que no tenía ni idea. De nuevo nos encontramos
ante los dos extremos: la mente disciplinada y la mente silvestre.

Carles Ulises Moulines: Definir la imaginación es muy difícil, pero quizá pueda
intentarse una cierta caracterización. Creo que se trata de una anticipación sintetizadora
de una unidad global en la que se pueden introducir ciertos elementos y experiencias
aparentemente dispersos. Es una idea un poco abstracta, pero trataré de ilustrarla tal
como nos ha sugerido el moderador. Preguntémonos, por ejemplo, qué tienen en
común los movimientos de los siguientes objetos: un péndulo, una manzana que cae del
árbol, la Luna y los movimientos del mar. Para mucha gente no hay unidad alguna a
buscar entre tales casos. Hoy sabemos que el gran mérito de Newton fue justamente el
haberse planteado una respuesta parecida. En realidad, no hubo en ello ningún
razonamiento deductivo ni inductivo; simplemente trató de imaginar algo común entre
fenómenos muy diversos. Imaginar es trascender las apariencias inmediatas, y esta
operación puede ser perfectamente (de hecho lo es) irracional tanto en ciencia como en
filosofía o en metaciencia. Lo que hace Newton (y esto es la segunda parte del proceso
imaginativo) es inventar una estructura conceptual. Inventa conceptos como el de masa,
fuerza, aceleración instantánea, etc., que no tienen ninguna correlación empírica directa.
Todos tenemos, es verdad, una experiencia ordinaria del concepto de fuerza, pero no es
el concepto en el que piensa Newton. Imaginar es pues también inventar un sistema de
conceptos (con sus relaciones conceptuales) que nos permitan integrar cosas que
parecen muy distantes. Y claro, cuanto más diversas sean estas cosas y mejor integradas
queden, tanto más genial se nos antoja la imaginación creadora. En el dominio de mi
exposición de esta mañana también encontraríamos ejemplos relevantes. La metaciencia
pretende en realidad construir un universo conceptual que nos permita interpretar
teorías distintas bajo una luz nueva en cierto modo integradora. Por ejemplo: la teoría
psicofisiológica de Helmholtz, la teoría especial de la relatividad y la construcción del
número real a la manera de Cantor y Frege no pueden ser en principio teorías y temas
más dispares. Pues bien, Carnap inventó toda una metateoría que daba cuenta de estas
tres disciplinas (y de algunas otras). Por eso somos muchos los que consideramos que
su labor de síntesis es una obra fundamental de la filosofía del siglo XX. Y hay que
insistir en que esta tarea de Carnap no parte de ningún tipo de razonamiento sino a
golpe de imaginación.

Douglas Hofstadter: Estoy muy de acuerdo con el comentario de Benoît Mandelbrot


sobre la imaginación disciplinada y la imaginación silvestre. Creo que tiene mucho que
ver con la esencia de mi ponencia de esta mañana; me refiero a la superposición de
conceptos. Cuando dos conceptos se superponen en gran medida, entonces es cuando
se produce el deslizamiento hacia otra cosa dando lugar a una analogía de cierto valor.
Este es el origen, creo, de lo que Mandelbrot ha llamado la imaginación potente o
salvaje. Si el solapamiento en cambio es débil, entonces lo que se produce es una
analogía poco densa. En este caso ni siquiera se da pie a la imaginación disciplinada; es
en todo caso la incapacidad para imaginar. Yo querría aportar algunos ejemplos de
imaginación creativa extraídos de la física. En los años veinte Paul Dirac estaba del todo
motivado por consideraciones puramente formales cuando inventó una ecuación que
daba cuenta a la vez de la física cuántica y de la física relativista. Su ecuación incluía
matrices cuadradas de cuatro por cuatro que no tenían ninguna interpretación física. La
ecuación que escribió era sólo la ecuación matemática más simple que satisfacía ciertos
requisitos, pero ahí quedaban las misteriosas matrices. Una auténtica adivinanza.
Imaginando sobre ellas surgió algo nuevo: nada menos que la predicción de la
existencia de antipartículas. Años más tarde se descubría el positrón. En otras palabras,
el origen del descubrimiento hay que buscarlo en la preocupación de Dirac por el
aspecto formal, por ese sentido motivado por la belleza pura de las matemáticas. Pero lo
interesante para mí de este caso es que algunas décadas después (en los años setenta),
Dirac volvió a escribir otra ecuación basada también en consideraciones puramente
matemáticas. Recuerdo haber leído (como recién licenciado en física) el artículo con
enorme excitación, y mi intención era hacer, cuarenta y cinco años después de la
primera ecuación de Dirac, algo que tuviera también alguna relevancia en física. Quizás
ocurra en el futuro pero, que yo sepa, nadie lo ha conseguido todavía hasta la fecha.
Bien, no se puede decir que la producción de ecuaciones matemáticamente elegantes
vaya a proveer siempre nuevas visiones fundamentales de la física, pero me quedo con
el ejemplo: Dirac estaba profundamente motivado por la belleza.

Esto me lleva al otro caso que quería mencionar. Se trata de mi director de tesis
doctoral, Gregory Wannier, un físico teórico especialista en estado sólido. Su talento era
altamente matemático y, al igual que Dirac, tenía un olfato especial para la elegancia
formal. Cuando me acerqué a él en busca de un tema para mi doctorado, me describió
un problema que era, claramente, el más bonito y elegante planteado entonces en la
facultad de física. Me intrigó porque la cuestión era de hecho muy simple y
fundamental y eso no encajaba con el hecho de que fuese un problema abierto en física
por más de cuarenta años. El aspecto matemático era simple y elegante, pero la física no
se resolvía. Decidí dedicarme de lleno a este problema. Al principio yo trataba de imitar
a Wannier, pero su mente trabajaba en unos canales muy especiales y, sobre todo, era
un maestro en ciertas manipulaciones de ecuaciones que yo nunca había manejado
antes. Yo tenía dificultades hasta para resolver ejercicios que sabía que tenían solución.
En los primeros meses de trabajo con él, me convencí de que había que convertirse en
un maestro de este arte; más aún, debía ser incluso mejor que él, puesto que él había
fracasado hasta la fecha en sus intentos. Me desanimé mucho porque no sabía cómo
hacerlo. Pero me ocurrió algo muy parecido a la experiencia que acaba de comentar el
profesor Mandelbrot. Me encontré con una herramienta nueva de la que Wannier había
carecido: la exploración con el ordenador. Así que tuve la oportunidad de investigar los
comportamientos de las ecuaciones numéricamente, de modo que tuve la oportunidad
(exactamente igual que el profesor Mandelbrot) de visualizar gráficamente los
resultados. Y ocurrió, además, que unos años antes (siendo todavía estudiante) yo había
trabajado en teoría de números dentro de la matemática pura. Pues bien, aquí se
cruzaron afortunadamente dos circunstancias porque reconocí las estructuras que ahora
salían de mi ordenador como ya vistas diez años antes. De repente comprendí, en un
instante, lo que estaba pasando, la esencia del viejo problema. Se puede decir que de
algún modo había cortado un nudo gordiano, ya que había pasado por encima de toda
la complejidad que impedía resolver el problema, había cortocircuitado toda una serie
de manipulaciones que nos desviaban del centro de la cuestión. Convergieron pues dos
cosas: la nueva herramienta (el ordenador) y una buena base conceptual (adquirida
previamente en otro campo). Permítaseme referirme de nuevo a la analogía porque lo
que yo vi que producía el ordenador no era, claro, exactamente lo mismo que había
visto en la teoría de números, sino sólo parecido. Lo que tuve que hacer es pues construir
una analogía en el sentido que le he dado en la conferencia, esto es, experimenté un acto
perceptual en un sentido muy, muy abstracto del término percepción. De todo esto
extraigo la siguiente lección. Es un error buscar en la complicación. La imaginación
sobreviene cuando la cosa es fácil, ningún gran descubrimiento ha sido el resultado de
un proceso digamos no natural o rebuscado. Esto es lo que he observado en muchos,
muchos casos. También es un error forzarse a uno mismo a actuar y a pensar como otra
persona con la intención de ser creativo. Los moldes ajenos no siempre funcionan, uno
debe intentar conocerse y aprender a explotar las propias cualidades y el propio talento.
Imaginar debe ser, en último término, algo tan sencillo como caerse de un árbol.

Arne Wunderlin: Sólo haré un breve comentario de cuáles son, a mi juicio, los sueños
de un imaginador teórico. El primero es encontrar una inconsistencia entre la teoría y la
observación. Esta primera fase puede cumplirse a través de un trabajo sistemático. El
segundo sueño es dar con la idea básica que permita resolver el problema. El tercer
sueño consiste en dar a esta idea una formulación y una base matemática. Y si todo se
ve coronado con el éxito hasta este punto, entonces aún queda una etapa no menos
importante que las anteriores. Se trata de encontrar el problema más simple que pueda
resolverse exactamente. Considero que esto último, tantas veces omitido, es
absolutamente esencial en relación a la imaginación científica. En mecánica y en
mecánica cuántica, por ejemplo, son muy pocos los casos que pueden resolverse
exactamente, pero es mucho el beneficio que la imaginación extrae de estos pocos casos.

Luis Boya: Yo quiero aportar unos ejemplos para ilustrar que un mismo rasgo o
característica de la imaginación puede llevar a resultados muy distintos científicamente.
La imaginación arranca en muchas ocasiones de una conjetura.
Hilbert, el famoso matemático, propuso, en cierto congreso del siglo pasado, veinte
problemas pendientes de tal profundidad que hoy, un siglo después, todavía quedan
varios por resolver. Einstein era, como se sabe, muy aficionado al Gedanken Experiment y
concluyó en que la velocidad de la luz era inalcanzable mucho antes de formular la
teoría especial de la relatividad, simplemente advirtiendo las contradicciones que
surgen cuando uno se imagina a sí mismo persiguiendo una onda luminosa. El mismo
confesaría que de tal paradoja surgió luego la distinción entre tiempo propio y tiempo
relativo, la esencia de la teoría especial de la relatividad. Niels Bohr casi exigía la
existencia de contradicciones. En cierta ocasión que alguien se le acercó para mostrarle
una teoría un tanto extraña, Bohr le espetó: su teoría es muy loca, pero me temo que no lo
suficiente. Bohr llegó a proponer, al menos en una ocasión, que la imaginación debía
restringirse en aras de una contradicción. En efecto, a propósito de la discusión sobre la
dualidad onda-corpúsculo, diría: debemos comprender que algo no pueda ser comprendido.

Jorge Wagensberg: Creo que se han comentado ya suficientes aspectos de la


imaginación, tal como pedía Navarro al principio, para que cada uno se quede con los
que mejor le van: la belleza, las nuevas herramientas, la naturalidad o simplicidad, el
salvajismo, el absurdo, las paradojas, las analogías… Pero una cosa es la imaginación y
otra cosa es lo que puede hacer un creador para estimular la suya. ¿De qué se nutre la
imaginación? ¿Cómo se estimula? Está claro que en principio se nutre de la percepción,
de lo que nos entra por los sentidos. Pero también es verdad que es muy pequeña la
parte del mundo que percibimos por esta vía (una vía que por lo demás nos engaña a
menudo). Así que yo, particularmente, me intereso por aquellos elementos que pueden
favorecer la imaginación salvaje de Mandelbrot o la locura que, según Boya, menciona
Bohr. Y no todos los elementos de la imaginación que se han mencionado influyen en
este aspecto. La belleza, por ejemplo, me parece importante, pero yo diría que una
ecuación bella que no se corresponde con el mundo real no es del todo bella, su
funcionalidad es parte de la belleza. En una primera fase del proceso imaginativo lo
interesante es provocar toda clase de analogías, absurdos y la loca colisión de todo tipo
de ideas. Creo que está claro que es precisamente eso lo que tendemos a no hacer y que
la progresiva especialización de la ciencia tampoco ayuda mucho a que se produzcan
esos valiosos solapamientos conceptuales de Hofstadter. Creo que es verdad que hay
una imaginación loca y otra disciplinada, pero no se trata de elegir entre una forma o la
otra, sino quizá de ser siempre un loco para empezar y un disciplinado para continuar.
Unos deberán esforzarse para lo primero y otros para lo segundo. Creo que hace falta
locura para tener una idea buena, y luego disciplina para hacerla triunfar. En la práctica
cada uno hace lo que puede, pero en principio está a nuestro alcance crear las
condiciones para lo primero (agitar las ideas como decía en la introducción) y luego
hacer los deberes (como aconsejaba el profesor Mandelbrot).
Jesús Mosterín: Es verdad que lo que conduce a un gran logro científico es una
mezcla de imaginación salvaje, de disciplina y yo añadiría que de buena suerte. Pero me
temo que hemos identificado demasiado la imaginación con la idea de los grandes
logros científicos. La imaginación salvaje puede conducir también a resultados absurdos
e incluso ridículos. Y creo que el miedo al ridículo es un importante factor limitante de
la creatividad y de la imaginación. Hay muchas cuestiones trascendentes de la ciencia
actual, de la cosmología, de la evolución biológica, etc., que no funcionan del todo y que
requerirían la introducción de conceptos nuevos. Quizá deba ocurrir algo similar a lo
que Ulises comentaba sobre Newton. Quizás alguien ha tenido ya buenas ideas al
respecto y las ha reprimido por excesiva disciplina. Quizá debamos valorar más la
imaginación aunque no conduzca al premio Nobel sino a uno de esos resultados
ridículos.

Douglas Hofstadter: Esto me recuerda un artículo que Martin Gardner publicó en una
revista llamada The Skeptikal Inquirer. Escribía sobre Tom Gold, un cosmólogo conocido
justamente por ser un generador de ideas salvajes. Gardner decía: Gold acostumbra a
expresar ideas muy radicales y muy locas. La mitad de las veces se equivoca, la otra mitad
acierta. Pero está claro que gente así es necesaria.

Benoît Mandelbrot: Quería volver brevemente sobre dos cuestiones: la belleza y las
contradicciones. De la belleza diré que, a pesar del caso Dirac, hay muchas otras teorías
bellas que han resultado ser totalmente erróneas. Cuando era estudiante en París, De
Broglie tenía fama de imaginar teorías muy bonitas pero que no tenían la menor
relación con la realidad. De las discrepancias diré que no hay que ir muy lejos en la
naturaleza para encontrarse con ellas. Hay algunas que sobreviven mucho tiempo, y
entonces lo que hacemos es aprender a convivir con ellas, lo que quizá sea lo mejor
porque en caso contrario no podríamos dormir.

Ramón Margalef: En mi anterior intervención el tema no estaba todavía muy


centrado, ahora en cambio parece que la cuestión de la imaginación ha quedado bien
restringida a la física y a la matemática. (Risas en la sala.) De todos modos quizá valga la
pena comentar lo que puede ser la imaginación en biología. No hay que olvidar que la
imaginación es un atributo particular de la vida y que nosotros somos representantes de
la vida. La vida misma despliega tal imaginación en torno nuestro, que muchas veces
nos sentimos incapaces de sintetizarla o de manipularla. Empleo, claro, el término
imaginación como esa capacidad de hacer infinitas combinaciones. La exposición de
mariposas que hay en el vestíbulo es una excelente prueba de ello: esa capacidad de dar
vueltas y más vueltas a ciertos temas con resultados de mayor o menor éxito. Creo que
esta colección es una buena imagen de cómo opera nuestra propia imaginación. La
simulación por ordenador ayuda hoy efectivamente a esta capacidad de combinación
como en su tiempo ayudaban los inventos de Raimon Llull. En biología es importante
establecer el marco en el que situamos los fenómenos biológicos. Aquí sí creo que
debemos tomar el que nos dan los físicos, los cosmólogos, los matemáticos… Un
principio de cuantificación, por ejemplo, es extraordinariamente importante en biología.
Pero dentro de la biología la imaginación tiene unas características más parecidas a las
de la propia vida. La capacidad de los organismos para reproducirse, para combinarse
con el resultado de formar sistemas más amplios, la imagen de la biosfera como una
bomba peristáltica en la que de una forma indefinida entran unos organismos y salen
otros, los mecanismos de la selección natural, son aspectos de una imaginación muy
especial que es muy diferente de la imaginación de los físicos y de los matemáticos. La
estructura de los ácidos nucleicos es un ejemplo excelente que contiene todos estos
aspectos. El título de mi contribución de mañana no responde a un arcaísmo rebuscado.
Si empleo el término de historia natural es porque creo que en biología todavía estamos
en un período descriptivo emocional y no perseguimos todavía esa clase de síntesis que
lo ilumina todo de golpe.

Luis Navarro: Me gustaría plantear otra cuestión relacionada con la imaginación que
quizá rebaje un poco el nivel de abstracción de la discusión, pero que creo que no
debemos omitir. Me refiero al aspecto más humano que hasta ahora ha surgido sólo
marginalmente. La cuestión es: ¿por qué imagina el imaginador científico? ¿Cuáles son
las motivaciones que tienden a estimularlas y cuáles son las que tienden a frenarlas?
Está claro que también aquí la diversidad es muy grande. Algunos pensarán que uno
imagina simplemente porque es su oficio, otros que por la relevancia social o por la
competitividad que se da en cualquier actividad humana, otros que por la mera
voluntad de comprender, y otros que por el simple hecho de pasárselo bien. Esto último
no es tan ingenuo como pueda parecer. Una vez le preguntaron a Michelson por qué
seguía intentando probar con complicados y repetidos experimentos el movimiento
relativo de la Tierra con respecto de un presunto éter, cuando la teoría de la relatividad
había sido ya formulada y largamente aceptada. Es que me divierte muchísimo, contestó.
Por otro lado no es menos interesante preguntarse por los frenos que la sociedad o el
propio imaginador se autoimpone a la hora de imaginar. También aquí hay muchas
explicaciones posibles. La misma concepción que uno tiene de la ciencia, y que en
ocasiones es estímulo de la imaginación, a veces actúa como todo lo contrario. Es el caso
de Einstein cuando intuyó, entre 1917 y 1924, la crisis del principio clásico de
causalidad, ya que ello le hizo dudar de su misma vocación de científico. Así parece si
atendemos a las palabras que Einstein dirigiera a la esposa de Bom: Si la física llega a
establecer que un electrón puede elegir el momento y lugar para escapar de un átomo, entonces
yo hubiera preferido ser zapatero o croupier de un casino. Einstein veía que los derroteros
por los que marchaba la física iban en contra de su imaginación. La cuestión sería
entonces, repito, sobre qué estimula y qué frena la imaginación.
Ramón Margalef: No hay cosa que estimule más la imaginación que el hecho de no
tener la obligación de desarrollarla. (Carcajadas en la sala.) Lo digo seriamente. Uno no
debe estar alquilado para hacer un trabajo preciso. La imaginación debe poder vagar a
su antojo. Por ejemplo, en la universidad uno da unas clases, no le exigen demasiado y
por eso podemos dedicar los ratos que quedan a imaginar. (Más carcajadas.) Sigo
hablando en serio.

Luis Navarro: Eso de que en la universidad sólo se exige dar clases… será a algunos.

Benoît Mandelbrot: Bien, yo no sé demasiado cómo estimular la imaginación, pero sí


sé cómo desestimularla. Se ha hecho de muchas maneras en muchos momentos, en
muchos lugares y por mucha gente. La sobreorganización en la enseñanza y en la
educación es parte clara de este aspecto negativo. Cuando comparo la educación que
reciben mis hijos en el colegio con la educación caótica que yo experimenté, me siento
afortunado. Creo que algo en mí se salvó de ser destruido. Las características especiales
de mi obra han hecho que me convierta en un centro de atracción y esto me ha hecho
vivir cosas curiosas que muy pocos han experimentado. Me refiero al acoso de ciertos
iluminados (incluso locos del todo) tanto en EE. UU. como en otras partes del mundo.
En principio les recibo siempre y dejo que me expliquen sus historias con la esperanza
de que algún desconocido brillante surja entre ellos con algo que valga la pena. Pues
bien, después de tantos años, eso no ha ocurrido nunca. Esta locura que mueve a tocarlo
todo es frecuente, pero no creo que sirva de nada sin ese mínimo de disciplina a la que
antes me refería. Insisto en esa necesidad.

Akira Okubo: Con esto llegamos a una cuestión importante de verdad: el papel de la
enseñanza. Quizá pueda interesar mi experiencia puesto que he vivido dos etapas bien
distintas, la primera en Japón y la segunda en EE. UU. Estoy en una posición perfecta
para comparar y evaluar ambos sistemas. Lamento tener que decir que el sistema
japonés no hace demasiado en favor del desarrollo de la imaginación. La primera es el
aspecto tremendamente competitivo que hace que buena parte de la enseñanza esté
concentrada hacia la superación de exámenes (sobre todo los de ingreso en la
universidad). El estudiante debe aprender todo lo que el profesor le propone. No queda
espacio para aquello que luego no va a ser explícitamente exigido. En EE. UU. la
enseñanza es más libre y se atiende a la opinión que puede tener el estudiante. El
sistema tiene también sus defectos, pero al menos se favorece la comunicación no sólo
entre el profesor y el alumno sino también la comunicación entre alumnos. Y la
comunicación enseña a imaginar. He visto con frecuencia cómo estudiantes que hacen
un mal examen, dan luego pruebas de una gran imaginación científica. Y hay sistemas
en los que ni siquiera es posible que se presente la oportunidad de que tal cosa pueda
llegar a ser observada. Como japonés me duele tener que reconocerlo.
Carles Ulises Moulines: Para responder a la pregunta del Dr. Navarro tengo que
especular un poco, porque acaso sea una pregunta para un psicólogo. Creo que en este
aspecto hay que comparar la imaginación científica con la imaginación artística. Lo que
impulsa la imaginación en el cine o la literatura es el deseo de contamos una historia
coherente y plausible sobre el mundo, para lograr una unidad que no tiene nuestra
experiencia inmediata. Esta sensación de unidad global es lo que de hecho queda de
una buena película o de una buena novela. Exactamente lo mismo ocurre, creo, con una
teoría científica. En eso radica el valor y el riesgo de la imaginación. Tiene razón Jesús
Mosterín cuando dice que el resultado puede ser luego demasiado fantasioso y ajeno a
la realidad, pero eso es ya otro asunto; hablamos ahora de motivaciones. Y la
motivación no la veo entonces condicionada por asuntos profesionales o sociales, sino
que surge de ese impulso natural humano de contarse algo a sí mismo, algo plausible,
coherente y unitario. Ese es por otra parte el origen de los mitos: una película bien
contada del mundo, de su origen y de su evolución. El mismo deseo que crea los mitos,
crea la obra de Darwin o la de Newton.

Douglas Hofstadter: Creo que no estoy del todo de acuerdo con este último
comentario. Es verdad que hay una coincidencia entre la mitología y la ciencia: ambas
responden al deseo de comprender el mundo. Pero pienso que existe una vasta
diferencia entre el hecho de la simple y pasiva aceptación de los mitos y la activa
investigación y persecución de la comprensión del mundo. El caso de Einstein que se ha
mencionado antes es realmente complejo. El conflicto de creer profundamente en una
verdad con la comprobación de que ésta es insostenible, es de hecho el conflicto entre el
deseo de crear y lo que podríamos llamar la honestidad intelectual. Quizá sea cierto que
Einstein se llevara algunas decepciones en este sentido, pero también es verdad que las
superó, no abandonó la ciencia. El científico se enfrenta constantemente con las
contradicciones. En la educación hay que favorecer al máximo la explosión de ideas de
todas clases y me temo que en EE. UU. la televisión no ayuda demasiado en general. La
libertad para explorar es lo más importante, se trata de nuevo de la experiencia caótica
mencionada por los profesores Mandelbrot y Okubo. Benoît nos dice que la disfrutó en
Europa, y Akira que en EE. UU. Mi caso se parece bastante al de Benoît. No tuve unas
calificaciones demasiado buenas, pero no me preocupaba, porque exploraba lo que me
interesaba. Estaba siempre rodeado de libros y discos y, desde luego, de poca televisión.

Benoît Mandelbrot: Debo hacer una pequeña corrección a Douglas. El caos de mi


juventud no se refería a mi educación (que estaba muy bien organizada) sino a los años
de la guerra en los que la supervivencia era más importante que cualquier otra cosa.

Arne Wunderlin: He aquí mi motivación personal; sencillamente no entiendo la


realidad compleja. La ciencia y la imaginación científica me permiten construir en
cambio una imagen sencilla del universo que sí puedo entender. El universo de los
sistemas hamiltonianos, el universo de las estructuras diferenciables, el universo de los
cuerpos simétricos son al menos inteligibles en parte. Por ello me siento cómodo
viviendo en ellos y por ello uso la imaginación científica.
Crecimiento de la organización
biológica en ambientes turbulentos

Akira Okubo

Akira Okubo. Marine Sciences Research Center. State University of New


York
Introducción

El término «organización biológica» empleado en este artículo hace referencia a la


distribución heterogénea de poblaciones vivas en sus respectivos hábitats. La propuesta
de esta comunicación es examinar la organización biológica en términos de
interacciones físico-biológicas entre los organismos y su medio fluido.

La distribución espacial de las poblaciones ha sido estudiada de manera extensiva


en ambientes marinos en los que los productores primarios son principalmente
planctónicos, por lo que su distribución está sometida al flujo del agua circundante. Un
tipo de organización biológica que se da en mares y lagos es la heterogeneidad del
fitoplancton. Incluso cuando los parámetros físicos característicos del agua permanecen
uniformes, el plancton a menudo está distribuido en cierta forma organizada o no-
uniforme. El mecanismo exacto por medio del cual se da la uniformidad del plancton
no es aún bien conocido. Algunos mecanismos propuestos son:

(i) Agregación mecánica por convergencia.

(ii) Respuestas de comportamiento a distribución hidrográfica, de nutrientes y luz.

(iii) Interacciones presa-depredador.

(iv) Comportamientos de agregación en respuesta a individuos conspecíficos


(Okubo, 1980).

Los sistemas abióticos pueden producir patrones espaciales a través de procesos


químicos de reacción y difusión como es el caso de la reacción de Zhabotinsky. La
generación de un patrón por rotura de simetría requiere que el sistema se halle lejos del
equilibrio y sea abierto, esto es, que el proceso se alimente de energía. Mecanismos
análogos de formación y mantenimiento de patrones biológicos como resultado de
difusión ambiental e interacción entre especies han sido también consideradas en la
modelización de la heterogeneidad del plancton.

Una de las dificultades en el estudio de la organización biológica en ambientes


turbulentos es el hecho de que muchos procesos físicos y biológicos de importancia
operan sobre un amplio espectro de escalas espaciales y temporales. De hecho, existen
situaciones en las que la variación de las escalas de espacio y tiempo del medio físico se
corresponden de forma aproximada con las de los organismos marinos en los niveles
individual, de población y de comunidades (Denman and Powell, 1984; Mackas et al.,
1985).
Turbulencia en el medio fluido

Cuando un fluido discurre en forma ordenada, el flujo se denomina «laminar». Por


otra parte, cuando lo hace en forma irregular acompañado de mezcla, el flujo se
denomina «turbulento». Para un fluido estratificado, el número de Reynolds, que puede
interpretarse como la relación entre fuerzas inerciales y fuerzas viscosas, determina el
carácter turbulento o laminar del flujo. De esta forma, en la capa superior del océano,
cuyo espesor se halla entre los 10 y los 100 metros, un flujo medio de 10 cm/seg da un
número de Reynolds entre 106 y 107, que es mucho mayor que el número de Reynolds
crítico de transición entre flujo laminar y flujo turbulento. Esto indica que el flujo en la
capa superior, en la que tiene lugar gran parte de la actividad biológica, debe ser
turbulento. Los flujos en nuestro medio ambiente, atmósfera y océanos, se hallan
generalmente en estado de turbulencia.

La turbulencia puede considerarse como un tipo de movimiento al azar que consiste


en muchos giros y remolinos superpuestos que se mueven y evolucionan al azar en una
forma extremadamente compleja, de tal manera que únicamente podemos discernir
valores estadísticamente promediados.

En los océanos, la circulación atmosférica global y las fuerzas de marea transfieren


su energía principalmente a las corrientes oceánicas de gran escala. A su vez, estas
corrientes tienden a transferir su energía cinética a remolinos de menor escala como
resultado de interacciones no lineales. Estos últimos transfieren su energía a remolinos
aún más pequeños. Esta secuencia de acontecimientos da lugar a una cascada de
remolinos de tamaño decreciente. Por último, remolinos muy pequeños del orden de 1
mm (micro-remolinos de Kolmogorov) emplean la viscosidad para disipar su energía
cinética en calor y, por tanto, en energía cinética molecular. Algunos remolinos de
escala intermedia pueden obtener su energía directamente de ondas internas, ondas de
viento, etc. El amplio espectro de remolinos puede así alcanzar un estado estacionario si
la tasa de suministro de energía iguala la tasa de disipación.

Esta forma de expresar la turbulencia como una agregación de remolinos de


distintos tamaños puede formalizarse en términos del espectro de Fourier.
Consideremos convenientemente la energía turbulenta promediada por unidad de
masa de flujo ambiental, y examinemos la distribución de ésta entre varios tamaños o
una amplia gama de números de onda. Definimos así E(k)dk como la contribución a la
energía turbulenta de los números de onda entre k y k+dk;

∫ 0
E(k) dk = energía turbulenta promedio (1)

E(k) se denomina densidad espectral de energía turbulenta o función de espectro de


energía (Batchelor, 1953).

Cuando el número de Reynolds es lo bastante grande para permitir la existencia de


una razonablemente amplia gama de remolinos entre los mayores de éstos, que reciben
directamente la energía externa, y los más pequeños, que la disipan en forma de calor,
podemos esperar que existan remolinos de tamaño intermedio, esto es, una «subgama
inercial» en el que apenas tiene lugar disipación, y donde la transferencia de energía por
fuerzas inerciales es el proceso dominante. La densidad espectral E(k) de la subgama
inercial de remolinos depende por tanto únicamente de la tasa de transferencia de
energía y del número de onda k, y los argumentos dimensionales conducen a la
expresión:

E(k) = A k−5/3 ε2/3 (2)

donde A es una constante absoluta. Esta expresión es esencialmente debida a


Kolmogorov (1941), y constituye una de las predicciones más importantes de la teoría
de la turbulencia.

Los remolinos disipadores de pequeña escala (remolinos de Kolmogorov) se


encuentran también en equilibrio estadístico y están caracterizados únicamente por c y
v (viscosidad cinemática). Con estos parámetros podemos construir escalas de longitud,
tiempo y velocidad de los remolinos de Kolmogorov a partir de:

n≡ (
v3
ε

) 1/4

τ≡ (
v

) 1/2

1/4
υ ≡ (vε)

(Batchelor, 1953).

A grandes números de Reynolds, la distribución espacial de los remolinos de


pequeña escala es altamente no uniforme y moteada. Este fenómeno recibe el nombre
de «intermitencia» de la turbulencia. La intermitencia ha sido recientemente explicada
por la naturaleza fractal del empaquetamiento de los remolinos en el sentido de los
fractales de Mandelbrot (Mandelbrot, 1982; Frisch et al., 1978). Se ha sugerido (Mitchell,
1987) que la distribución heterogénea de los remolinos de Kolmogorov podría tener una
influencia inevitable sobre la organización espacial a microescala de las bacterias
marinas.

Difusión turbulenta y procesos advectivos

El movimiento de pequeñas partículas incluyendo organismos en el medio fluido


está influido por la turbulencia y, de acuerdo con ello, es aleatorio o estocástico por
naturaleza. Cuando el movimiento posee aleatoriedad, está acompañado de difusión.
Denominaremos a esta difusión causada por la turbulencia del medio como «difusión
turbulenta» con el objeto de distinguirla de la difusión molecular debida al movimiento
aleatorio. Algunos rasgos característicos de la difusión turbulenta en el mar se resumen
a continuación (Okubo, 1980). 1) Los movimientos implicados en la difusión oceánica
tienen escalas mucho mayores que las escalas de movimiento molecular. La difusión
turbulenta es en general mucho más efectiva que la difusión molecular en el proceso de
mezcla. 2) Debido a que la turbulencia oceánica se compone de una amplia gama de
tamaños de remolinos desde el orden de 1 mm a la circulación oceánica general (1.000
km), la escala de los remolinos que participan en la difusión varía con la escala del
fenómeno. A medida que la escala se hace mayor, participan en la difusión remolinos
mayores y en mayor número, y el coeficiente efectivo de difusión («difusividad de
remolinos») se incrementa. 3) Con la excepción de remolinos de muy pequeña escala,
típicamente inferiores a 10 cm, la turbulencia oceánica es anisótropa, con escalas
horizontales de difusión que exceden generalmente las escalas verticales.

De hecho, los procesos verticales y horizontales en el medio están fuertemente


acoplados de manera que la acción combinada de cizallamiento vertical en flujos
horizontales y la mezcla vertical transversal pueden dar lugar a una dispersión efectiva
en la dirección horizontal. El así llamado «efecto de cizalla» juega un importante papel
en la dispersión de partículas en el medio fluido (Bowden, 1965; Saffman, 1962).

Además del movimiento aleatorio, se dan ciertos movimientos organizados en el


medio fluido, en particular a lo largo de la zona frontal. En el mar, un frente se define
como una discontinuidad en la distribución horizontal de la masa de agua a la escala de
observación. La longitud de un frente sobre el que se extiende la discontinuidad
generalmente excede a su anchura en varios órdenes de magnitud. Los frentes forman
allí donde se hallan gradientes horizontales de procesos generadores de energía y de
disipación, y son regiones de convergencia y movimientos verticales relativamente
intensos. Los frentes juegan un importante papel en la organización biológica por medio
de la concentración de organismos planctónicos a lo largo de la convergencia del frente
y, también, por medio del enriquecimiento de nutrientes asociado al movimiento
vertical.

El concepto de tamaño crítico de la organización biológica

La organización biológica aparece a partir de una variedad de mecanismos y


procesos bajo diferentes condiciones. Sin embargo, muchas veces aparece un único
proceso común que actúa como un agente antiorganizativo. Este proceso es la difusión
debida a la turbulencia del medio circundante.

En términos generales, la difusión tiende a impedir la formación de organización


biológica y a originar una distribución uniforme. Por tanto, un juego sin fin tiene lugar
entre el proceso de agregación del crecimiento de organismos y el proceso
antiagregativo de la difusión, pudiéndose establecer un balance dinámico de tal manera
que la tasa de crecimiento de organismos en un dominio dado es igual a la tasa de
pérdida de organismos por difusión en los alrededores donde los organismos no
pueden sobrevivir o su tasa de crecimiento intrínseca es negativa. Como la tasa de
crecimiento es proporcional al volumen del dominio y la tasa de difusión es
proporcional al área de la superficie del dominio, el tamaño de éste en el balance
dinámico tiene que ser un tamaño mínimo crítico, por debajo del cual la agregación
biológica no pueda mantenerse a sí misma. Sólo podrán aparecer estructuras biológicas
coherentes y mantenerse a sí mismas si el tamaño de los sistemas es mayor que el
tamaño crítico.

Un modelo matemático simple y útil para el tamaño crítico fue propuesto por
Kierstead y Slobodkin (1953) y Skellam (1951) independientemente. Su modelo se basa
en una difusión simple y en una ecuación de crecimiento exponencial para la
concentración de organismos. El tamaño crítico resultante viene dado por L c = m
(D/a)1/2 donde D es la difusividad, a es la tasa de crecimiento, y m una constante
numérica; m = π, 4,81 y 2π para una, dos y tres dimensiones, respectivamente. Este
modelo se ha convertido en la piedra angular en el desarrollo subsiguiente del tema.

El desarrollo posterior se ha realizado en diferentes direcciones. Incluye: i) la


generalización de la función de la tasa de crecimiento y la relajación de las condiciones
de contorno del dominio, ii) dependencia de la difusividad con la escala y la
concentración, iii) dinámica de crecimiento poblacional no lineal, iv) interacciones
multiespecíficas, y v) adición de procesos advectivos. Aún más importante es el hecho
de que estas generalizaciones y mejoras del modelo original han mostrado, con pocas
excepciones, que la expresión del tamaño crítico es congruente como teoría matemática
si interpretamos D y a apropiadamente (Okubo, 1984).

Valores estimados del tamaño crítico sobre la heterogeneidad del plancton están
comprendidos entre 1 y 2 km para a = 1 divisiones por día, y entre 20 y 50 km para a = 1
división cada 10 días. Estos valores teóricos parecen apoyar las observaciones generales
de las agregaciones de plancton en el mar, aunque aquellas cuyas escalas son menores
que el tamaño crítico estimado también pueden existir.

Uno de los mecanismos que puede producir heterogeneidad a pequeña escala es la


acción de la convergencia del agua superficial asociada a menudo con los frentes. Por
otra parte, la presencia de divergencias tiende a aumentar el tamaño crítico. Dando
valores razonables a D y a, una divergencia superficial de unos pocos cm/sg puede
dispersar una fuerte heterogeneidad. La circulación de Langmuir, esto es, el
movimiento celular del agua generado por el viento, está acompañado por zonas de
convergencia y divergencia del agua superficial. Esta convergencia actúa agrupando
objetos flotantes y plancton, por lo que puede dar lugar a una larga banda de
agregaciones de fitoplancton. Entre éstas existen regiones de divergencia en las que el
agua está limpia generalmente de organización biológica.

Una población en crecimiento puede existir en presencia de divergencia sólo si el


valor de la velocidad advectiva del agua circundante es menor que 2(Da) 1/2 donde
(a/D)1/2 representa el número de onda máximo (correspondiente a una dimensión
mínima) válido para una población en crecimiento en presencia de difusión. Estas
consideraciones dieron lugar al «mandala del fitoplancton» (Margalef et al., 1979), un
espacio ecológico definido por la tasa de crecimiento poblacional a y la intensidad de la
mezcla turbulenta caracterizada por la difusividad D (Bowman et al., 1981).

Inestabilidad en la formación de patrones

Debido a que la difusión es un proceso que tiende a originar una densidad uniforme
de organismos en el espacio, es de esperar que la difusión, dondequiera que tenga
lugar, juegue un papel general en el aumento de la estabilidad mediante la disminución
de la heterogeneidad en la organización biológica en ambientes turbulentos.

Sin embargo, hay una importante excepción denominada «inestabilidad inducida


por difusión» o «inestabilidad difusiva». Bajo ciertas condiciones, la difusión puede en
realidad desestabilizar poblaciones biológicas con interacciones por lo demás estables, y
producir patrones espaciales y temporales. El concepto fue originalmente propuesto por
Turing (1952) como un modelo físico-químico de la morfogénesis. Turing demostró
teóricamente cómo un tejido embrionario con una distribución inicialmente homogénea
de sustancias puede sin embargo originar un patrón regular y estable de la distribución
de las sustancias.

El concepto de inestabilidad inducida por difusión puede aplicarse al problema de la


organización biológica en ecosistemas marinos (Levin y Segel, 1976; Okubo, 1978). Un
ecosistema básicamente estable y espacialmente homogéneo puede continuar siéndolo;
sin embargo, irregularidades espaciales y fluctuaciones en la abundancia de las
poblaciones, o en los parámetros ambientales, están siempre presentes. Si todas las
especies del sistema se difunden con la misma tasa, las fluctuaciones tienden a
suavizarse por la difusión sin alterar el balance entre las especies interactuantes,
manteniéndose la estabilidad del sistema. Por otra parte, si la difusividad difiere entre
las especies, el balance puede alterarse en presencia de fluctuaciones.
El proceso que conduce a la inestabilidad difusiva puede ser interpretado de la
siguiente forma. Supongamos una especie inhibidora (por ejemplo un depredador)
difundiéndose más rápido que una especie activadora (una presa). En estas condiciones,
en una región relativamente poblada, i. e. una parte positiva de la fluctuación, el
número de presas empieza a aumentar con la relativa ausencia de depredación con un
depredador alejándose de la región más rápidamente que la presa, mientras que en una
región relativamente menos poblada, i. e. una parte negativa de la fluctuación, el
número de presas decrecerá con el aumento relativo de la depredación con un
depredador llegando a esta región más rápidamente que la presa. A esta situación le
sigue un proceso de feedback positivo. Esto es, el crecimiento de la presa favorece el
crecimiento del depredador en el primer caso, mientras que la disminución de las
presas reduce el número de depredadores en el segundo. Por tanto, la organización
biológica aparece espontáneamente en un ecosistema con interacción difusiva.

Por supuesto, el proceso de homogeneización inherente a la difusión siempre está


presente de forma que las perturbaciones de extensión espacial relativamente pequeña,
pueden quedar enmascaradas por la difusión a una tasa mayor a la que opera el proceso
de feedback positivo, con lo que estas perturbaciones no crecerán con el tiempo. Por otra
parte, para perturbaciones de una extensión espacial relativamente grande, las especies
inhibidoras invierten demasiado tiempo en dispersarse de una parte de la perturbación
a otra para desencadenar su efecto desestabilizador sobre las especies activadoras. Por
lo tanto, únicamente fluctuaciones de una cierta extensión espacial pueden exhibir
inestabilidad difusiva.

Las medidas realizadas sobre la difusividad de organismos planctónicos en el mar


son muy escasas. Podemos intuitivamente asumir que las difusividades de los
organismos planctónicos en un mar turbulento son las mismas. Sin embargo, el efecto
de cizalla sobre la dispersión horizontal (véase sección 3) sugiere que ello no es
necesariamente cierto. Si el fitoplancton se concentra en la vecindad de la superficie del
mar, mientras que el zooplancton se distribuye de manera más o menos uniforme en la
capa superior mezclada, el coeficiente de dispersión horizontal debido al efecto de
cizalla para el fitoplancton debe ser menor, en un orden de magnitud, al
correspondiente al zooplancton.

Comportamiento de organismos y organización biológica

Cuando se considera la difusión en sistemas ecológicos, otro tipo de difusión debida


al movimiento al azar de los mismos organismos se suma a la difusión turbulenta del
medio. Cuanto menor sea un organismo, más sujeto estará al efecto del movimiento del
medio fluido. En consecuencia, las bacterias libres y el fitoplancton marino se
difundirán prácticamente de manera pasiva, mientras que muchas especies del
zooplancton así como peces se hallarán en alguna parte entre la difusión pasiva y la
activa.

Muchos invertebrados acuáticos son conocidos por formar bancos y enjambres. Los
enjambres son grupos de individuos implicados en movimientos más o menos
cohesivos sin orientación paralela. La presencia o ausencia de esta orientación paralela
permite distinguir entre enjambres y bancos. Los organismos individuales de un
enjambre deben exhibir ciertas regularidades en su movimiento junto a un
desplazamiento en apariencia aleatorio. De hecho, un enjambre se mantiene a través de
un equilibrio entre dos fuerzas que están asociadas con la regularidad y la aleatoriedad
del movimiento, y de acuerdo con la extensión espacial del enjambre, i. e. el tamaño de
éste queda determinado por el equilibrio de fuerzas (Okubo, 1986). El término
«agrupación» es empleado así para indicar la existencia de una organización biológica
tal y como el enjambrado en insectos, la formación de cardúmenes de peces o de
rebaños de ungulados, donde un cierto número de individuos están implicados en los
movimientos que originarán un grupo.

En consecuencia, el comportamiento de agregación de zooplancton-peces es


ciertamente importante en el mantenimiento de la organización biológica a pequeña
escala en ambientes turbulentos. Esperaremos hallar organización biológica a escalas
típicas del orden de 10 m para agregaciones del zooplancton, y del orden de 100 m para
bancos de peces. Estas escalas, sin embargo, varían con la densidad de la población y las
respuestas del comportamiento al medio ambiente para cada especie particular de
animales. Consideraremos por tanto una distribución de tamaños de grupos más que
una escala promedio de agregación.

A medida que los organismos formadores de agrupaciones se desplazan a lo largo


de un espacio limitado, la interacción entre grupos o individuos puede tener lugar, de
manera que dos o más grupos se encuentran y unen, o un gran grupo se divide en dos
más pequeños. La continuación de este proceso de interacción (unión y
desdoblamiento) puede finalmente dar lugar a una distribución de equilibrio de los
tamaños del grupo bajo restricciones ecológicas y de comportamiento dadas. Se han
desarrollado una gran variedad de modelos dinámicos destinados a obtener la
distribución de tamaños de grupo. Estos van desde los deterministas a los probabilistas
y varían en lo referente a las hipótesis acerca de la dependencia de las tasas de
agregación y desdoblamiento de grupos y sobre los tamaños y número de éstos.
Podemos realizar aún otra aproximación distinta empleando el principio de la
máxima entropía sujeta a las ligaduras pertinentes, con tal de que establezcamos el
concepto de entropía de la agregación (Okubo, 1986). Sea f la frecuencia de tamaño del
grupo i-ésimo, tal que:

fi = gi (t)
(3)

G(t)

donde gi (t) y G(t) son respectivamente el número de grupos de tamaño i y el número


total de grupos en el instante t. Definamos

H≡− Σ i=1
fi ln fi (4)

como la «entropía de la agrupación». La forma de H es de hecho análoga a la de la


entropía de un conjunto de probabilidades p tal y como se define en mecánica
estadística, y asimismo es la expresión de diversidad biótica (Margalef, 1986). Puede
demostrarse que la entropía definida en (4) tiene las propiedades que la justifican como
una medida del desorden de la agrupación (Okubo, 1986). Para la entropía de la
agrupación existen dos ligaduras «naturales» a la distribución de frecuencias:

(5)
Σ f =f
i
i
(6)
Σ if = N
i
i

=g

donde N es el número total de animales de la agrupación, y N/G es el número medio de


animales por grupo, que suponemos constante.

El principio de la máxima entropía establece que la distribución más probable f *i


corresponde al máximo de (4) bajo las ligaduras (5) y (6) (Jaynes, 1979). Para maximizar
la entropía bajo estas ligaduras, se emplea el método de los multiplicadores de
Lagrange. La distribución f*i de máxima entropía viene dada entonces por:

f *i = 1

g−1

(g (7)

g−1

)−i (i = 1, 2, …)

De donde la distribución de frecuencias es geométrica.


Algunos datos de distribuciones de tamaños de grupo de zooplancton y peces
aproximan muy bien la distribución geométrica con un único parámetro g. Esta
distribución ha proporcionado asimismo una buena representación de los datos
obtenidos en las especies de antílopes de Kenia, los rebaños de bisontes en la isla Santa
Catalina (California) y el búfalo africano en Serengeti (Okubo, 1986).

La universalidad de la distribución geométrica de frecuencias para los tamaños de


grupos sería el resultado de maximizar la entropía de los grupos bajo la conservación
del número de éstos. En otras palabras, los animales tienden a formar asociaciones de
carácter aleatorio, si exceptuamos el caso de los grupos de hembras y sus proles, el
comportamiento de defensa fuerte y otros. La asociación al azar podría facilitar a cada
individuo el armonizar sus necesidades fisiológicas en cada momento con las
necesidades de sus otros potenciales compañeros en el grupo.
Referencias

Batchelor, G. K.: The Theory of Homogeneous Turbulence, Cambridge University Press,


1953, 197 págs.

Bowden, K. F.: Horizontal Mixing in the Sea Due to a Shearing Current, J. Fluid Mech., 21:
83-95, 1965.

Bowman, M. J., Esaias, W. E. y Schnitzer, M. B.: Tidal Stirring and the Distribution of
Phytoplankton in Long Island and Block Island Sounds, J. Marine Res., 39: 587-603, 1981.

Denman, K. L. y Powell, T. M.: Effects of Physical Processes on Planktonic Ecosystems in the


Coastal Ocean, Oceanogr. Mar. Biol., Ann. Rev., 22: 125-168, 1984.

Frisch, U., Sulem, P.-L. y Nelkin, M.: A Simple Dynamical Model of Intermittent Fully
Developed Turbulence, J. Fluid Mech., 87: 719-736, 1978.

Kierstead, H. y Slobodkin, L. B.: The Size of Water Masses Containing Plankton Bloom, J.
Marine Res., 12: 141-147, 1953.

Kolmogonov, A. N.: The Local Structure of Turbulence in Incompressible Viscous Fluid For
Very Large Reynolds Numbers, Comptes Rend. Acad. Sci. U.S.S.R., 30: 301-305, 1941.

Jaynes, E. T.: «Where do We Stand on Máximum Entropy?», en The Máximum Entropy


Formalism (ed. Levine, R. D. y Tribus, M.), Massachusetts Institute of Technology Press,
Cambridge, Massachusetts, 1979, págs. 15-118.

Levin, S. A. y Segel, L. A.: Hypothesis for Origin of Plankton Patchiness, Nature, 259: 659,
1976.

Mackas, D. L., Denman, K. L. y Abbott, M. R.: Plankton Patchiness: Biology in the Physical
Vernacular, Bull. Marine Sci., 37: 652-674, 1985.

Mandelbrot, B. B.: The Fractal Geometry of Nature, W. H. Freeman, San Francisco, 1982.
(La geometría fractal de la naturaleza Tusquets Editores, 2021)

Margalef, R.: Some Concepts Relative to the Organization of Plankton, Oceanogr. Mar. Biol.,
Ann. Rev. 5: 257-289, 1967.
Margalef, R., Estrada, M. y Blasco, D.: «Functional Morphology of Organisms Involved
in Red Tides, As Adapted to Decaying Turbulence», en Toxic Dinoflagellate Blooms (ed.
Taylor, D. L. y Seliger, H. H.), Elsevier North Holland, Inc., 1979, págs. 89-94.

Mitchell, J. G.: «A New Mechanism for Generating Plankton Heterogeneity on Small


Scales», Ph. D. dissertation, State University of New York, Stony Brook, 1987.

Okubo, A.: «Horizontal Dispersión and Critical Scales For Phytoplankton Patches», en
Spatial Pattem in Plankton Communities (ed. Steele, J. H.), Plenum Publ. Corp., Nueva
York, 1978, págs. 21-42.

—Diffusion and Ecological Problems: Mathematical Models, Springer-Verlag, 1980.

— «Critical Patch Size for Plankton and Patchiness», en Mathematical Ecology, Lecture
Notes in Biomathematics, vol. 54 (ed. S. A. Levin), Springer-Verlag, 1984, págs. 456-477.

— «Dynamical Aspects of Animal Grouping: Swarms, Schools, Flocks, and Herds», en


Advances in Biophysics, Japan Scientific Soc. Press, Tokyo and Elsevier Scientific Publ.
Ireland, Ltd., 22: 1-94, 1986.

Saffman, P. G.: «The Effects of Wind Shear on Horizontal Spread From an Instantaneous
Ground Source», en Quart. J. Roy, Meteorol. Soc., 88: 382-393, 1962.

Skellam, J. G.: “Random Dispersal in Theoretical Populations”, en Biometrika, 38: 196-


218, 1951.

Turing, A. M.: The Chemical Basis of Morphogenesis, Phil. Trans. Roy. Soc., Londres, B237:
37-72, 1952.
COLOQUIO

Jorge Wagensberg: Creo que en su exposición se ve claramente que la analogía, por lo


menos entre la física y la biología, es algo más que una metáfora. Basta recordar los
casos de Boltzmann y Schrödinger para constatar que esta relación es antigua aunque
sea a nivel de inspiración. Existen tres aspectos concretos que ya han triunfado en física
y que parecen esperanzadores en biología. Los tres han sido mencionados más o menos
directamente en la ponencia y los tres tienen mucho que ver con la labor de nuestro
grupo de trabajo: la mecánica estadística y la teoría de bifurcaciones (como ideas
teóricas) y la simulación por ordenador (como técnica). La primera es ya una realidad, y
particularmente impresionante me ha parecido la distribución maxelliana de
velocidades que ha mostrado, pero ¿qué experiencia tiene en las otras dos?

Akira Okubo: Con respecto a la simulación no tengo experiencia directa,


desafortunadamente. Muchos colegas míos se dedican a ello, pero todavía no he visto
sus resultados. Un discípulo mío ha hecho también simulaciones sobre la dinámica de
enjambres de insectos utilizando datos de las observaciones obtenidas en la naturaleza.
Los resultados fueron interesantes y fue bonito ver cómo funcionaba la simulación. Sin
embargo, reconozco que el entusiasmo del estudiante era bastante mayor que el mío. De
algún modo todos los ingredientes, toda la información de entrada, era experimental,
por lo que no estoy seguro del valor que hay que dar a estas técnicas. Sobre la teoría de
bifurcaciones tengo más que decir. En mi ponencia sólo he mencionado un tipo de
potencial, pero como decía ayer el profesor Wunderlin, también pueden presentarse
bifurcaciones. En la naturaleza he observado bifurcaciones: por ejemplo, no es extraño
ver cómo un enjambre de insectos se divide, de repente, en dos enjambres. Esto se
puede incluso provocar, como hemos hecho

nosotros atrayendo a un enjambre con un papel blanco. Si luego se separa dicho


papel con cuidado en dos mitades, tarde o temprano el enjambre se parte en dos. El
papel puede interpretarse perfectamente como el potencial de la bifurcación.

David Jou: ¿El potencial es una propiedad colectiva o un factor externo (como la luz
que refleja el papel)?

Akira Okubo: Interesante pregunta. No lo sabemos. Quizá sean las dos cosas. Mi
interpretación es que al principio se necesita una especie de marca para atraer a los
individuos, pero una vez éstos se han acercado, entonces lo que domina es la
interacción mutua. Es curioso, los individuos se mueven en tomo de la marca, pero el
centro de masas del enjambre, el centroide, oscila, no está en reposo. Esto significa que el
movimiento del centroide puede moverse por una falta de equilibrio entre las fuerzas
interiores y, por lo tanto, en ausencia de fuerzas exteriores. Lo mismo ocurre en un
sistema de partículas newtonianas. Debe existir una relación entre el período de las
oscilaciones del centroide y las interacciones del enjambre.

Jorge Wagensberg: Me ha extrañado ver que las ecuaciones que ha mostrado sobre los
procesos de agregación y difusión sean lineales, porque poca organización puede
esperarse en tales casos, ¿no?

Akira Okubo: Oh sí, bueno… era sólo por una cuestión de simplicidad. También he
trabajado, claro, con ecuaciones no lineales.

Jorge Wagensberg: ¿Se ha encontrado en tales casos con que la medida del escenario es
crítica para la realización de un proceso? Lo digo porque se trata de comportamientos
que se han descrito en matemáticas y en física, pero que en realidad no pueden ser más
biológicos de espíritu. Es, en particular, una buena pista hacia el concepto de jerarquía.

Akira Okubo: Se refiere a fenómenos como el efecto de Turing o tipo Brusselator. Sí,
son muy frecuentes y estoy de acuerdo con su importancia en biología. Lo interesante
de estos casos de morfogénesis es que la estructura más dominante suele ser del orden
del tamaño crítico.
Historia natural del cambio en
sistemas organizados

Ramón Margalef

Ramón Margalef. Department d’Ecologia. Universitat de Barcelona


Introducción: La sucesión ecológica

Hace tiempo que me ha interesado el estudio de la sucesión ecológica (Margalef,


1958, 1962, 1978), principalmente en el plancton. En el medio marino, la sucesión se
precisa a partir del desarrollo masivo de algas microscópicas en volúmenes de agua
mezclados o de origen profundo, cuando van a parar a niveles iluminados. Prosigue
con poblaciones cada vez más diversas en lo que a géneros de vida se refiere, que se van
extendiendo por aguas cada vez más estratificadas, en las que la concentración de
elementos nutritivos disminuye, como respuesta al consumo y transporte que operan
las mismas secuencias de organismos. Otro excelente ejemplo de sucesión ecológica es
el que se puede observar en un campo abandonado, y que conduce a la maduración del
suelo y al desarrollo de la vegetación natural que, de ordinario, puede llegar al bosque.
Este proceso, obviamente, sigue un ritmo más lento que la sucesión en el plancton, de
décadas o siglos en vez de días o semanas, de acuerdo con la duración de la vida y de la
generación en los respectivos protagonistas principales. El conocido juego de la oca es
un modelo didáctico de la sucesión: El jugador avanza sobre una ruta marcada a saltos
discontinuos de longitud definida por un generador de azar (dado) con el riesgo de la
posible coincidencia entre el término de un avance y la posición de un agujero, en cuyo
caso hay que retroceder hasta un punto precedente en la ruta, o hasta el inicio de la
misma. Lo más sustancial en todo lo dicho es la asimetría (irreversibilidad) del cambio,
entre el cambio lento, con autoorganización progresiva, hacia «delante» (avance hacia la
casilla final del juego; el bosque crece), y el cambio brusco o catastrófico hacia «atrás»
(hay que volver al inicio del juego; el bosque se quema), que es el cambio
verdaderamente interesante o más «creativo».

Lo único comparable que tienen la sucesión ecológica y el juego de la oca es la


asimetría del cambio, que no es poco. Pero, por lo demás, difieren significativamente. El
juego de la oca es modelable sobre las coincidencias entre términos de una serie
aleatoria interna y que empuja la sucesión, con puntos situados de antemano sobre una
ruta lineal. En la sucesión ecológica, el desarrollo histórico con una fuerte
determinación interna (aquí residen los aspectos más seductores del problema) puede
ser y frecuentemente es resituado y aun recomenzado por perturbaciones de origen
exterior (del sistema envolvente) y que eran prácticamente imprevisibles desde el
interior del ecosistema.

Los modelos ecológicos habituales tratan de expresar la dinámica del ecosistema


sobre la base de interacciones binarias entre individuos y entre especies en el seno del
ecosistema, tomando también en cuenta la dependencia de los organismos de factores
fisicoquímicos del entorno. Números de individuos de las distintas especies y
características ambientales expresables cuantitativamente se toman como variables de
estado. En la práctica corriente las actividades, interacciones o dependencias se
consideran como parámetros constantes. Principalmente cuando se incluyen animales,
se reconoce la necesidad de expresar el cambio o evolución que resulta de la interacción
entre individuos capaces de procesar información, y con cierta «libertad» de opción
entre la anticipación, la interacción y la indiferencia. Sin duda, lo más importante que
ocurre a lo largo de la sucesión es que las acciones y reacciones entre los componentes
del sistema conducen a una evolución del sistema, estableciéndose condiciones —
restricciones— que son efectivas en las etapas siguientes y que se compaginan mal con
la adopción de constantes de interacción.

Una manera sencilla de expresarlo, que supongo es correcta, sería aceptar que la
energía que se cambia y que se disipa gradualmente con el funcionamiento del sistema,
reaparece en algún punto, y bajo aspectos que pueden ser muy diversos, como
información. Esto ocurre de tal manera que el cambio de energía es más notorio antes,
en relación con procesos modelables tal vez de manera sencilla, mientras que el
aumento de complejidad se reconoce después y, casi siempre, de manera confusa, a la
que hay que aproximarse estadísticamente y posiblemente sin más pretensiones que el
reconocimiento de cierto motivo o pattern, cuyo significado se nos escapa en el detalle.
Las primeras etapas de la sucesión se tienden a ver en el marco temporal, como
procesos dinámicos; las etapas finales, por su complejidad, desvían la atención del
estudio temporal y nos atraen como manifestaciones de ocupación del espacio, a veces
progresiva, y ordinariamente de carácter fractal. Se trata de una forma de desarrollo que
amplifica de manera regular y progresiva un soporte de la información, y en este
sentido las estructuras menores o subordinadas no son como en los modelos fractales
ideales, sino distintas unas de otras dentro de las correspondientes categorías.

Los ecosistemas tienen como componentes subsistemas producibles o reproducibles


(especies, individuos). Estos subsistemas están igualmente sujetos al cambio histórico,
que no llamamos sucesión, sino desarrollo y evolución, respectivamente. No hace falta
entrar en disquisiciones. Nuestra vida nos proporciona una percepción directa del
cambio histórico. Cada elección, cada decisión, restringe o limita nuestras futuras
posibilidades de maniobra, y en virtud de esta dependencia adherida al tiempo, nuestra
vida tiene o parece tener unidad, a la vez que hace difícil recomenzar, rehacer
verdaderamente la vida. Pero la vida, atrapada en el proceso de desarrollo histórico, ha
conseguido un volver a empezar gracias a la reproducción biológica y a la separación de
la información genética de la cultural. Un predominio de la participación cultural,
especialmente en el hombre, incrementa, por supuesto, el carácter agobiante y fatal de
un desarrollo histórico que tiene algunos puntos de contacto con la sucesión ecológica.
En la historia del individuo, de la especie, y de la comunidad de especies en el
ecosistema, el llamado accidente lleva a recomenzar con una situación comparable a
una que ya se había dejado atrás, y según una trayectoria que no puede repetir
exactamente a las anteriores.

Cuestiones semejantes están latentes en el estudio de la evolución biológica, y su


aspecto problemático lo resumía así en la sobrecubierta de un libro anterior (Margalef,
1980): «Para los más, el éxito del individuo que ha pasado ciertos genes propios a la
generación siguiente basta como explicación, y huelga hacerse más preguntas. Para
otros, propiedades comunes a todos los sistemas físicos impusieron la discretización de
la vida en individuos, y establecen condiciones de coexistencia y coevolución. Estas
anticipan, en buena medida, quién superará la selección y explican otras regularidades
en la organización de la biosfera».

El desarrollo histórico de las sociedades humanas es, por supuesto, más comparable
a la sucesión ecológica que a la evolución de las especies. Los filósofos se han
preguntado si se podrían reconocer leyes del desarrollo histórico en este contexto. En mi
opinión, si las hay, están a la par de las que se manifiestan en individuos, especies y
ecosistemas, es decir, son una consecuencia de las propiedades de sistemas
internamente flexibles y hechos de subsistemas replicables, y en tanto que son sistemas
físicos, sujetos a las restricciones expresadas por las leyes de la termodinámica y la
irreversibilidad o asimetría temporal.

La asimetría en el tiempo se relaciona estrechamente con que los sistemas se van


limitando a sí mismos, con el paso del tiempo, según trayectorias prácticamente únicas,
aunque repitiendo, en un número indefinido de ensayos, un mismo estilo de cambio. La
conversión de la energía del cambio en estilo o información es una noción
absolutamente generalizable. Para Matsuno (1984) la evolución de la materia no sería
más que la historia de una restricción progresiva de las posibilidades por causa del
propio desarrollo.

Se trata de un tema de tal generalidad que parece que sería fácilmente formalizable;
pero para el naturalista ha de contener todavía una gran dosis de descripción
comparada y, por ello, resulta atractivo, porque se expresa en él la belleza real de la
naturaleza. De aquí, también, el título de esta contribución, escogido no por afectado
arcaísmo, sino por pensar y creer que una aproximación naturalística puede ser
apropiada. Típicamente, el naturalista almacena observaciones separadas, como tales
más que como unidades de una serie estadística, y las usa para estímulo de una
imaginación que pretende ver la naturaleza de abajo arriba, sin seccionarla en niveles
sucesivos de legislación independiente. En este sentido, Darwin es un naturalista cabal,
como lo fuera Linneo, a pesar de las diferencias reales y aparentes. Quizá también se
puede considerar a Einstein como un naturalista, por su confianza en poder llegar
directamente a entender el funcionamiento del universo, en una actitud que se nos
antoja alejada de las vías catalogadas por los filósofos e historiadores de la ciencia. De
aquí la actitud casi indiferente de Einstein frente a la confirmación experimental de sus
anticipaciones (Elkana, 1982). Todo esto plantea una cuestión más regocijante que
inquietante: La creación científica quizá tiene poco que ver con las autopsias de los
autonombrados legisladores de la ciencia.

La formación de hipótesis científicas no es tan azarosa como se dice, y tanto o más


que con la historia de la sociedad se puede relacionar con la historia del individuo. La
imaginación trabaja haciendo y examinando combinaciones mentales y contrastándolas,
en diversas áreas del conocimiento, utilizando constantemente analogías que suelen ser
más que analogías. Nuestra experiencia existencial puede ser válida para analizar tanto
la sucesión como la evolución.

En qué consiste nuestro problema

El resultado de todo episodio de selección entre individuos de diferentes especies, o


entre individuos de una misma especie, o de crecimiento, o de cambio de localización, o
de aprendizaje y adquisición de información, y un largo etcétera, depende del escenario
de cada momento. Este es, a su vez, consecuencia de la concatenación de episodios que
se han vivido anteriormente, y de los que han sido actores las entidades que nos
interesan directamente, así como otros componentes acompañantes. Es como si el
escenario fuera derivando gradualmente. Pero como que todas las interacciones tienen
una regularidad profundamente enraizada en propiedades de sistemas físicos, hay que
esperar encontrar regularidades de tipo termodinámico en la evolución «normal» del
conjunto. Así ocurrirá para la disipación de energía y sus relaciones con las propiedades
de sistemas abiertos, que por la discontinuidad de sus fronteras están siempre fuera de
equilibrio, lo que se asocia con una gradual adquisición de complejidad y práctica
irreversibilidad. La consecuencia más importante, por lo menos en la aproximación
cuantitativa a la ecología, es que se hace muy difícil proponer modelos numéricos
apropiados, porque los coeficientes que describen o aspiran a anticipar el resultado de
las interacciones tendrían que cambiar continuamente y, además, de una forma
difícilmente predecible con exactitud. En el mejor de los casos, situaciones que se
comparan con la esperanza de encontrar las bases para una predicción, se pueden
ilustrar mutuamente, pero nunca resultan equivalentes.

Todo esto se extiende a circunstancias del colectivo humano, que puede


proporcionar ejemplos didácticos. Dos personas no pueden repetir exactamente la
misma transacción dos veces seguidas, aunque puedan intentar darle una forma
automática que haga innecesaria su repetida intervención personal. Tampoco se usa
una misma palabra dos veces seguidas sin que manifieste los efectos de su uso en su
significado, y se comprende la preocupación de los filósofos en preservar el sentido de
sus formas de expresión. Por esto la lógica matemática trata de sustituir las palabras por
símbolos descarnados; pero el empeño es vano, tal vez. Pero es una exigencia del
pensamiento matemático, que requiere ser más amplio que la naturaleza, para contener
no sólo la naturaleza real, sino también todas las posibles y las imaginarias. Igual
capacidad se ha de reflejar en los ordenadores, creados sobre la misma imagen,
idealmente fuera del tiempo y de la historia y perfectamente isotrópicos, como
contenedores y vehículos adecuados para toda clase de modelos.

Los modelos ecológicos utilizables forman un subconjunto de todos estos modelos


de expresión matemática pura. Podemos imaginar un primer filtro: lo aceptable en
ecología ha de ser compatible con la realidad física. El universo físico tiene una serie de
limitaciones —dos cosas no pueden ocupar el mismo espacio, las leyes de la
termodinámica, la relatividad— que son válidas también para los sistemas orgánicos,
como sistemas físicos que son. Podemos añadir que los sistemas expertos (inteligencia
artificial) por serlo, han de poder evolucionar, es decir, restringirse como un organismo,
incrementando y reorganizando su información y estrechando —¿necesariamente?— la
ventana de su futuro cambio. Y podemos preguntamos si hay alguna forma
significativa de evolucionar —al estilo de un organismo, o de un sistema en la sucesión
ecológica— que no comporte este cerrarse sobre sí mismo. Creo que, de esta manera, el
problema queda bien planteado: se trata de dar un marco ideal que se pretende lo
abarque todo de manera isotrópica, sin diferencia entre arriba ni abajo, entre hacia
delante o hacia atrás, y, dentro de él, un universo más limitado de propiedades
extraordinarias que está construyendo su propia historia alternando cambios graduales
con tropezones, y para el que es válida la afirmación, referible a cualquier máquina o a
cualquier sistema económico, según la cual no puede dar dos vueltas seguidas
permaneciendo semejante o retornando a estados totalmente equivalentes.

Esta es una propiedad general a todos los sistemas y puede ser útil examinarla con
mayor detalle. Un sistema está formado por elementos que interactúan, pero no están
relacionados unos con otros de manera totalmente rígida —en cuyo caso, si fuera
posible, tendríamos el «objeto ideal»—, sino flexible, admitiendo cierta indeterminación,
introducida en gran parte porque los sistemas se extienden en un espacio. Los
ecosistemas, por supuesto, son sistemas, compuestos, a su vez, por organismos que
también son sistemas, o subsistemas, si queremos destacar su categoría de
componentes. Algunas de las características diferenciales entre los distintos sistemas se
comprenden a través de la siguiente comparación entre un tren y un pelotón de
automóviles que circulan por una calzada. Los vagones del tren están unidos de manera
relativamente rígida; pero en el grupo de automóviles el enlace pasa principalmente a
través de un feedback entre los conductores y es más flexible. Aparentemente permite
una mayor iniciativa a cada componente, y puede usarla para provocar una catástrofe.
Este ejemplo es especialmente apropiado para dar idea del tipo de cambios que ocurren
en un sistema. La interacción entre determinados conductores, si se repite, se va
haciendo personal y adquiere calidad propia; si hay algún retardo, automáticamente se
densifica el grupo, o se pueden generar ondas que se propagan a lo largo de la
caravana. En todo caso la estructura de las interacciones cambia de manera casi
irreversible. Algunos de estos aspectos que va revistiendo un colectivo formado por
automóviles en movimiento, con sus conductores, han sido sugestivamente analizados
por Prigogine y Herman (1971).

Se ha repetido tan a menudo que no podemos bañamos dos veces en el mismo río,
que apenas pensamos más que en el río, y no nos acordamos que la dinámica en el
tiempo opera también en nosotros; tampoco somos los mismos. En cualquier esquema
recursivo de la contemplación de la naturaleza, viéndonos como observadores de
nosotros mismos, enfrascados en el examen del mundo físico, y esto repetido tantas
veces como se quiera, no podemos dejar de pensar que la consideración que sigue viene
después de la experiencia mental anterior. ¿Hasta qué punto afecta esto a la eficacia, o al
mismo sistema de recursiones sucesivas? En la paradoja de Aquiles y la tortuga, la
tortuga lleva tras sí más historia, está en una etapa más avanzada, y Aquiles, a pesar de
sus zancadas, realmente no la alcanza del todo en su tiempo, pues la tortuga ya ha
vivido más. El joven que examina al viejo no es simétrico del viejo que examina al joven.
Es un tipo de asimetría que se da entre países y, en general, entre sistemas que podemos
llamar de distinta madurez. La madurez se reconocería en el tiempo transcurrido desde
una perturbación de cierto nivel, y en las tasas de renovación física y de capacidad para
adquirir nueva información.

Esta especie de relatividad no es muy importante en ecología; pero es bueno pensar


que las trayectorias sucesionales se desenvuelven a distinta velocidad, aunque todas
tienen una perspectiva común. En cada punto o en cada espacio limitado, se tiene la
visión de un mundo de baja diversidad local y gran tasa de flujo y de renovación; hacia
lo lejos todo se cierra con una gran limitación o convergencia de las anticipaciones. La
extrapolación de observaciones locales del metabolismo conduciría a valores fantásticos
de producción o actividad de la biosfera, pero nos encontramos que la dinámica de
segmentos cada vez mayores de la biosfera es mucho más lenta que la de los sistemas
menores progresivamente englobados en el interior de aquéllos. No se puede asignar
un marco preferente para las observaciones de algunos de los actores-espectadores, sino
que todos los marcos, en cierta lejanía, coinciden y son equivalentes. Cualquiera que sea
el punto de partida, todas las trayectorias se han de encontrar, en condiciones de
igualdad, en la lejanía. El análisis miope de la proximidad, donde no vemos la dirección
preferente que «podrá seguir la historia», dice que el recorrido por unidad de tiempo es
grande —hay muchos cambios— y anticipamos para el futuro, cuando lo extrapolamos
sobre una dirección regular, más cambios de los que realmente se van a realizar. La
línea de la historia es sinuosa y de gran complicación, es fractal. Vistas de lejos, las
pequeñas sinuosidades se borran y confunden en una trayectoria que, a posteriori,
pierde las pequeñas irregularidades dentro de las de la escala siguiente.

Los sistemas físicos del entorno y el espectro de perturbaciones

Las características de irreversibilidad que tiene el cambio en todos los sistemas


basados en organismos son comunes con los sistemas físicos en general. No sé si se
puede hablar de asimetría. Los físicos usan simetría en el sentido de invariancia. Pero
estimo que el tema de la invariancia nos conduce también a imaginar infinitas
recursiones, a la búsqueda de un último marco invariante.

En los sistemas fluidos se suele tomar como referencia un flujo laminar, pero pronto
aparecen (¿cómo?, ¿no se da entre moléculas una forma de interacción, en relación con
el tiempo y con el espacio, que hace que sean comparables a los depredadores y las
presas de la ecología?) pequeñas diferencias de velocidad que se amplifican, resultan
trayectorias desviadas, remolinos, y el flujo se toma turbulento. El flujo laminar y
uniforme con el que teóricamente comenzamos genera remolinos que están sometidos a
una evolución. La aparición de inestabilidades dirige la degradación de la energía
cinética del flujo hacia el desarrollo de estructuras imprevisibles y cada vez más
complicadas. Si hay ciertas dimensiones mínimas relacionadas con la viscosidad
molecular, la capacidad para contener estructuras aumenta con las dimensiones totales.

La atmósfera proporciona un excelente ejemplo de sistema con todos los grados


imaginables de complicación paulatina, introduciendo notables discontinuidades,
principalmente en los frentes, lo que no es ajeno a la disposición de la masa fluida en
tomo a un globo sometido a un movimiento de rotación, y al carácter de máquina
térmica del conjunto, incluyendo la cubierta líquida de la Tierra. Los frentes,
característicamente asimétricos, son extraordinariamente importantes como
introductores de perturbaciones a una escala media (días a años) en el funcionamiento
de la biosfera (Nicolis y Nicolis, 1986).

Lo mismo puede decirse de la estructura de la circulación marina, cuyas


características dependen de la mayor densidad y mayor capacidad calorífica del agua,
en relación con el aire. También aquí se desarrolla una estructura muy complicada, con
la generación de discontinuidades. Cada escenario es único y, aunque es el fundamento
de donde arranca la situación siguiente, sería muy difícil imaginar una predecibilidad
total. El problema de la predicción del tiempo atmosférico es típico y anticipa el tipo de
problemas implicados en la predicción ecológica. Quizá tendremos que contentarnos
con la afirmación de que lo único predecible es la impredecibilidad en el detalle. Pero
esta impredecibilidad se conforma dentro de regularidades comunes a todos los
sistemas físicos, como las que se expresan en las leyes de la termodinámica (Woods,
1981).

Puede ser instructivo añadir dos palabras más sobre el tema de la predicción del
tiempo, con el que todos estamos familiarizados, por ilustrar aspectos semejantes en la
predicción ecológica. No es posible pretender anticipar el tiempo sobre la base de
observaciones locales, aunque anunciando para mañana el mismo tiempo que hace hoy
podemos conseguir un número considerable de aciertos, según como se combinen las
áreas geográficas sobre las que se hace el pronóstico, el lapso de tiempo sobre el que se
hace válido el pronóstico, y el grado de precisión con que se definan los estados del
tiempo. En otra etapa, se puede predecir sobre la base de aceptar una traslación de la
situación general hacia el este, considerando que en un día se barre aproximadamente la
extensión de la península Ibérica. La predicción así se podría mejorar; pero no es
suficiente, porque la estructura del sistema atmosférico cambia durante su
desplazamiento. Si conocemos estas leyes de cambio, podríamos añadir mayor
precisión a nuestra prognosis; pero no debemos olvidar que nos referimos a un sistema
muy complicado, cuya evolución puede describirse sólo de manera muy general y en
términos estadísticos. Mucho detalle se nos escapa o es, simplemente, no anticipable.
Consideraciones análogas se pueden hacer en relación con los océanos, donde las
relaciones de espacios, tiempos y detalles de relativa predecibilidad son diferentes que
en la atmósfera, por las características físicas del agua. Por supuesto, todas estas
complicaciones se trasladan, ampliadas, a la tarea de pretender anticipar el futuro de
organismos y de ecosistemas. La persistencia de la situación actual es una primera
aproximación que sabemos que no es correcta. La siguiente corrección es suponer un
cambio direccional, una ruta de sucesión simple en el caso del ecosistema. Pero su
velocidad decae y se manifiestan más divagaciones y arabescos («verticidad») en su
detalle.

Las perturbaciones que una y otra vez, repetidamente, retornan bruscamente la


sucesión ecológica a un estado aproximadamente equivalente a otro que se dejó atrás,
vienen del entorno. Son particularmente importantes a este respecto aquellas interfases
o discontinuidades de las cubiertas fluidas donde se desarrolla más trabajo útil, desde el
punto de vista de la biosfera, y que han recibido, en atención a ello, la denominación de
ergoclinas. La presencia y eventual transitoriedad de las ergoclinas y la cascada de
degradación paulatina de la turbulencia junto a ellas, o después de su paso, constituyen
un condicionante muy importante en la organización de la biosfera y de sus asimetrías.

La misma «historia natural del cambio» se observa en sistemas físicos de alta


viscosidad, o sólidos. El ejemplo más común es el de una masa plástica, formada por
capas que se distinguen por sus colores, que se estira, dobla y pliega repetidamente,
según la práctica del panadero o del pastelero. Llega un momento en que es
inmensamente improbable poder volver atrás y recuperar la disposición de los colores
en la masa inicial; tan poco probable como concentrar de nuevo las moléculas de un
terrón de azúcar disuelto en agua, sin evaporarla; o disponerlas en el mismo orden en
que estaban —¿y cómo distinguimos unas de otras?— evaporándola.

La heterogeneidad de la corteza terrestre, fruto de una sucesión de operaciones muy


diversas, proporciona buenos ejemplos de procesos irreversibles, a la vez que de la
discontinuidad de estos mismos procesos. Los pliegues sucesivos y eventuales
estiramientos complican el material, siguiendo el modelo de la masa de panadería. Al
aumentar la rigidez y fragilidad de los materiales, las fallas van siendo relativamente
más frecuentes. Las fallas y los terremotos son ejemplo de cambios bruscos, por
supuesto asimétricos: la acumulación paulatina de tensión, hasta que se produce la
ruptura. Las placas continentales forman parte de otro mecanismo que incluye
discontinuidades y, por supuesto, múltiples asimetrías, entre ellas las que existen entre
las partes que avanzan unas sobre otras, o bien que retroceden. Y todo esto asociado a
células de convección, también con discontinuidades necesarias para su acomodación
recíproca, en el manto fluido de la Tierra.

Desde el punto de vista de los sistemas orgánicos, el entorno físico es soporte para la
vida; pero también origen de perturbaciones, que no pueden ser previstas por dichos
sistemas orgánicos y, por tanto, no están anticipadas en su organización. Por esto son
fuente continua de información nueva, o, mejor dicho, estímulo para adquisición de una
información nueva, a nivel de sistemas ecológicos, de especies (evolución) o de
individuos («cultura»). Colocándonos en la perspectiva de los sistemas orgánicos, la
única regularidad previsible es que las perturbaciones son tanto más intensas (implican
más energía) cuanto menos frecuentes son. En parte esto puede ser una ley general, la
que parecen seguir, por ejemplo, las explosiones de rayos gamma en el cosmos. La
necesidad de acomodar las estructuras disipadoras de energía en un medio fluido
(ergoclinas) conduce también a la misma regularidad; unas pocas estructuras extensas,
entre las que encuentran acomodo, progresivamente, estructuras cada vez con menos
energía. Esta estructura es obvia en los sistemas marinos, y esta regularidad es la que
explica la distribución de la productividad marina: grandes extensiones de producción
muy baja y extensiones progresivamente cada vez más reducidas y con valores
crecientes de producción.

Hacia el extremo de las perturbaciones frecuentes y de poca importancia se


manifiesta, sin duda, la asimilación o internalización de las perturbaciones por parte de
la vida. Ciertamente, la diferencia entre día y noche es muy importante desde el punto
de vista bioquímico, biofísico y biológico; pero los organismos pasan sobre la
discontinuidad, superando el período necesario por prolongación de la vida individual.
Igualmente, extender la vida sobre el año permite asimilar las perturbaciones
estacionales. El hombre, actualmente, estaría en condiciones de superar fluctuaciones
climáticas considerables. Existiría, pues, una acomodación a las frecuencias de
perturbaciones de distinta categoría a través de la adaptación o anticipación (o
indiferencia) de los organismos; fuera de su capacidad, la misma relación entre
intensidad y frecuencia de las perturbaciones es válida para niveles más altos: las
fluctuaciones climáticas importantes, incluyendo períodos glaciales, han sido más
frecuentes que las colisiones con planetoides, y la perturbación máxima que puso todo
en marcha, el big bang, nos aparece, obviamente, como un acontecimiento singular.

Organización histórica de la bioesfera. El modelo de sucesión

El desarrollo de los individuos, la evolución de las especies, la sucesión ecológica,


son ejemplos de cambios históricos con todas las características anotadas anteriormente.
La tendencia común es a una disminución de la actividad relativa, de la tasa de
renovación, acompañada de un aumento de la complejidad que se puede considerar
como un aumento de información, y que puede llegar al punto de estorbarse a sí misma
para conseguir nuevos estados viables. Es de suponer que muchas veces se alcanzan
etapas en las que el cambio se hace muy lento y poco coherente entre las porciones más
separadas (del individuo, de la especie, del ecosistema).

Estos fenómenos no pueden tratarse adecuadamente en un contexto ahistórico, tal


como se formula a veces la llamada teoría de las causas actuales, que ha sido, por otra
parte, tan fructífera para el progreso de la ciencia de la Tierra y de la ciencia de la vida.
Es cierto que las condiciones del entorno en el precámbrico, y los organismos que vivían
entonces, no son perfectamente equiparables a las condiciones actuales y a los
organismos de ahora, que con el paso del tiempo han podido hacer más ensayos y
acumular eventualmente una información más rica o, por lo menos, más filtrada. El
equivalente lógico de la teoría de las causas actuales creo que puede ser dañino en
consideraciones acerca de la adecuación o fitness, cuando se la usa como justificación de
que hay que considerar solamente la capacidad de pasar genes a la siguiente generación
y se considera que el éxito en hacerlo es absolutamente equivalente en cualquier
contorno. Tampoco es indiferente evaluar con el mismo rasero las apariciones y
desapariciones de especies en las distintas etapas de la sucesión ecológica.

Algunos de estos efectos se refuerzan cuando unos desarrollos históricos están


contenidos o englobados en otros. Segmentos de sucesiones van incluidos en secuencias
asimétricas de unos cambios generales del ambiente, como en la acomodación de las
secuencias planctónicas dentro de los sistemas de perturbaciones marinas. Una serie de
desarrollos individuales se encadena dentro de una línea de evolución, y en este marco
hay que discutir los argumentos a favor o en contra de la ley biogenética fundamental
de Haeckel, que, a pesar de todas las críticas, no se resigna a morir, y por algo será.
Precisamente las restricciones que el desarrollo histórico y las leyes de la física imponen
a los sistemas orgánicos permiten desembarazarse de pretendidas entelequias
individuales, ortogénesis evolutivas y una interpretación «superor-ganísmica» del
ecosistema en sucesión. Porque las realidades son más interesantes aunque no más
sencillas.

A continuación me propongo examinar algunos de los problemas concernientes a la


forma de concebir y modelar los sistemas ecológicos a la luz de las teorías y opiniones
expuestas anteriormente. Lotka y Volterra, en la década de los 20, propusieron expresar
el cambio instantáneo de cada población por medio de una expresión lineal de las
diferentes interacciones posibles. La forma general, usada hasta la saciedad en todos los
textos de ecología, es

dNi /dt = rNi + Σ j=i


aijNiNj

donde el primer término del miembro de la derecha podría tener la forma ri E Ni,
cuando E representa a factores de producción del entorno físico. De esta manera
podemos considerar que las interacciones binarias, de resultado proporcional al
producto de los reactantes, pueden incluir componentes no vivos, además de las
densidades de las distintas especies. En esta representación, las derivadas de todas las
variables de estado son una combinación linear de las propias variables de estado. El
conjunto de aquellas derivadas define un vector de cambio, característico de cada
combinación de todas las variables. De esta forma nos encontramos ante un genuino
modelo laplaciano que puede tener, además, otros inconvenientes.

Pero tiene también aspectos utilizables o, por lo menos, sugerentes de desarrollos


útiles, aparte de la inspiración que ha proporcionado para un tratamiento introductorio
de las interacciones ecológicas, tipificadas por las relaciones entre depredador y presa
(sistemas binarios) y en las relaciones de competencia (que, en realidad, requieren
sistemas ternarios). Si introducimos un espacio ecológico en el que cada dimensión
representa una variable de estado (las más importantes serán las densidades de las
diferentes especies), los estados sucesivos de un sistema concreto describirán una
trayectoria. Si cada variable representa, en nuestro caso, la densidad de población de
una especie, la trayectoria es la descripción más sencilla y elegante de la sucesión
ecológica.

Inmediatamente se suscitan una serie de cuestiones que, realmente, invalidan el


procedimiento. Entre ellas: 1) El tratamiento adoptado tiene forma analítica, diferencial,
incompatible con la cuantificación, discontinuidad o individualidad de los seres vivos.
2) Se ignora el espacio; un punto en el espacio ecológico representa una combinación de
números de distintas especies, que, en la realidad, se distribuyen sobre un espacio más
o menos extenso; es más, en dicha representación muchos puntos más cerca del origen
representan un solo punto más lejos del origen. Esta aproximación no ayuda a entender
los ecosistemas naturales, en los que el espacio es un aislamiento muy eficaz, y un
excelente organizador de las relaciones entre los reactantes. 3) No se tienen en cuenta
los principios de la termodinámica; sería deseable introducirlos como restricciones en la
formulación que constituye el punto de partida. 4) Hay que contar con la posible
novedad: la introducción de nuevos elementos en el sistema: introducción de nuevas
especies o evolución en el interior del sistema. Tener en cuenta y corregir estas
insuficiencias podría hacerse conservando el mismo marco relativamente isotrópico. El
paso más decisivo hacia un nuevo modelo más realista requeriría hacer que los
coeficientes de interacción, aij, variasen en función de las interacciones pasadas.

En esta su forma más rudimentaria, el modelo permite explorar propiedades


interesantes de las trayectorias. La versión original, con pocas especies, permite
considerar atractores, en forma de puntos, líneas, o superficies cerradas, hacia los que
tiende a moverse el sistema, partiendo de alguna situación inicial. Para los puntos
próximos a los ejes de coordenadas (números bajos de individuos de algunas especies)
las probabilidades de extinción introducen un componente estocástico. Peschel y Mende
(1986) proponen construir sobre cada uno de los puntos sucesivos de la trayectoria,
conos (shift cones) sucesivos de dimensión fija (que en ecología se pueden asociar con
cada generación) y que limitan la trayectoria dentro de cada cono o definen su
probabilidad. Los mismos autores proponen la aplicabilidad a estos conos de una
expresión de la forma x2 + y2 + z2 − c2t2 ≤ 0 por analogía con las trayectorias de la luz en
nuestro mundo. Por diversas vías se llega a conjeturar que, en el modelo más sencillo,
es decir, con dimensiones que representan abundancias de especies, la trayectoria ha de
ser la que, para un conjunto de los coeficientes de interacción (a ij), es la que llega en
menos tiempo al atractor que, en la aplicación a la sucesión ecológica, tiene el carácter
de clímax o término de la sucesión, que no tiene por qué ser necesariamente una
situación fija (puede contener ciclos regulares). La construcción del espacio real donde
situar la representación hipergeométrica del ecosistema conduce a imaginar fácilmente
que el clímax —o cualquier otra etapa— no tiene por qué ser necesariamente uniforme
en su composición sobre el espacio. Cada tipo de estructura espacial se proyecta en la
relación que existe entre los puntos que representan combinaciones locales de
individuos y el punto que los engloba a todos y que, necesariamente, está más lejos del
origen de las coordenadas. Si se puede demostrar el tiempo mínimo de la trayectoria
descrita por la sucesión en el espacio ecológico, contaríamos con un principio
variacional probablemente útil. Es coherente con la observación naturalística: las
sucesiones se organizan de modo que rápidamente invaden el espacio y la masa
respirante aumenta también rápidamente, hasta llegar a aproximarse a la capacidad de
producción primaria: a partir de este punto se realiza una reorganización lenta, con
diversificación local y, en general, con una sustitución de componentes que respiran
más por otros que respiran menos, más el consabido aumento de información, tanto en
la organización del espacio por las plantas, como en el significado que adquieren
animales grandes y longevos, o que suplen estas características al formar grandes
sociedades muy integradas.

El tema de las trayectorias de los sistemas ecológicos dentro de un espacio ideal


ecológico nos conduce a mencionar una serie de estudios derivados de la mecánica
estadística y aplicados a los ecosistemas (Kemer, 1957, 1959, 1974). Tienen interés por
relacionar el grado de determinación y precisión de las trayectorias con propiedades
que, por analogía, se pueden referir a una «temperatura ecológica», o «talándica».
Ciertas formas de interacción conducirían a trayectorias menos precisas, conducentes a
o representables dentro de nubes poco compactas (sistemas calientes), mientras que en
otras situaciones se tendrían trayectorias que llevarían a situaciones menos fluctuantes,
aunque no menos heterogéneas en el espacio (sistemas más fríos). Es fácil, por otra
parte, relacionar las trayectorias calientes y menos precisas con las primeras etapas de la
sucesión y, de un modo general, con la llamada estrategia de la K, mientras que las
trayectorias mejor definibles y más frías (seguramente en un espacio de más
dimensiones) pueden comprender una mayor proporción de especies que siguen la
estrategia de la K y deberían tener una mayor tendencia a encamar las etapas finales de
la sucesión. Es obvio que aquel principio variacional sugerido nos llevaría de espacios
con nubes de probabilidad menos densas (muchas combinaciones de especies
alternativamente posibles) hacía nubes de probabilidad más densas (situaciones quizá
más definibles, aunque inciertas en cuanto a su organización en el espacio —piénsese en
la selva tropical húmeda—).
Esta manera de imaginar y representar los ecosistemas se puede relacionar con el
presente uso que se hace de las ideas de Liapunov (1892) sobre la estabilidad, en su
aplicación a los ecosistemas, y quizá como recurso desesperado de formalizar o
exorcizar un concepto —probablemente innecesario como todos los que resultan
incordiantes— muy traído y llevado en ecología. Se puede decir que un ecosistema está
en la vía de la estabilidad si la velocidad de cambio disminuye, y también disminuye su
tasa de disminución. Existen muchas formas de aplicar este criterio de estabilidad
inspirado en Liapunov. Un índice apropiado podría ser

Σ i=1
Ni (dNi /dt)2 / Σ i=1
Ni →0

Todos los ecólogos son conscientes de esta disminución de la tasa de cambio global
hacia el final de la sucesión, que puede coexistir con una enorme dispersión final de las
especies y de los distintos estados posibles, en un dominio de poca energía. En otras
palabras, la disminución del índice anterior es compatible con el hecho que las
diferencias entre pares de lugares separados (A, B) no vayan a parar por debajo de
cierto valor mínimo E

( Σ i=1
Ni (NiA − NiB)2 / (A − B)i = 1 Ni ≥ E).

Volterra es, en gran medida, responsable de la aproximación habitual que, con todos
sus efectos, ha proporcionado, por lo menos, un marco para que los ecólogos pensaran.
Pero, de hecho, Volterra fue mucho más allá y probablemente tenía clara una posible
representación matemática de la historia natural del cambio al proponer (Scudo, 1971;
Walter, 1975) una función de la «acción vital» de la forma

A =o ∫ (a N log N + a N log N + …) dt
i i i j j j

Ya se han comentado algunos de los inconvenientes que tiene la forma generalizada


de representar la interacción entre múltiples especies (o componentes, en general) de un
ecosistema. Puede haber diversas maneras de remediarlo. Algunas regularidades
pueden ser útiles para facilitar el camino hacia modelos más realistas.

La expresión más general se puede complicar ligeramente escribiéndola en la


siguiente forma:
dNi /dt = Σ i=1
aij Nik Njk’ + Σ
l=1
RlNik”

donde figuran los exponentes k, que probablemente no deberán ser enteros, y un


conjunto de términos aleatorios R (Margalef, 1975, 1980). Las R son funciones al azar,
relacionares con la discusión, la turbulencia, los cambios térmicos, etcétera. Se podría
hacer un estudio de todo este bloque de funciones que, para empezar, se suponen al
azar, tratando de reducir el número de variables. En términos estadísticos se trata de
extraer un menor número de componentes ortogonales, o sea, independientes entre sí,
periódicos o no periódicos. Es sugerente contemplar la evolución de las especies, o el
ajuste mutuo entre muchas especies en el seno de un ecosistema, como un proceso de
selección y combinación de los diferentes factores de los que depende la población,
internalizándolos.

La estructuración del ecosistema comporta la repetición de estructuras homólogas a


diferentes escalas, unas dentro de otras. Esto se manifiesta tanto en la ocupación
gradual del espacio como en el desarrollo de sistemas jerárquicos, y puede tener
expresión fractal. La estructura de diversidad/fractal/logarítmica es extremadamente
robusta. Cuando se habla de la repetición de estructuras equivalentes a escalas menores
no se debe caer en un idealismo excesivo: en realidad las estructuras homólogas, o del
mismo nivel, son tanto más diversificadas unas de otras cuanto más numerosas —y
pequeñas— son. Y la construcción de la organización puede ir de abajo arriba, o por lo
menos no procede por subdivisiones sucesivas.

La observación de los movimientos de cualquier animal muestra que el área cubierta


o explorada es una función decreciente (L k) del tiempo invertido o de la longitud
rectificada de la trayectoria. La extrapolación de la velocidad de cambio genotípico
observada sobre escenarios reducidos, extrapolada, haría esperar una evolución más
rápida que la real. A este efecto contribuye también el efecto represivo de todo el
sistema sobre el cambio fenotípico.

La evolución de la biosfera ha sido tal que unos organismos (fotosintetizadores)


tienen un exceso de producción sobre la respiración, mientras que en los heterotróficos
(osmotróficos, como las bacterias; fagotróficos, como los animales) se observa el
complemento de respiración. La composición gradual de los ecosistemas sobre espacios
cada vez mayores, permite distinguir, con referencia a un espacio determinado, entre lo
que es reciclado y lo que representa producción nueva, que compensa a cierta
exportación. En el ecosistema pelágico es bien claro, y el centro de gravedad en la
distribución de la producción primaria se encuentra por encima del centro de gravedad
de la distribución de la actividad respiratoria. La distancia entre ambos centros de
gravedad representa una medida inversa de la covariancia de los factores de
producción (luz, nutrientes, células) necesaria para la continuación del ciclo. También se
puede hablar de centro de gravedad en el aumento de entropía, determinado por la
distribución de los procesos de cambio de energía, y de centro de gravedad en la
acumulación de información, más difícil de definir en este momento. Sobre tal base, las
redes tróficas son anisotrópicas por no coincidir dichos centros de gravedad, y esta
diferencia corresponde a la que se observa sobre el tiempo y ayuda a definir la
característica anisotropía de todos los sistemas orgánicos. Aquí señalaré solamente que
esta asimetría se puede analizar a partir de los componentes de cualquier ecosistema.
En cualquier relación depredador/presa, toda la energía pasa a través de la presa, y el
centro alrededor del cual se cambia más energía y aumenta más la entropía se halla más
cerca de la presa. Las modalidades en la acumulación de información difieren entre
depredador y presa. Pensemos en un insecto y un ave: en sus interacciones, la selección
opera en el sentido de favorecer caracteres de manifestación inmediata que aumentan la
probabilidad de supervivencia en el insecto, y la capacidad de aprendizaje («cultural»)
en el ave. El perro ha evolucionado genéticamente en contacto con el hombre, el cual lo
ha hecho culturalmente. Pero un árbol vive mucho más tiempo que un insecto
dependiente de él y, además, puede influir sobre el insecto a través de una estructura
«cultural» como es el tronco y raíces, de soporte y conducción. El control en las
interacciones, sobre la base de una simetría informativa, no coincide necesariamente con
la dirección de flujo de los materiales y de la energía. Aquí se repiten estas
consideraciones porque de ellas se deduce que han de existir tendencias en el cambio
superpuestas al mecanismo normal de mutación y selección. Y dichas tendencias son las
que justifican hablar de la historia natural del cambio, en lo que éste puede tener de
regularidad.

La estructura fija de los modelos ecológicos tradicionales puede ser mejorada


aceptando que la interacción entre individuos desvía las probabilidades de futuras
interacciones (Hogeweg y Hesper, 1986), por ejemplo, en relación con dominancia, etc.
Esto también conduce a postular la necesidad de manipular coeficientes de interacción
variables.

El asunto de la necesidad de operar con individuos discretos se puede resolver


escribiendo ecuaciones en forma de diferencias finitas, como han hecho ya muchos
autores, lo que se presta muy bien a modelos iterativos, por ejemplo, en la forma

Nt+1 = a Nt (1 − Nt)

a la que se pueden traducir todas las expresiones de Lotka y Volterra. Se ha hecho


notar que, para determinados valores de los coeficientes, estas ecuaciones engendran
series caóticas. Lo más realista es suponer o adoptar coeficientes variables, por ejemplo,
progresivamente decrecientes, de manera que en una parte de su trayectoria los
sistemas atraviesan fases caóticas (Devaney, 1987). Esto ocurre, realmente, en sistemas
planctónicos, aunque la explicación puede ser diferente, por resultar a veces de la
interacción de modelos verticales y horizontales gobernados por distintos (A ZCX +
AXCz) coeficientes de difusión turbulenta. De una o de otra manera, después de una
perturbación es habitual detectar un pulso de producción, seguido de fluctuaciones
aparentemente caóticas y, luego, cambios lentamente decrecientes, a cuya etapa sería
apropiada la aplicación del criterio de estabilidad de Liapunov.

Generalizando algunas de estas nociones se puede pensar en un espacio ideal


auxiliar, cada una de cuyas dimensiones represente un coeficiente de interacción entre
dos elementos del sistema. El sistema, en lugar de estar regido por una colección de
coeficientes invariables, representados por un simple punto, estaría regido por una
trayectoria en dicho espacio representativo de los coeficientes. Por supuesto, a cada
punto de este espacio le corresponde una trayectoria diferente en el espacio ecológico,
en el que las dimensiones representan sendas especies; y a una trayectoria en el espacio
representativo de los coeficientes de interacción le corresponde una trayectoria
complicada en el espacio ecológico habitual, trayectoria que puede llevar intercalados
segmentos caóticos y que, en general, requeriría un estudio detallado para anticipar qué
tipo de principios variacionales pudieran hallarse.

En relación con sistemas pelágicos es posible proponer otro desarrollo (Margalef,


1978, 1987) que parte de las mismas expresiones de Lotka y Volterra,
complementándolas, en lo que a energía externa y espacio se refiere, con términos de
transporte y turbulencia. Por tal vía se llega a la expresión

dN/dt = I + AC

donde A es una energía externa (de mezcla o «turbulencia», por ejemplo) y C es la


covariancia en la distribución de los factores de producción (en este caso, células de
fitoplancton, luz y nutrientes). Se puede incluir un término de entradas del exterior (I)
en el sentido de recursos no renovables (o de producción «nueva», según la usanza
habitual en oceanografía). Por supuesto, basta ampliar el modelo para hacer internos y
renovables a dichos recursos. Al imaginar a unos sistemas englobados en otros,
comprendemos que los sistemas envolventes tienen una tasa de cambio global menor
que la de los sistemas envueltos. A la vez, los sistemas mayores y envolventes se
comportan como más irreversibles; basta comparar sus propiedades con las que tienen
las partículas elementales. Tanto A como C, en la expresión anterior, pueden formularse
separadamente en relación con el eje vertical (z), o con el plano horizontal (x, y), lo cual
resulta apropiado para describir el plancton. Las dos magnitudes han de tener
expresión espectral: sus valores dependen de la dimensión de la célula de medida. Esto
es importante: el espacio recupera sus derechos después de haber sido descuidado
durante tanto tiempo.

En la expresión precedente se ha puesto dN/dt, para significar el cambio en la parte


del ecosistema que se identifica como población N. En realidad el cambio es
discontinuo, por basarse en individuos discretos. Si lo expresamos como cambio en el
número de individuos, no por esto A y C dejan de ser continuos. Procede, entonces,
asociar a A y a C sendas incertidumbres, asimilables a las incertidumbres asociadas al
tiempo y al espacio, respectivamente, en física cuántica.

Aceptando, con las críticas y limitaciones pertinentes, la expresión dN/dt = AC, y


tomando derivadas con respecto al tiempo, se puede poner d2 N/dt2 = C (dA/dt) + A
(dC/dt), una expresión que tiene el mérito de proporcionar una excelente descripción de
la sucesión ecológica. En la sucesión normal equivale a poner

deceleración en la degradación de segregación


= +
tasa de renovación la energía ecológica

Tanto la degradación de energía (imaginemos que la energía cinética se corre hacia


remolinos menores) como la distinta covariancia en la distribución de los reactantes
(pensemos en nuevas distribuciones de grano más fino), pueden aparecer en forma de
un corrimiento de los respectivos espectros. Podemos ver además, en la última
representación, un indicio de que la degradación de energía procede, o consiente, al
aumento de la segregación entre los diversos reactantes, lo cual entra en el esquema
general de paso de proceso a pattern en el curso de la sucesión normal.

∑aijNjNj y la expresión A.C. El producto de las densidades (locales) de componentes


interactuantes es una covariancia, y una expresión de sus probabilidades de reaccionar.
A su vez, el conjunto de los coeficientes de interacción, a ij, por lo menos en el caso del
plancton, pueden considerarse relacionados con la energía de mezcla, tanto porque la
turbulencia que queda es una medida del trabajo mecánico realizado, como porque la
misma turbulencia afecta directamente a la asimilación del fitoplancton.
Tenemos, pues, una serie de elementos que nos pueden ayudar a mejorar los
modelos usados tradicionalmente en ecología. Algunas conclusiones son inescapables,
por ejemplo, que los coeficientes de interacción, designados de manera general por a ij,
no pueden permanecer constantes. De ordinario se les escoge así, constantes, lo cual
ayuda a conseguir fluctuaciones regulares en el tiempo. Pero este buen comportamiento
de los modelos es tan falso como nuestros supuestos. Cuando es posible estimar
directamente los parámetros que caracterizan la interacción entre especies o entre
especies y el entorno, se descubre siempre que son diferentes de los valores que
conviene adoptar para que los modelos se porten bien. Otras modificaciones,
igualmente necesarias, pueden ser más fáciles de introducir: discontinuidad en los
individuos, consideración de que las poblaciones se distribuyen en un espacio. Pero se
pueden anticipar conflictos en el empeño de reunir en un modelo muchas cualidades
deseables, porque en la práctica resultan ser, si no contradictorias, por lo menos
dificultosas de acomodar. Externas al modelo son las perturbaciones aleatorias, que no
han de cumplir más condición sino que las más intensas sean también las menos
frecuentes. En el caso del plancton, un objetivo del modelo sería desarrollar una imagen
tridimensional del ecosistema pelágico que fuera compatible con las observaciones,
especialmente con las observaciones muy detalladas en forma de transectos o
transecciones.
Resumen y conclusiones

Los sistemas orgánicos, especialmente si están formados por subsistemas también


orgánicos y reproducibles, tienen un comportamiento propio en relación con el tiempo.
Interacciones sucesivas que pudieran parecer equivalentes, se hacen en un escenario
ligeramente distinto. En general la tasa de renovación disminuye y las estructuras se
complican. La explicación más general y simple es que el sistema cambia y disipa
energía, y la entropía aumenta; pero, como resultado de las actividades, la información
aumenta o puede aumentar dentro de los límites que consiente aquel cambio de
energía. Sin embargo, por las características especiales de la información, que no se
cambia como la materia y que se multiplica a sí misma, ya se puede suponer que la
información aumenta especialmente en un entorno que no coincide con el de la máxima
degradación de energía, ni en el espacio ni en el tiempo. La información va
acumulándose con el tiempo. Una verdadera homeostasis o una estrategia evolutiva
estable no pueden ser creíbles, y los niveles virtuales de referencia para el feedback en el
ecosistema apenas se pueden considerar como fijos. No sólo varían las variables de
estado, mas también los parámetros o coeficientes de interacción que se suponen
constantes en todos los modelos corrientes; aunque diversos autores han expresado el
deseo de dejar que los modelos evolucionen, por lo menos como resultado de la
interacción entre individuos que tienen una capacidad propia de procesar información.
Muchos otros cambios habrá también que introducir para conseguir lo que pudiera
llamarse una nueva generación de modelos ecológicos.

El aspecto teórico que más estimula la imaginación y que debe tener su raíz en la
vivencia individual, consiste, a mi ver, en el contraste entre dos tipos de modelos
conceptuales. De una parte está el intento matemático de concebir un universo ideal de
relaciones isotrópicas e intemporales, que lo abarca absolutamente todo y mucho más;
la construcción y operación de ordenadores digitales ofrece, por lo menos en teoría, un
marco que cubre todos los requerimientos. El marco puramente matemático encierra el
riesgo de tratar de imponer cierto idealismo, al pretender que el crecimiento de los
organismos, la compartimentación de los ecosistemas o las eventuales bifurcaciones en
los procesos de cambio deban ajustarse a expresiones sencillas (Slobodkin, 1974).

El otro modelo se ciñe al desarrollo evolutivo o ecológico más realista, en el que se


manifiestan las múltiples asimetrías ya señaladas con respecto al tiempo y a las
interacciones entre porciones de organización diferente. Los modelos de este tipo han
de quedar incluidos, de alguna manera, dentro del tipo más universal al que se ha
hecho referencia. Los sistemas reales, y entre ellos, por supuesto, los físicos, entran
dentro de la categoría que se correspondería mejor, por tanto, con ordenadores de tipo
analógico, hoy ya en desuso.

Para el naturalista, la inteligencia usual se aproxima más a lo que impone cualquier


sistema, físico y biológico, y el desarrollo de una lógica matemática más general y
envolvente ha sido una verdadera proeza. Si esto es así, los sistemas expertos, para
mostrarse inteligentes al estilo humano, han de asumir las limitaciones humanas:
equivocarse, olvidar, volver a empezar, y quizás aprender a desembarazarse del lastre
de la memoria inútil, amén de adquirir la aptitud para seleccionar, valorar y reconocer
Patterns muy complicados, que se utilizan para la toma de decisiones. Quisiera señalar,
para terminar, el interés que puede tener buscar una aproximación entre el desarrollo
de sistemas expertos (inteligencia artificial) y el construir toda una nueva generación de
modelos ecológicos.
Referencias

Devaney, R. L.: «Chaotic Bursts in Nonlinear Dynamical Systems», Science, 235, 1987,
págs. 342-345.

Elkana, Y.: «The Myth of Simplicity», en Albert Einstein. Historical and Cultural
Perspectives, G. Holton & Y. Elkana (eds.), Princeton Univ. Press, Princeton, 1982, págs.
205-251.

Hogeweg, P. y B. Hesper: «Knowledge Seeking in Variable Structure Models», en


Modelling and Simulation Methodology in the Artificial Intelligence Era, Elzas, Oren y
Zeigler (eds.), Elsevier Sci. Publ., North Holland, 1986, págs. 227-243.

Kerner, E. H.: «A Statistical Mechanics of Interacting Biological Species», Bull. Math.


Biophys., 19, 1957, págs. 121-146.

—«Further Considerations on the Statistical Analysis of Biological Associations», Bull.


Math. Biophys., 21, 1959, págs. 217-225.

—«Why Are There So Many Species?», Bull. Mathemat. Ecol., 36, 1974, págs. 477-488.

Liapunov, M. A.: «Problema general de la estabilidad del movimiento» (1892). Original


en ruso. Traducción en Annals of Mathem. Study, 17, Princeton University, 1949.

Lotka, A. J.: Elements of Physical Biology (1925), Reimpresión con el título Elements of
Mathematical Biology, Dover Publ. Inc., Nueva York, 1936.

Mandelbrot, B. B.: The Fractal Geometry of Nature,> W. H. Freeman & Co., Nueva York,
1983. (De próxima aparición en Tusquets Editores.)

Margalef, R.: «Temporal Succession and Spatial Heterogeneity in Phytoplankton», en


Perspectives in Marine Biology, A. A. Buzzati-Traaverso (ed.), University of California
Press, Berkeley y Los Angeles, 1958, págs. 321-349.

—«Succession in Marine Populations», en Advancing Frontiers of Plant Sciences, vol. 2, R.


Vira (ed.), Nueva Delhi, 1962, págs. 137-188.

—«Diversity, Stability, and Maturity in Natural Ecosystems», en Unifying Concepts in


Ecology, edit. Van Dobben y Lowe-McConnell (eds.), Junk, La Haya, 1975, págs. 151-160.
—«Life-forms of Phytoplankton As Survival Alternatives in an Unstable Environment»,
en Oceanologica Acta, 1, 1978, págs. 493-510.

—La Biosfera entre la termodinámica y el juego, Omega, Barcelona, 1980.

— «Time For a Change? Study of Phytoplankton Suggests Modest Improvements in


Ecological Modelling», Second Autumn Course on Mathematical Ecology, Trieste, 1986
(1987, en prensa), IAEA - Int. Centr. Theor. Physics.

Matsuno, K.: «Evolution of Dissipative System: A Theoretical Basis of Margalef’s


Principie On Ecosystem», J. Theor. Biol., 70, 1978, págs. 23-31.

— En Beyond Neo-Darwinism: An Introduction To the New Evolutionary Paradigm, Wae-


Wan Ho y P. T. Saunders (eds.), Academic Press, Orlando, Florida, 1984, pág. 83.

Nicolis, C. y Nicolis, G.: «Weather Forecast Still Tricky», Nature, 321, 1986.

Peschel, M. y Mende, W.: The Predator-Prey Model. Do We Live in a Volterra World?,


Springer Verlag, Viena, Nueva York, 1986.

Prigogine, I. y Herman, R.: Kinetic Theory of Vehicular Traffic, American Elsevier Publ.
Co., Nueva York, 1971.

Scudo, F.: «Vito Volterra and Theoretical Ecology», Theoret. Popul. Biol., 2, 1971, págs. 1-
23.

Slobodkin, L. B.: «Comments From a Biologist To a Mathematician», en Ecosystem


analysis and prediction, Levin Proc. (eds.), SIAM-SIMS. Conferencia celebrada en Alta,
Utah, julio de 1974, págs. 318-329.

Volterra, V.: «Variazioni e fluttuazioni del numero d’individui in specie animali


conviventi», Mem. Accad. Lincei (6), 2, 1926, págs. 31-113.

Walter, C.: «The Global Asymptotic Stability of Prey-Predator Systems With Second
Order Dissipation», en Membranes, Dissipative Structures and Evolution, Nicolis y Lefever
(eds.), Interscience, John Wiley, Nueva York, 1975, págs. 125-131.

Woods, J. D.: «The Memory Of the Ocean», Climatic Variation and Variability: Facts and
Theories 1963-80, Riedel Publ. Co., Holanda, 1981.
COLOQUIO

Jorge Wagensberg: Permítame destacar dos de sus afirmaciones: 1) las perturbaciones


más pequeñas pueden ser las que más influyan sobre el sistema y 2) la energía degradada se
emplea también en la transformación del sistema. Para mí está claro que la física, basada
sobre todo en los intercambios de energía y materia, poco puede aportar para dar
cuenta de estos aspectos centrales de la biología. Además de la materia y de la energía
falta quizás introducir una nueva magnitud: la información. Ocurre que existe toda una
teoría matemática de la información, pero la física no dispone de leyes que manejen este
concepto. Difícil lo tenemos entonces en materias más complejas como la biología…

Ramón Margalef:… o la economía. Es una situación muy general en todas las


disciplinas científicas. Menciono la economía porque es donde parecería más natural
introducir y tratar la información. No sé cómo tratan los economistas la información,
pero no creo que lo hagan correctamente, porque me temo que no tienen en cuenta que
la información cristaliza allí donde hay más, allí donde ésta se acumula. Uno puede
vender o comprar una cosa, pero cuando uno vende información no sólo se queda con
ella, sino que además sabe quién se la ha comprado. Los mecanismos de la información
son en efecto muy distintos a los de la materia y de la energía.

Joan Martínez Alier: Aunque soy economista mi intervención no versa sobre la


información sino sobre metáforas, analogías e isomorfismos. Quiero referirme a la
interdisciplinariedad y a la cuestión de introducir conceptos de una ciencia en otra en
relación a dos puntos de conferencia. Usted ha hablado de historia, y cuando ha dicho
que las revoluciones liberan mucha energía y que esa energía queda ligada a la
burocracia, todo el mundo se ha reído un poco porque estaba claro que era una
metáfora, que no hay manera de medir estas energías sociales. Ningún historiador que
hiciera servir estas cosas sería tomado en serio. Se dice que en biología se ha de tener en
cuenta la termodinámica, que la energía no puede utilizarse dos veces de la misma
manera. Se trata de algo que debe valer también para la ecología humana y para la
historia económica. Y pienso que evaluar por ejemplo la información de la energía
degradada tendría aquí su sentido. Si los economistas tuvieran en cuenta estas ideas
interdisciplinarias, no sé si harían una economía más virtuosa, pero desde luego sí sería
más realista. El ejemplo de las distribuciones de poblaciones también me parece
relevante. Una ecología humana es bien distinta a una ecología del plancton, pero no
creo que sea bueno ser un sociólogo de la migración sin saber nada de la ecología
marina. Pensemos en el rechazo que hay actualmente a la inmigración mejicana a los
EE. UU., con unos demonios de Maxwell bien armados protegiendo las áreas más calientes
en la frontera de Tejas. Es muy distinto, pero se parece. Hay que distinguir los
isomorfismos (que invitan a comparar gráficas directamente) y las metáforas y
analogías más o menos afortunadas de lo que puede ser una genuina
interdisciplinariedad: la incorporación de conceptos de las ciencias duras en las blandas.
Soy de los que creen que las ciencias sociales ganan cada vez que se consigue la
incorporación de uno de estos sólidos conceptos, y no tanto con analogías como la que
ha hecho de las revoluciones.

Ramón Margalef: Es verdad, se necesita algo más que la mera analogía. Bien, no le ha
gustado la imagen sobre las revoluciones. Era sólo eso, una imagen, pero de todos
modos quizá sea algo más que una analogía fácil. Porque las revoluciones propiamente
dichas son justamente situaciones en las que se producen fuertes simplificaciones que
permiten la desviación del sistema hacia un lado u otro. ¿No está de acuerdo con esto?

Joan Martínez Alier: En todo caso no creo que la analogía sirva para estudiar las
revoluciones. En cambio contar calorias, saber de dónde vienen y adónde van habría de
servir para hacer historia económica.

Ramón Margalef: Sí, sí, de acuerdo.

Jesús Mosterín: Yo quería volver a la cuestión que ha introducido Wagensberg sobre


la conveniencia de la teoría de la información en las disciplinas científicas. Margalef
tiene también unas, intuiciones muy buenas y valiosas en este tema, pero que yo no
acabo de ver claras. Si definimos una especie de información termodinámica como la
diferencia que hay entre la entropía máxima que puede alcanzar un sistema y la
entropía que realmente tiene, entonces está claro que tal información disminuye con
cualquier cambio del sistema. Aquí es evidente que hablamos de otro tipo de
información, porque ésta aumenta con cualquier cambio. Usted ha mencionado que en
los sistemas históricos la energía que se degrada se recupera o se ahorra como
información…

Ramón Margalef: Se puede recuperar…

Jesús Mosterín: Se pueden recuperar como estructuras, sí, que en el futuro pueden
realizar las mismas tareas con menos gasto de energía. Yo no creo que esto sea una ley
general. Ayer el profesor Prevosti aludía a la cuestión de la información genética. En
este caso hay un paso unívoco de una estructura anterior a una estructura actual, pero
hay muchos otros en los que no ocurre tal cosa, en los que no se pueden recuperar
estados anteriores. Me pregunto si hay alguna manera de conciliar ambos aspectos
contrapuestos.
Ramón Margalef: Es la supervivencia de unos y la desaparición de otros.

Jorge Wagensberg: Se trata del problema de la irreversibilidad trasladada a la


magnitud información. También en termodinámica hay casos excepcionales de
reversibilidad y casos muy frecuentes de irreversibilidad. La teoría no está formalizada
pero se trata, de nuevo, de algo más que una analogía. Las leyes en física tienen sus
restricciones; no es extraño, por lo tanto, que las tengan sus análogas en otros campos.

Asistente no identificado: Las perturbaciones representan una energía exosomática


(exterior a los organismos) y usted atribuye a la calidad y cantidad de esta energía el
tamaño medio de las manchas de la organización espacial del sistema. Parece razonable,
porque el sistema debe tener una talla adecuada para poder interiorizar dicha energía.
Pero veo cierta contradicción con la afirmación que ha hecho Okubo en su conferencia:
si la energía aumenta, se generan en el fluido eddies, o cuerpos, o espirales cada vez más
pequeños.

Ramón Margalef: No. Eso ocurre cuando la energía se degrada. La introducción de


energía externa produce remolinos grandes… Aquí tenemos al profesor Okubo de
todos modos.

Akira Okubo: Así es. La energía induce el paso de la turbulencia de pequeña escala
hacia la de gran escala. Como saben los especialistas en mecánica de fluidos, no sólo
debe conservarse la energía sino que también debe conservarse la vorticidad. Y esta
segunda condición es la que induce estructuras de gran escala, al menos en casos de dos
dimensiones. El océano no es estrictamente un sistema bidimensional, pero se ha
demostrado que es un modelo que funciona para estos comportamientos.

Josep M. Pons: Cuando ha hablado de la influencia de las perturbaciones en la


sucesión ecológica, ha comentado que existe una relación entre el período de las
perturbaciones y la longitud de la vida de los individuos de la especie. La pregunta es:
¿no existe otra alternativa para la adaptación de la especie fuera de estas perturbaciones
regulares? ¿No se puede introducir un tipo de información que dé cuenta de un período
de tiempo que sea más largo que el de la vida de los individuos?

Ramón Margalef: Piense por ejemplo en el dominio de la vegetación terrestre basado


en un sistema de soporte y de transporte en los troncos. Es una forma de alargar la vida
del organismo. En otros casos se pasa a una forma de vida latente o se opta por la
migración. Esta última, por cierto, requiere mucha energía.
Asistente no identificado: Hay muchas otras maneras de alargar o de acortar la vida.
Las células somáticas y las células germinales constituyen un bonito ejemplo de células
inmortales en contraste con células que deben reciclarse continuamente. Y en este caso
sabemos además que han surgido mecanismos estrictamente para esto, que no es algo
que venga de fuera. Pero yo quería plantear un problema de escala más general que
hace tiempo que me preocupa. Si contemplamos una montaña, por ejemplo, vale la
pena preguntarse sobre la conveniencia de atender, o no, a su estructura fina, a las
formas de las piedras que aparecen en su ladera. Está claro que el estudio de las
rugosidades de sistemas inferiores puede hacernos olvidar a la propia montaña, a si
ésta es o no es infranqueable, etc. En biología nos encontramos frecuentemente con este
problema. Aquí ha surgido ya varias veces (los remolinos de hace un instante) y de
hecho tiene mucho que ver con la transición de estructura a proceso que usted tantas
veces ha comentado. ¿Cuál es el nivel decisivo? Por todo esto me ha interesado lo que
usted ha llamado la estrategia estable, un concepto que veo en las grandes escalas pero no
en las menores. La pregunta es: ¿debemos arrastrar sobre nuestras espaldas la carga de
teorías y leyes de escalas muy elementales para aspirar a comprender los
comportamientos superiores?

Ramón Margalef: ¡Vaya pregunta! No estoy seguro de poder dar una respuesta
satisfactoria, ni siquiera expresar una opinión. Supongo que se pregunta si vale
verdaderamente la pena continuar a partir de cierto límite. Yo pienso que sí, aunque a
veces es difícil, y ocurre lo mismo que en el caso que he comentado antes de los
sistemas expertos y del análisis de los sistemas históricos: con frecuencia lo que hay que
hacer es justamente aprender a olvidar (ciertos niveles de observación intrascendentes).
En cuanto a su último comentario, yo creo que hay que hablar, como diría Maynard
Smith, de una metaestrategia más que de una estrategia. Todo lo que sobrevive
sobrevive. Por eso en mi libro sobre la bioesfera hacía un poco de broma sobre el
concepto de estrategia. Decía que desde mi experiencia de soldado raso, la guerra me
parecía algo muy confuso, pero que luego me maravillaba cuando los generales (que
eran los que sabían escribir) escribían la historia de la guerra y, con ella, la estrategia
que habían seguido. Mi impresión es que se lo inventaban todo. Y los biólogos con
frecuencia hacemos lo mismo, nos inventamos la estrategia post mortem. El último que
queda siempre puede explicar la estrategia que ha seguido para llegar a poder
explicarla. En ecología se abusa de la estrategia.
Montañas y dragones fractales:
la intuición en la matemática y en las ciencias

Benoît B. Mandelbrot

Benoît Mandelbrot. IBM Research División, Thomas J. Watson Research


Center, Nueva York
Les estoy muy agradecido por haberme invitado a hablar en este simposio tan
interesante. Hacia la mitad de mi presentación, pasaré una cinta preparada por mi
amigo y adjunto durante mucho tiempo, Richard Voss. Es un tanto superficial, en
muchos sentidos, pero me parece que es importante y contribuye en parte a ilustrar la
naturaleza de la geometría fractal.

Sin embargo, para comprender la geometría fractal hace falta, quizá más que en
otros campos del saber, algo más que leer palabras o escuchar sonidos. Hay que ver
objetos. Se trata de una geometría en el sentido más intuitivo de la palabra, esto es, que
se interesa por las formas. Hay que aprender a conocer, a entender y a apreciar estas
formas visualmente, con objeto de que uno pueda hacerse una idea intuitiva de su
estructura, que es muy distinta de la de las formas que la geometría nos ha
acostumbrado a manejar. Así pues, mi charla versará principalmente sobre las
diapositivas que mostraré, con los comentarios que las acompañarán.

La lámina 1 se presenta en público aquí por primera vez. Acaba de salir de nuestro
ordenador hace unos pocos días. No tendré tiempo para explicarla con detalle, pero es
un buen ejemplo preliminar de los objetos geométricos que llamamos fractales. Pronto
verán cómo algunos de ellos se parecen mucho a las cosas de la naturaleza. Por el
contrario, la lámina 1 no se parece a nada que nadie haya visto antes, aunque tales
formas se han convertido muy rápidamente en algo familiar y natural para nosotros.
Todas parecen muy complicadas y difíciles de describir y, sin embargo, se han obtenido
a partir de una expresión matemática muy simple. De hecho, el algoritmo indispensable
para la ecuación de cada una de estas formas ocupa una sola línea. Aunque
naturalmente haya que añadir también bastantes más líneas de instrucciones específicas
para la máquina que ha de dibujar las figuras.

La lámina 2 apareció por vez primera en la sobrecubierta de mi libro de 1982, The


Fractal Geometry of Nature[*] que muchos de ustedes deben conocer ya. La llamamos
Dragón y volveremos sobre ella más adelante.

La fractal de las láminas 3a y 3b procede del mismo libro, y casi parece una
fotografía de una montaña, aunque ninguna de las figuras que mostraré sea una
fotografía ni un cuadro. Pasemos ahora a la figura 1 que intentamos que se parezca a un
helecho. La fórmula es fácil de adivinar en este caso. Cada rama es idéntica al todo,
excepto por el tamaño, que es menor en cierta proporción. Por tanto, la figura 1 presenta
de un modo evidente la propiedad que se conoce como autosemejanza geométrica. La
autosemejanza es la propiedad de que cada parte es igual que el todo pero en más
pequeño.
Fig. 1. Forma fractal (PS)

La lámina 4, que a todos les parece una estación de esquí, es en realidad tan artificial
como el dibujo del dragón que vimos antes. Pero en este caso está claro que se ha hecho
un esfuerzo para adaptar la estructura de la fractal a la de una montaña genérica. Aquí
no hemos puesto color, con objeto de que se convenzan de que el coloreado por
ordenador de las otras diapositivas no es la razón que hace que las encontremos
realistas. Las diapositivas parecen auténticas debido a que el algoritmo que las ha
producido ha captado un aspecto esencial de la complejidad de la naturaleza.

Es interesante el hecho de que el término «autosemejanza» fuera empleado sólo por


segunda vez en un artículo mío de 1964. En realidad, primero pensé que nadie lo había
usado antes, pero después me enteré de por lo menos una referencia, muy poco
conocida, donde ya se había usado esa expresión. Ahora bien, ¿por qué no se había
usado antes la palabra autosemejanza, teniendo un significado tan obvio y refiriéndose
a una idea que seguramente es muy vieja? Debido a que esta palabra no hacía ninguna
falta, por la sencilla razón de que las formas a las que se refiere no tenían ninguna
importancia hasta mis trabajos.

En la figura 2 pueden ver una curva debida al matemático polaco Waclaw


Sierpinski. Esta figura se obtiene sacando el centro de un triángulo equilátero, sacando
luego los centros de los tres triángulos restantes, y así sucesiva e indefinidamente.
Sierpinski no la usó con ningún objetivo constructivo concreto, sino simplemente para
demostrar que cierta propiedad que según la «intuición» tenía que ser incorrecta era, en
realidad, posible.
La figura 3 es el «copo de nieve» que una sueca llamada Helge von Koch construyó
en 1904. En aquel tiempo mucha gente dudaba aún de que fuera correcto un gran
descubrimiento de Karl Weierstrass en 1872: que una curva pueda ser a la vez continua
y no derivable en ningún punto. Todos veían esta posibilidad como algo
extraordinariamente raro y amenazador. Así que Koch construyó el copo de nieve con
la única intención de demostrar que había que creer a Weierstrass. Se empieza con un
triángulo grande, y se van añadiendo triangulitos cada vez menores, etc. En el límite se

llega a una curva continua sin tangente en ninguno de sus puntos.

En la figura 4 tenemos el famoso conjunto de Cantor. En realidad lo inventó Vito


Volterra para demostrar que una teoría de la integración debida a Riemann no podía ser
la última palabra sobre el tema, por cuanto una función con soporte en el «conjunto de
Cantor» no es integrable Riemann. Henry J. M. Smith hizo la misma observación en
Oxford. En el trabajo de George Cantor, dicho conjunto jugaba un papel más
importante, y servía para demostrar que un conjunto «con la potencia del continuo» no
tiene por qué ser un intervalo. El viernes pasado tuve el privilegio de que la Accademia
dei Lincei me pidiera dar una conferencia de un estilo parecido al de ésta, y el Profesor
Ugo Amaldi me planteó una pregunta acerca de las personas que inventaron estas
figuras: «¿Tenían la menor posibilidad de haber sido tomados en serio?» Y mi respuesta
fue: «¡Ninguna!» De hecho, la literatura sobre la «junta» de Sierpinski se ha reducido
durante mucho tiempo a un solo artículo que apenas nadie conocía. Eventualmente, las
fractales la convirtieron en una figura importante en física, pero no lo fue en su tiempo.
Las construcciones como las que han visto hoy aquí acabaron siendo conocidas como
«Monstruos de la Matemática». El hecho de que muchos de estos monstruos fueran
autosemejantes era simplemente cuestión de conveniencia. Gracias a la autosemejanza,
bastaba con un texto de una línea para describir cualquiera de ellas. Sin embargo, la
autosemejanza no era una característica importante por sí misma.

La figura 5 muestra otra curva, que es mi propia variante de una curva debida al
profesor turinés Giuseppe Peano. En 1890 Peano construyó una curva que llena un
dominio plano. Fue diseñada con objeto de separar las matemáticas de la física, como
dos campos de investigación completamente independientes. Por desgracia, consiguió
este propósito, por lo menos durante un siglo. Para obtener mi nueva curva de Peano,
se sustituye el segmento rectilíneo inicial por este complicado zigzag; a continuación,
cada zig y cada zag se sustituyen por réplicas menores del mismo zigzag, y así
sucesivamente. No es difícil creer que la frontera entre lo blanco y lo negro acabará por
llenar una curva de copo de nieve. Los matemáticos han escrito páginas y páginas en
alabanza de la libertad y la capacidad de la imaginación humana para inventar formas
infinitamente alejadas de la realidad. Así, esta curva fue ideada especialmente como
contraejemplo de una creencia universal.
La figura 6 es otra variante de mi curva de Peano. Se pueden ver en ella toda clase
de sistemas ramificados de arterias y venas, o de ríos, o llamas, o lo que sea. Se hace
difícil no ver en ella cosas muy reales. Pero nadie las vio hasta mi trabajo y, en parte
como consecuencia de esta curva, las matemáticas y la física se separaron, tomando
caminos muy distintos.

La principal sorpresa con que uno se encuentra al discutir sobre la autosemejanza es


que, en los ejemplos que han visto hasta ahora, esta propiedad parece demasiado
simple para poder representar la naturaleza. Pero por otra parte, una de las razones por
las que la geometría fractal se ha extendido tanto en los últimos años reside en los
descubrimientos empíricos de que se puede aplicar a varios aspectos de la naturaleza, y
por esta misma razón he invertido tanto tiempo y esfuerzos en darle la consistencia de
una disciplina. Para acabar con la impresión de que la autosemejanza «no es adecuada»,
examinen con detenimiento la lámina 5, que combina una sucesión de paisajes
totalmente artificiales. Cada parte de esta figura se construye aumentando un pequeño
rectángulo blanco de la figura anterior y llenándolo con detalles adicionales. Este
procedimiento nos da un paisaje que, naturalmente, es distinto del todo pero que, al
mismo tiempo, es cualitativamente igual. Las distintas figuras podrían haber sido
distintas partes de la misma costa examinadas a la misma escala, pero en realidad sólo
son entornos de un solo punto examinados a escalas muy distintas.

Naturalmente, el hecho empírico de que el relieve terrestre es autosemejante, y que


lo mismo ocurre con muchas otras formas que nos rodean, es algo que hay que
demostrar en una investigación particular para cada paso.

Llegados aquí, déjenme que les recuerde una historia de la que he tenido noticia
hace poco y que trata de las grandes dificultades que tenían los antiguos griegos cuando
querían definir el «tamaño». Los navegantes sabían que se tardaba más tiempo en
circunnavegar Cerdeña que Sicilia. Por otra parte, era bien sabido que los campos de
Cerdeña eran menores que los de Sicilia. Así pues, ¿qué isla era mayor? Parece ser que,
como los griegos eran ante todo navegantes, creyeron durante mucho tiempo que
Cerdeña era la mayor de ambas islas, pues su costa era más larga. Pero ¿cuánto mide
realmente una costa? Si se usa un barco grande para circunnavegar una isla, el capitán
dará para la longitud de la isla un resultado bastante pequeño. Un barco mucho menor
podrá acercarse más a la costa, cubriendo así una curva mayor. Un hombre que ande
sobre la costa recorrerá una longitud mayor aún. ¿Qué pasa pues con la «verdadera
longitud de la costa de Cerdeña»? Aunque ésta parezca una pregunta tonta y elemental,
resulta que la respuesta es sorprendente: «Depende». La longitud de una costa depende
de si la circunnavegáis en un barco grande, en uno pequeño, andando, o si empleáis un
«ratón» o algún otro instrumento para medirla.

Esto nos hace apreciar el poder extraordinario de la estructura mental que nos ha
impuesto Euclides a lo largo de nuestra vida escolar. Muchas personas que piensan que
nunca han entendido la geometría esperan, sin embargo, que cada curva tenga una
longitud. Y resulta que ésta es una de las cosas falsas que nos enseñaron en la escuela,
pues las curvas que me interesan tienen una longitud teórica infinita, y su longitud
práctica depende del método seguido en su medición.

Los primeros ejemplos de montañas fractales fueron dibujados con el ordenador


según el mismo modelo simple que pude inventar a principios de los años setenta. Los
gráficos por ordenador no existían oficialmente aún, y teníamos que transmitir los
resultados de nuestros cálculos a un tubo de rayos catódicos de laboratorio.
Actualmente los resultados parecen un tanto toscos, pero en su época fueron
sorprendentes. Sin ellos, la misma idea de hacer una teoría de las montañas habría
chocado con el mayor escepticismo o, en el peor de los casos, habría parecido ridícula.
Pero la gente sale fácilmente de su asombro y enseguida empezaron a desafiarme a que
interpretara mis modelos en forma de procesos tectónicos, geográficos y geológicos. La
mayoría de las teorías no eran lo bastante precisas como para que sus resultados se
pudieran representar gráficamente, y unas pocas tenían la desgracia de ser precisas,
pero daban unas montañas que no lo parecían. La situación era bastante peculiar:
sabíamos hacer unas falsificaciones sorprendentemente auténticas de la naturaleza,
pero no entendíamos en lo más mínimo por qué esas falsificaciones eran tan buenas.

En otros ejemplos la situación es completamente distinta. Tenemos una descripción


fractal excelente y también una teoría completa.
Comparen ahora los paisajes de la lámina 5. En esta composición, el segundo gráfico
es claramente más rugoso que el primero. La rugosidad es un concepto fundamental,
pues el mundo en el que vivimos contiene muchos objetos rugosos, y el hombre ha de
aprender a evitarlos para ahorrarse grandes prejuicios. Sin embargo, la tarea de medir
objetivamente la rugosidad resulta ser extraordinariamente difícil. La gente que por su
ocupación necesita medirla, como los metalúrgicos, ha ido a pedir ayuda a sus amigos,
los estadísticos, para que les encontraran un número que pudiera medirse y que
pudiera llamarse rugosidad. Pero hagan el siguiente experimento. Tomen distintas
muestras de acero que, según garantía del US National Bureau of Standards, proceden
de un mismo bloque de metal tan homogéneo como sea humanamente posible. Si
toman varios pedazos, los rompen y miden la rugosidad de las fracturas según la receta

del libro del estadístico, obtendrán valores completamente discordantes.

Lámina 1. Diseño abstracto fractal. © 1988 (BBM)


Lámina 2. Diseño abstracto fractal: el dragón (FGN)

Lámina 3a. Paisaje fractal. Richard Voss (FGN)


Lámina 3b. Paisaje fractal. Richard Voss (FGN)

Lámina 4. Paisaje fractal invernal. Richard Voss (FGN)


Lámina 5. Zoom sobre paisaje fractal. © 1986 Richard Voss

Lámina 6. El planeta fractal. Richard Voss (FGN)


Lámina 7. Detalle del conjunto de Mandelbrot (PR)

Por otra parte, resulta que la rugosidad es medida de modo conveniente por una
cantidad que se llama dimensión fractal que, en general, es una fracción y que tiene un
valor bien definido para cada una de estas montañas.

La montaña menos rugosa que ven aquí tiene una dimensión fractal de 2,15, un poco
más de 2. Esta otra tiene dimensión 2,30, y la siguiente tiene dimensión 2,50. Son
idénticas, excepto por el hecho de que hemos introducido en el programa dimensiones
fractales distintas. Así que, primero podemos medir con gran precisión la dimensión
fractal de la muestra; esto es algo que se puede introducir y luego sacar con bastante
fiabilidad. Volviendo al metal, medimos las dimensiones de un gran número de
muestras del mismo bloque de metal y en todas ellas encontramos la misma dimensión.
Por tanto, la dimensión fractal es una buena medida de la rugosidad.

Para comprenderlo mejor, recordemos qué se entiende al decir que la temperatura es


la medida adecuada de lo caliente que está un cuerpo. Es seguro que el hombre ha
sabido desde siempre que unas cosas están frías y otras calientes, pero la capacidad de
asignar un número a esta cualidad sólo ha sido posible con la ayuda del termómetro, de
modo que distintas personas que usaran el mismo termómetro pudieran asignar el
mismo número al grado de calor de un objeto. Las teorías de la materia que explican la
temperatura son posteriores. Durante mucho tiempo el hombre no tuvo idea de por qué
unas cosas están más calientes y otras lo están menos, pero la descripción por un
número del grado de calor fue un primer paso útil por el que hubo que pasar para
llegar a tales teorías.

Al igual que el grado de calor, la rugosidad era un concepto intuitivo para todos, y
que estaba mal expresado y de modo incoherente. Y también el primer paso ha sido
aprender a medirlo. Necesitamos de un número que sea fiable y repetible, esto es, que
dé el mismo valor cuando lo miden otras manos, y que dé valores distintos para formas
que sean claramente distintas para la vista. Quienes han trabajado con geometría fractal
desarrollan enseguida su intuición de la dimensión fractal y pueden hacer estimaciones
precisas para las formas sencillas. La dimensión fractal toma muchas formas. La
primera de ellas, que se debe a Félix Hausdorff, ya no es la más importante.

La lámina 6 muestra el Planeta fractal. Combina distintas partes que no podemos


explicar por falta de tiempo. El mismo método se empleó en una película inmortal,
titulada Star Trek Two, the Wrath of Khan (Star Trek II. La ira de Khan). Mucha gente la ha
visto, pero pocos se han dado cuenta de que el nuevo planeta que aparece en la
secuencia del Génesis de esa película presenta unas características peculiares: el nuevo
planeta está ya adornado con autopistas y campos rectangulares. La causa de tales
defectos es un atajo que tomó Lucasfilm para que las fractales necesarias se pudieran
obtener muy rápidamente. Pero no nos entretendremos en los defectos. Lo
verdaderamente interesante es el hecho de que las películas que emplean fractales crean
un puente inesperado entre dos actividades humanas, las matemáticas y la física, de
una parte, y de la otra, el arte popular. Un aspecto de las fractales que al principio me
sorprendió muchísimo, y que sigue maravillándome ahora, es que la gente responde a
las fractales de un modo profundamente emocional. O les gustan o les tienen aversión,
pero en cualquier caso la intensidad de la emoción no tiene nada que ver con el fastidio
que la mayoría de gente siente ante la geometría clásica. Quiero dejar claro que la
geometría euclidiana fue una parte importante de mi vida, como niño y como
estudiante después. De hecho, la razón fundamental por la que sobreviví
académicamente, a pesar de una escolarización caótica, fue que siempre pude echar
mano de mi intuición geométrica para llegar allí donde no me permitía mi impericia
con las fórmulas. Y por tanto, nunca diré mal de la geometría euclidiana. Pero todos
sabemos que casi todo el mundo, excepto los geómetras, ven lo euclidiano como algo
frío y seco. Ahora bien, las figuras fractales que les estoy mostrando son exactamente
tan geométricas como las euclidianas, pero evocan emociones que uno no esperaría de
la geometría. Eugene Wigner ha escrito acerca de la «irrazonable efectividad de la
matemática en la ciencia de la naturaleza». He tenido el privilegio de poder añadir a
esta línea una nueva frase sobre «la irrazonable efectividad de la matemática como
creadora de formas que pueden maravillar al Hombre».

Pasemos ahora a la música y al mismo tiempo diré algo acerca de cómo construimos
estas superficies montañosas. Todos los especialistas en acústica han oído hablar del
ruido blanco. Es el proceso cuya densidad espectral es f−0, esto es, independiente de la
frecuencia f, y es el mismo zumbido molesto que se oye en los altavoces cuando la
amplificación es demasiado alta. También saben que el movimiento browniano es la
integral del ruido blanco: al integrar un proceso, su espectro queda dividido por f2, y
por tanto, la densidad espectral del movimiento browniano es f −2, con lo que, al
representarlo en papel bilogarítmico, da una gráfica de pendiente −2. Finalmente,
existen ruidos “intermedios”, cuya densidad espectral es proporcional a 1/f elevado a
alguna potencia a, distinta de 0 ó 2.

¿Por qué me he entretenido en repetir estas cosas tan simples? En primer lugar,
porque cada uno de los paisajes elementales que han visto antes es una superficie cuya
intersección en cualquier dirección es un ruido de espectro 1/f elevado a un a
convenientemente elegido. Para distintos valores de a, se obtienen montañas con grados
de rugosidad distintos, y las diferencias entre ellas son enormes ya a primera vista.

Se puede también pasar de estos procesos bidimensionales a uno unidimensional,


como la música. Recuerden, por favor, que delante de cada paisaje fractal veían una
especie de pared negra, cuya parte superior dibujaba una curva que subía y bajaba.
Dicha curva era un ejemplo de ruido 1/f.

El próximo tema es una observación empírica de mi amigo Richard Voss, en su tesis


doctoral en la Universidad de Berkeley, California. El coautor fue John Clark, su
director de tesis. Para explicarla, tomen composiciones de autores clásicos, como Bach,
Brahms, Beethoven, o incluso los Beatles (que en su modo de escribir música eran tan
académicos como Beethoven) y miren cómo varía la intensidad con el tiempo. O
sustituyan la partitura por una melodía de una sola nota y miren cómo varía ésta
temporalmente. Siempre obtendrán un ruido 1/f. Como no se puede hacer que el lector
oiga la música que se obtiene, tendré que comentarla.

En la música blanca, cada nota es independiente de las anteriores. No tiene ningún


tipo de estructura. Debido a la falta de una estructura a largo plazo, este ruido no
guarda ningún parecido con la música. En cambio, la música browniana (dependencia
1/f2) sube y se mantiene arriba, y cuando baja se mantiene abajo. Para el oído, tiene
demasiada dependencia a largo plazo. Cuando llega a notas altas, o bajas, se mantiene
ahí demasiado tiempo para que uno se pueda sentir a gusto. Entre estos dos extremos
tenemos la música en 1/f. Una manera simple de obtenerla es ir a una tienda de
electrónica profesional, pedir un transistor que alguien haya devuelto por tener un
ruido de fondo horrible y usarlo para generar notas. Lo sorprendente es que el
resultado guarda un parecido extraordinario con la «vertfcdera música».

Me gustaría sacar algunas lecciones de la comparación de esta música con la música


de ordenador más primitiva que empezamos a oír hará unos veinte años o más. Como
el ruido blanco no es musical, consideremos combinaciones de notas. Pásense todos los
conciertos de Mozart por un ordenador y evalúense las frecuencias de cada sucesión de
dos o tres notas. Si comparan una música aleatoria que tenga las mismas frecuencias,
verán que tiene un poco de estructura, pero que ésta no es suficiente para que parezca
música. Enseguida se hace pesada.

Tomen ahora la música del «transistor defectuoso», acóplenle una caja de altavoz
para imitar la resonancia de una iglesia, y verán como obtienen algo completamente
distinto. El resultado imita la dependencia a largo plazo, las frecuencias muy bajas que
hacen que la música suene como tal. En una hora de esa música de transistor
defectuoso, encontrarán algunas estructuras que tardan una hora en desarrollarse, y
otras que tardan media. De hecho, a cada intervalo de tiempo le corresponde algo que
necesita esa duración para desarrollarse. Ahora bien, ¿por qué habría de ser así la
música auténtica? Antes de hacer el experimento la idea habría podido parecer del todo
ridicula. Pero después del mismo, todos estuvimos de acuerdo en que era obvia. En
efecto, ¿qué aprende un músico en el Conservatorio? Pues que, si ha de componer una
pieza de una hora, lo mejor que puede hacer es descomponerla en tres movimientos,
pongamos rápido, lento y rápido. Que es mejor que divida cada movimiento en tres o
cuatro partes: fuerte, suave, fuerte, o lo que sea. Y que «componga» también cada
submovimiento. De hecho, si se busca un poco en los viejos tratados de armonía se llega
a la conclusión de que, para que el «ruido» parezca música, lo más importante es que
algo esté cambiando en cualquier intervalo de tiempo. La música fractal por ordenador
pone en práctica esta condición de una manera excesivamente rígida. Pero si uno se
aleja demasiado de la autosemejanza, obtiene algo que la mayoría de la gente no
reconoce como musical. Quizá la razón por la cual buena parte de la música del período
inmediatamente posterior a la Segunda Guerra Mundial se percibe generalmente como
algo tan distinto de la música anterior sea que se aleja del espectro 1/f.

Ahora les mostraré algunos dibujos fractales muy distintos, obtenidos por iteración
de la transformación más simple. Tómese la variable compleja z, elévesela al cuadrado y
añádasele una constante que llamaremos c. Esta es la transformación más simple que
uno pueda imaginar. Repítase indefinidamente la operación. La figura que ven en negro
en la lámina 6 está formada por todos aquellos puntos del plano complejo que nunca
llegan al infinito después de sufrir infinitas repeticiones de la transformación. Aquí
hemos tomado c igual a un cuarto. Si se parte de un punto de la zona blanca, se va al
infinito y, si se parte de un punto de la zona negra, no. La frontera entre las zonas
blanca y negra, que se conoce como curva de Julia, también es aproximadamente
autosemejante. Cada «ola» no es del todo idéntica a su mitad, porque hay una cierta
deformación. Pero resulta sorprendente que la iteración vaya a producir
espontáneamente cualquier forma de autosemejanza. Un simple cambio en el valor de c
da lugar a formas con una variedad de aspectos extraordinaria.

Igual que en el caso de las montañas fractales, la contribución del ordenador es


esencial para el estudio de las iteraciones. La geometría fractal se ocupa principalmente
de formas aparentemente muy complicadas que nunca podrían ser dibujadas a mano.
Más concretamente, esta gráfica podría haber sido obtenida por cien personas
trabajando simultáneamente durante varios años, pero nadie habría empezado un
cálculo tan enormemente laborioso sin haber tenido previamente la convicción de que

fuera a valer la pena.

Como tenía acceso a un ordenador, me pareció que valía la pena intentar hacer estos
cálculos, aunque en verdad no sabía qué era lo que iba a salir. Era como si hubiera
salido a pescar. La figura 7 es algo que he introducido en mis investigaciones. Los
conjuntos de Julia de la aplicación z2 + c pueden tomar toda clase de formas. Intenté
clasificarlas y (por razones que no tengo tiempo de explicar) lo que obtuve es una forma
que se conoce como conjunto de Mandelbrot (lámina 7), cosa que para mí es un gran
honor. Me gustaría enseñarles con detalle algunas partes del mismo. A medida que
vamos ampliando los detalles, parte de lo que vemos no es más que una repetición de
algo ya visto. Este elemento repetitivo es algo esencial a la belleza. Pero ésta requiere
asimismo un elemento de cambio, que también se tiene aquí muy claramente. A medida
que se va ampliando más y más, lo que se ve es cada vez más complicado. La forma
global es la misma, pero la estructura pilosa es cada vez más intensa. Este no es un
rasgo que hayamos introducido a propósito (en la medida que la matemática no es algo
inventado, sino descubierto). Es algo que ha estado ahí desde siempre y que demuestra
que la matemática de z al cuadrado más c es algo asombrosamente complicado, contra
lo que sería de esperar de la simplicidad de la fórmula. Encontramos pues que, al
examinar cada vez más de cerca el conjunto de Mandelbrot, revela la coexistencia de la
repetición inexorable de unas formas combinada con una variedad que nos deja
boquiabiertos. La primera vez que vi el conjunto de Mandelbrot, sólo disponía de un
monitor en blanco y negro con una calidad gráfica muy baja, y el dibujo parecía sucio.
Pero al ampliar lo que parecía suciedad, descubrimos una copia en pequeño del
conjunto global. La figura 8 es una representación del mismo.
La calidad de esta representación en color es una medida de la maestría de Peitgen y
Richter como programadores, al igual que la calidad de la representación en color de las
montañas lo era de la habilidad de Voss, pero la estructura en sí es independiente del
coloreado de la representación. Lo importante a destacar aquí es que la estructura es tan
complicada que no podemos captarla a menos que el coloreado de la representación sea
lo bastante rico. De hecho, el conjunto tiene una estructura tan enormemente rica que no
podemos verla en una representación a un solo color. En distintas representaciones se
insiste en distintas facetas de la misma. Y repito, esta estructura no fue inventada con
objeto de hacer algo bello, sino que se obtuvo al profundizar en la teoría de la
transformación z al cuadrado más c.

Reflexionemos ahora sobre cuestiones generales. La música está relacionada con una
parte de nuestro sistema sensorial, el oído y el cerebro, y las artes visuales guardan
relación con otra parte distinta, el ojo y el cerebro, y parece que hemos demostrado que
estas partes tienen algunos elementos en común. Estos tienen que ser de un tipo muy
básico. Y al decir básico no hay que entender «trivial» o «poco importante». Alguien
podría decir que algo que es común a Bach, Beethoven y los Beatles no puede ser
demasiado importante, pues lo verdaderamente importante es lo que es específico de
cada uno de ellos. Yo no comparto esta opinión y pienso que estamos ante unas
características tan básicas que nos permiten distinguir la música de lo que no lo es. El
hecho de tener un espectro del tipo 1/f parece ser, para la mayoría, una característica de
la música, en contraposición a lo que no lo es. Análogamente, se podría argüir que los
rasgos comunes a todas las montañas no pueden ser demasiado importantes para
alguien interesado en qué es lo que hace que los Apeninos sean los Apeninos y que los
Alpes sean los Alpes. En mi opinión, la interpretación correcta es que lo básico no es
necesariamente trivial, y podría muy bien ser fundamental.

¿Por qué nos gustan las estructuras fractales en la música y la pintura? Esto tiene
muchas explicaciones. Una de ellas es, naturalmente, que nos gusta que el arte imite a la
naturaleza. Aun en el caso de arte absolutamente no figurativo, como la mayoría de la
pintura de hoy en día, nos gusta que se parezca a la naturaleza en algún aspecto básico,
pues nos sentimos bien con la naturaleza y nos incomodan las formas demasiado
distintas de las que la naturaleza nos ha mostrado y ha dispuesto a nuestro alrededor.
Por tanto, nos sentimos más a gusto con las formas que tienen las propiedades
escalantes de las montañas y de los árboles, que con las bandas verticales o los círculos,
cuya estructura es demasiado simple, pues estas figuras no forman parte de nuestro
entorno de cuando éramos niños ni de ahora como adultos.

En consecuencia, considero muy importante que muchos cuadros no figurativos,


aunque estén muy lejos de representar detalles concretos de la naturaleza, conservan
escrupulosamente su carácter escalante. Estoy seguro de que Jackson Pollock exageraba
cuando escribió que, para trabajar, cogía botes de pintura que escampaba por todas
partes y, finalmente, de entre las telas así obtenidas elegía la que le parecía más bonita.
Pero estoy seguro también de que su relato tiene algo de básico y fundamental. Si
hiciera algo del estilo de lo que cuenta, sus cuadros serían, en cierto sentido, imágenes
de la turbulencia y, como ya sabemos, ésta es autosemejante y tiene propiedades
fractales que nos proporcionan un método muy potente para describirla.

Volvemos ahora pues sobre la vieja pregunta de por qué para mucha gente la
geometría era seca y aburrida. Bien pues, principalmente porque las montañas no son
conos, ni las nubes son esferas, ni tampoco los ríos ni los rayos van en línea recta; en
definitiva, porque las formas que nos han rodeado a lo largo de nuestra vida, desde que
éramos niños, siempre han estado muy alejadas de la simplicidad de lo euclidiano. La
simplicidad de la geometría fractal es de un orden diferente. Las reglas son también
cortas, algunas veces más, pero funcionan de un modo distinto. Tienen una componente
repetitiva. Esto hace que el tratamiento por ordenador sea idóneo para trabajar con las
figuras fractales. A los ordenadores les encantan las iteraciones, y los programadores
escasean. Así pues, no es sorprendente que la geometría fractal y la geometría por
ordenador estén unidas de un modo tan fundamental.

Mi charla ha sido bastante desorganizada, pero espero haber sabido darles alguna
pista sobre el funcionamiento de la geometría fractal y también sobre la relación entre la
obra de mi vida y el motivo del simposio que están celebrando aquí.

Referencias

Todas las ilustraciones tienen copyright y en su mayoría han sido reproducidas (tal
como se señala) de uno de los tres libros siguientes:

(FGN) Mandelbrot, B. B.: The Fractal Geometry of Nature, W. H. Freeman, Nueva


York, 1982.

(PR) Peikgen, H. O. y Richter, P. H.: The Beauty of Fractals, Springer-Verlag, Nueva


York, 1986.

(PS) Peikgen, H. O. y Saupe, D.: The Science of Fractal Images, Springer-Verlag, Nueva
York, 1988.

El siguiente es el primer libro de texto sobre fractales:

(F) Feder, J.: Fractals, Plenum, Nueva York, 1988.


COLOQUIO

Emilio Elizalde: Me gustaría saber hasta qué punto depende de la escala la


comparación visual que establece usted entre ciertas estructuras fractales y algunos
objetos reales como, por ejemplo, nubes y montañas. En el mundo natural la escala está
bien definida por la escala real, pero, ¿con qué criterio se fija la escala en el mundo
matemático de los objetos fractales?

Benoît Mandelbrot: Las comparaciones pueden hacerse en todas las escalas, pero no
dependen en sí mismas de ellas ya que las formas tienen las mismas propiedades en
todas las escalas. De hecho las comparaciones son el resultado de todas las escalas
juntas. Lo que sí es cierto, y quizá no lo haya subrayado, es que en física el modelo
fractal funciona sólo dentro de una cierta extensión finita de escalas. Si uno se acerca
demasiado al extremo inferior, se obtienen detalles que ya no son fractales. Y algo
similar ocurre en el otro extremo, claro. Por ejemplo, si uno se acerca demasiado a una
montaña, lo que se observan son cristales que corresponden a una física muy distinta.
Lo mismo ocurre si uno se acerca progresivamente a la línea costera: llega un momento
en el que todo son granos de arena. Si el zoom se acciona en sentido inverso nos
encontramos con el límite del planeta, etc. Es curioso, de todos modos, atender a ciertos
casos en los que uno puede olvidarse de tales límites. Es el caso de la distribución de
galaxias. Es fácil de establecer, como hago en mi libro, que las galaxias siguen el modelo
fractal a lo largo de distancias equivalentes a varias veces el radio de nuestra galaxia
(unos diez megaparsecs). Los cosmólogos estaban convencidos de que el universo era
homogéneo. Cuando el telescopio se detenía a esta distancia afirmaban: a partir de aquí
es homogéneo, el universo es uniforme y lo que observamos son de hecho
irregularidades locales. La homogeneidad global les parecía en cierto modo más
importante que la irregularidad local. Pero cuando los cosmólogos fueron más
insidiosos en las observaciones, descubrieron localidades cada vez mayores. Puede
decirse que el año pasado se descubrieron estructuras que la imaginación fractal había ya
descrito por medio de una fórmula bien sencilla. Quizá pueda decirse que imaginarse a
priori estructuras fractales más allá de los diez megaparsecs era algo tonto, pero de
hecho resultó muy útil hacerlo. ¿Hasta dónde podemos extender esta imaginación?
Bien, no sé si es ésta la cuestión, pero, es verdad, los límites existen y evaluarlos forma
parte de la investigación, porque una teoría que rige sobre diez órdenes de magnitud es
evidentemente mejor que otra que rige sobre dos o tres. La discusión sobre las nubes
empezó con un discípulo mío que encontró experimentalmente regularidades fractales
sobre siete órdenes de magnitud respecto de la superficie. La amplitud iba desde un
kilómetro cuadrado hasta millones de kilómetros cuadrados. Luego se establecieron
bien que ésos eran justamente los límites. Pero quiero terminar la respuesta añadiendo
algo todavía. Son muchos los casos en los que la amplitud de validez es muy estrecha, y
sin embargo la teoría sigue siendo extraordinariamente fructífera. Por ejemplo: los
trabajos de Auerbach y Alexander sobre vidrios. En ellos se supone que el
comportamiento fractal es viable sólo en un orden de magnitud, y sin embargo la teoría
proporcionó la noción del FRACTON que ha dado lugar a descripciones y predicciones
muy potentes. Yo mismo era muy escéptico al principio por lo restringido del dominio
de validez, y tuve que admitir el éxito final. Pero ya se sabe, los revolucionarios también
se hacen conservadores con la edad.

Jorge Wagensberg: La teoría de las fractales no deja de ser una teoría de autosimilitud.
Pero buena parte de los procesos de más interés en biología son justamente cuando la
similitud se rompe. Pienso, por ejemplo, en las distintas jerarquías de la materia viva.
Una auténtica jerarquía se forma por la cooperación de los elementos de la jerarquía
inferior, sí, pero dando lugar a nuevas características propias de una nueva unidad.
Esto sería además la esencia de una eventual teoría de la complejidad. El
comportamiento fractal se considera una aproximación a la complejidad de las formas,
pero da la impresión de que los objetos fractales serían justamente los objetos a evitar
para describir la evolución trascendente de un sistema complejo. ¿No es así?

Benoît Mandelbrot: Pues sí. Es verdad. A veces el interés de las fractales está en que
éstas no se presenten. Una de las aplicaciones prácticas (y no por eso menos
importantes) se refiere a la extracción del petróleo. Cuando un campo de petróleo se ha
agotado, se suele inyectar agua para forzar la salida de los últimos restos. Si la inyección
se hace en ciertas condiciones, el agua forma una onda que empuja el petróleo y la
operación se cumple positivamente, pero si las condiciones cambian, el agua se
estructura en forma de dedos fractales y el petróleo no sale a la superficie. En este caso los
objetos fractales son malos. En estos momentos existen grandes proyectos en todo el
mundo para evitar la formación de estas fractales. El mayor de todos es el que se ha
puesto a punto por las compañías petrolíferas noruegas que, con gran visión de futuro,
han publicado estudios teóricos y resultados experimentales sobre el tema. La cuestión
es cómo evitar el comportamiento fractal dadas ciertas condiciones iniciales. En otros
casos, lo que se pretende es lo contrario: la obtención del comportamiento fractal
correcto. El año pasado me invitaron a visitar una universidad canadiense de una
ciudad conocida por sus minas de níquel. Esta universidad financia un enorme
proyecto sobre fractales porque han descubierto que el efecto nocivo de las cenizas en
los pulmones de los mineros depende de la forma de las partículas que la componen.
Los sindicatos están interesados en la ceniza más benigna que parece corresponder a
una extraña geometría fractal.
Jesús Mosterín: Me ha fascinado la belleza y la complejidad de las figuras que ha
mostrado, sobre todo cuando pienso en la sencillez de las fórmulas que las generan. Se
supone que (si no somos zurdos) entendemos las cosas lingüística y simbólicamente con
el hemisferio izquierdo del cerebro, mientras que la comprensión visual corresponde al
derecho. Así que, como usted ha señalado, no podríamos seguir sus fórmulas ni sus
formas si sólo pudiéramos utilizar el hemisferio izquierdo de la misma manera como lo
hacemos cuando vemos las imágenes. Por ello me parece fascinante disponer en este
caso de ambas posibilidades simultáneamente. Yo quería preguntar hasta qué punto
esta capacidad de comprensión total está restringida a los objetos fractales.

Benoît Mandelbrot: Bien, debo decir primero que la opinión de los expertos en cuanto
a esta doble capacidad de comprensión en las fractales es muy variada. De hecho, se
puede encontrar gente totalmente fascinada y enamorada, pero también otros
violentamente hostiles. Y las razones son impredecibles. Yo creo que todo depende del
equilibrio que se establece entre ambos hemisferios en cada individuo. Se puede dar el
caso de algebristas de toda la vida que no usan los recursos geométricos. La selección de
los matemáticos de mi generación se hacía mucho siguiendo criterios concernientes a las
facultades algebraicas. En mi caso, creo que debo dar gracias al caos del mundo (que
ayer mencionaba) el hecho de haber podido encontrar una brecha sin ser especialmente
hábil en álgebra. Mi intuición geométrica no totalmente destruida y ciertos accidentes
de la vida me permitieron conservarme como una especie de matemático que había de
producir sus mejores trabajos a la edad de 56 años. Esto significa que supe esperar el
momento más favorable para mi particular combinación de hemisferios izquierdo y
derecho. Con respecto a las posibilidades de otros entes abstractos no fractales no
puedo decir mucho. No lo sé realmente, porque hasta cierto punto me he convertido en
un esclavo de mis propios objetos. La computación gráfica ha ayudado sin duda a la
imaginación en muchas ramas de la topología. Basta pensar en ciertas revistas (no
demasiado serias sino solamente semiserias, lo cual me parece perfecto) como Science
News, que con frecuencia exhiben fascinantes portadas que visualizan problemas
enteros que nadie habría podido ilustrar nunca antes. Aquí, sin embargo, se explica la
historia instantáneamente, que luego se reexplica en el interior con fórmulas, claro. La
computación gráfica ya ha tenido este uso muy ampliamente, pero todavía es pronto
para saber su verdadero alcance. Parece claro que sí va a cambiar los criterios con los
que se seleccionan los matemáticos, y con una clase distinta de cerebros se producirá
también una matemática de otro tipo.

David Jou: A principios de los años setenta muchos físicos se habituaron al uso de
exponentes no enteros en el estudio de fenómenos críticos. ¿Cree usted que ello
favoreció el éxito fulgurante de la teoría de los objetos fractales?
Benoît Mandelbrot: Bueno, resulta muy difícil decirlo. Pero la pregunta tiene su
interés histórico. Las ideas sobre la escala en física se pusieron de actualidad a finales de
los sesenta (sobre todo con la obra de Wilson) y debo decir que yo estaba trabajando en
temas parecidos desde finales de los cincuenta. Y recuerdo perfectísimamente el día en
que ambas corrientes se encontraron. Fue durante una cena de un congreso en el que
había hablado de mi trabajo: alguien se acercó sonriendo a mi mesa para anunciarme
que había gente en física que trabajaba en cosas muy parecidas. Debería conocerles y
colaborar con ellos, me dijo. En la última reunión celebrada en Boston sobre Física
Estadística, un tercio versaban plenamente sobre fractales y otro tercio estaban
relacionados de algún modo indirecto. Hoy en día los estudiantes de física estadística se
encuentran con los objetos fractales desde el principio. Digamos que son ya inevitables.
Segundo debate general
Imaginar para la complejidad

Segundo debate general


Jesús Mosterín (moderador): Ayer dedicamos el debate a la imaginación en la ciencia
en general. Sugiero que centremos el de hoy en torno a la imaginación en las teorías
científicas. Una primera cuestión puede referirse a esa tendencia unificadora que ha
empujado siempre a los físicos teóricos desde mucho antes de Einstein. Pienso por
ejemplo en la conferencia que Stephen Hawkings pronunciara con ocasión de su toma
de posesión de la cátedra de Cambridge (se preguntaba si la física teórica no estaría
llegando a su fin)…

Douglas Hofstadter: No creo en absoluto que nos estemos acercando a los límites de la
física. Recuerdo con qué sorpresa escuché nada menos que a Richard Feynmann
proponer esta posibilidad en una serie de conferencias que dio en los años sesenta. La
última conferencia estuvo dedicada a esta cuestión: nada fundamental quedaría por
descubrir. Es curioso cómo se puede reaccionar ante una situación así. Para unos, entre
los que me cuento, se trata de una idea tristísima. Otros, en cambio, se dirán: ¡estupendo!
¡ya lo hemos descubierto todo! Yo ni siquiera puedo imaginarme que estemos cerca de un
límite así, pero ¿cómo probarlo? Bien, en primer lugar creo que aunque se hagan
realidad las grandes unificaciones (las de las fuerzas por ejemplo) todavía quedarán
muchas cuestiones fundamentales por resolver. Por ejemplo: ¿Por qué es el espacio-
tiempo tetradimensional? Otra cuestión: ¿Por qué existen leyes matemáticas en la
naturaleza? ¿Por qué son las leyes que son y no otras? ¿Por qué toman los parámetros
que aparecen en tales leyes los valores que toman y no otros? El mismo número cuatro
de las dimensiones espaciotemporales, ¿por qué es justamente cuatro y no diecisiete?
Supongamos que llegamos a una total unificación de las fuerzas y que conocemos las
leyes más fundamentales comprimidas en unas pocas ecuaciones. Bien, pues todavía
tendríamos ante nosotros una tarea inmensa: decidir de tales leyes la diversidad infinita
que vemos en el universo. El profesor Mandelbrot nos ha mostrado la increíble
variedad de consecuencias que emerge de una ecuación tan simple como «equis al
cuadrado más una constante». Con los pocos axiomas de los números enteros no se ha
resuelto por ejemplo la cuestión de la distribución de los números primos. Y se trata de
una cuestión muy profunda y fascinante, mucho más por lo menos que la de los propios
axiomas. Por la misma razón creo que conocer las cuatro leyes fundamentales de la
naturaleza no resolverá todo lo que en verdad nos fascina del universo.

Carles Ulises Moulines: Yo tampoco soy un entusiasta de las grandes unificaciones. Y


no hago esta afirmación por ser un erudito del tema sino sencillamente por inducción
histórica. En la historia del conocimiento humano siempre ha habido momentos que
parecían ser los de la gran síntesis. Ese era sin ninguna duda el ambiente que reinaba
después de que Newton publicara sus Principia. Buena parte de la comunidad científica
tomó la obra como la piedra filosofal que iba a explicar todos los fenómenos. La
situación en aquella ocasión era mucho más claramente unificadora que la que estamos
viviendo en estos momentos. La única fuerza era la gravitatoria y de ella se esperaban
descripciones para las partículas, pero también para cosas tan complejas como el amor
que se pueda profesar una pareja. Todo el siglo dieciocho está repleto de supuestas
demostraciones que parten del esquema newtoniano para abordar cualquier cuestión,
ya sea de la física, la biología, la psicología o la sociología. No hay duda de que la
pretensión de unificar leyes aparentemente distintas es algo científicamente noble e
interesante, pero hay que ponerse de acuerdo, antes que nada, de lo que puede
significar el término unificar. Si unificar es reducir la física a unas pocas leyes, entonces
estoy de acuerdo con Hofstadter en que la deducción de todas las leyes particulares es
una obra inmensa. Se dice desde hace un siglo, por ejemplo, que la termodinámica ha
sido reducida a la mecánica estadística, pero si se examina de cerca la cuestión uno se
da cuenta de que todas las leyes particulares de la termodinámica no pueden deducirse
lógicamente de unas pocas leyes mecánicas. Aquí hay mucho de eso que en inglés se
llama un wishful thinking, es un noble deseo, una buena estrategia eurística para
encontrar correlaciones, analogías y relaciones entre diferentes teorías, pero no deja de
ser un método más o menos útil. Y es algo que de todos modos está muy lejos de la
creencia en una teoría de donde se deduzcan todas las aplicaciones empíricas. Eso sería
una especie de…

Jorge Wagensberg: ¿…monoteísmo científico?

Carles Ulises Moulines: Exacto. Me acuerdo de un coloquio en Berkeley sobre la mente


y el cuerpo donde un ponente anunciaba la inminente unificación de los conceptos
mentales con los fisiológicos. Alguien se levantó para preguntar qué teoría psicológica
se esperaba reducir a cuál teoría psicológica. Nada pudo contestar porque no hay
posibilidad de ninguna reducción de este tipo en sentido estricto. Se trata de una utopía
útil, pero que no debe ser tomada demasiado en serio.

Joaquín Boya: Después de estas dos opiniones quizá convenga oír alguna voz a favor
del reduccionismo. En física teórica estamos hoy más cerca que nunca de pretender
esquemas unificadores. Se ha hecho ya muy popular la palabra TOE (Theory of Every
Thing, o «teoría de todas las cosas»). Y es que, en parte por consideraciones estéticas, en
parte por consideraciones geométricas, y en parte por el último caudal experimental
que se va recogiendo, resulta que las cosas tienden a ir encajando. Hay que esperar los
acontecimientos. Las partículas elementales no van a iluminar nada los problemas de la
complejidad que son los que realmente nos interesan. Para hablar del DNA no hace falta
saber casi nada de partículas elementales, es cierto, pero el verdadero problema está en
identificar cuáles son las variables y conceptos microscópicos que sí trascienden en el
comportamiento macroscópico. Pero eso acaso sea, si hablamos de la materia viva, un
problema del siglo xxi.
Un comentario aparte a propósito de la cuestión de las dimensiones mencionada por
el profesor Hofstadter. Resulta que la cuestión empieza a ser tratable. Según la última
teoría ya no tenemos cuatro dimensiones sino diez: tres espaciales, una temporal y seis
espaciales curvadas.

Jorge Wagensberg: Está claro que las ciencias duras y fundamentales, como la física,
tienen tendencias unificadoras y que otras, más blandas y específicas, como la biología,
deben resignarse a admitir la diversidad de su universo. Los objetos de la física son
simples, y los de la biología, complejos. Pero creo que hay algo que puede asegurarse en
cualquier caso: la voluntad unificadora, o reduccionista, siempre forma parte del
método científico. ¿Qué científico no aspira a identificar dos cosas aparentemente
distintas como una misma? La cuestión está en saber hasta dónde puede forzarse este
aspecto del método. Precisamente estamos viviendo un momento curioso en ciertas
disciplinas de la ciencia interesadas en describir la complejidad. Me refiero a cierta
moda (creo que podemos calificarla así) en la producción de ciertas teorías que
pretenden unificar la diversidad. La teoría de los objetos fractales es un claro ejemplo de
voluntad unificadora en cuanto a la forma, la teoría de las catástrofes es un intento de
clasificar (en pocas clases) una enorme variedad de cuestiones de morfogénesis, la
sinergética, las estructuras disipativas o la ahora llamada ciencia del caos compiten de algún
modo entre sí para explicar problemas muy parecidos aunque con un léxico distinto…
En muchos de estos casos han surgido críticas, más que justificadas a mi juicio, debido a
ciertos excesos en la obsesión unificadora. Este esfuerzo unificador que el científico ejerce
por método o por oficio es tan fuerte que no es raro que a veces resbale y se pase de
largo. Se trata de buscar un delicado equilibrio avanzando y retrocediendo. La
imaginación científica funciona ora creyendo en la analogía, ora reconociendo la
diferencia. Por esto creo que el llamado reduccionismo no debe elevarse nunca a la
categoría de una visión del mundo sino que debe admitirse como parte del método.

Jesús Mosterín: Yo quería aprovechar la presencia aquí de algunos de los


protagonistas de estas teorías de la complejidad para preguntar si en verdad tiene
sentido esta competencia que acaba de mencionar Jorge, y si todavía se piensa en
conectar las teorías que se refieren a distintos niveles jerárquicos.

Arne Wunderlin: En mi ponencia he tratado de demostrar la vocación unificadora de


la sinergética, pero también me he esforzado en aclarar que ello sólo es posible si se
cumplen ciertas condiciones. La sinergética es una aproximación correcta como ciencia
interdisciplinaria dentro de estos bien definidos límites. También creo que la tarea de
unificar es esencial en ciencia, de hecho es incluso un motor del progreso científico.
Cada nivel de consideración o de observación tiene su propia lógica y crea sus propias
teorías. Un ejemplo claro es el de los sistemas autoorganizativos. La descripción que he
dado responde básicamente a la antigua idea de Aristóteles pero expresada en una
forma matemática precisa: un sistema es algo más que la suma de sus subsistemas.
Análogamente se puede decir que el comportamiento macroscópico no tiene por qué ser
directamente deducible desde el nivel microscópico. En termodinámica, por ejemplo,
disponemos de una completa descripción microscópica si creemos en la mecánica
hamiltoniana: podemos conocerlo todo de las partículas, pero, como todo el mundo
sabe, no hay forma de conectar este mundo con magnitudes macroscópicas como la
temperatura, presión, etc. Lo único que en verdad hacemos es aplicar una estructura
matemática similar en los niveles microscópico y fenomenológico, pero eso no significa
que la termodinámica se deduzca directamente de la mecánica. Ningún principio
unificador puede obviar que cada nivel jerárquico tenga pues su propia área de
investigación.

Akira Okubo: No es raro oír la opinión de que llegará un día en el que toda la biología
(ecología incluida) se podrá deducir de la biología molecular. Bastaría quizá la analogía
termodinámica que ha mencionado el Dr. Wunderlin para desanimar esta pretensión.
Pero me interesa llamar la atención sobre otra analogía. Se trata del caos. En este caso
está claro que las ecuaciones fundamentales se mantienen a través de los niveles de
descripción (las de Hamilton por ejemplo), pero no es menos cierto que las soluciones
pueden ser extraordinariamente sensibles respecto a los valores de cierto parámetro.
Una pequeña variación en las condiciones iniciales supone un cambio dramático en la
evolución temporal. Quiero decir que en estos casos de poco sirve conocer las
ecuaciones fundamentales: la precisión en el conocimiento de las condiciones iniciales
nunca será lo bastante buena para hacer predicciones. Algo parecido ocurre en biología.
Por mucho que sepamos de la estructura molecular, nunca podremos deducir de ella la
totalidad de lo que se observa en la macro-biología.

Benoît Mandelbrot: Quisiera hacer algún comentario en relación a los modelos


matemáticos que pretenden describir niveles jerárquicos distintos. Cuando mi discípulo
obtuvo los diagramas de la estructura geométrica de las nubes y cuando demostró, en
particular, que el diagrama era invariante en un intervalo que iba desde un kilómetro
cuadrado hasta un millón (!) de kilómetros cuadrados, la reacción más general de los
meteorólogos fue decir: esto no puede ser cierto. ¿Y por qué no?, preguntábamos nosotros
sorprendiéndonos de su sorpresa. Pues porque hemos estudiado cuidadosamente el
comportamiento de las nubes a todas las escalas. Hay micro-nubes, nubes de tamaño medio, de
tamaño medio grande, etc. ¡Y todas siguen reglas distintas! He aquí pues un ejemplo
perfecto del reduccionismo cartesiano. La partición de la meteorología según “tamaños”
resultó ser totalmente arbitraria. Y fue muy curioso lo que pasó: cuando se demostró
que la evidencia contradecía los criterios de una partición según tamaños, ¡entonces
resultó que lo que se puso en duda fue la evidencia! Creo sinceramente que el número
de niveles jerárquicos distintos necesarios para describir la naturaleza es mucho menor
de lo que creemos. Y eso está de acuerdo con el hecho de que la teoría de los objetos
fractales sea tan ampliamente aplicable. La célebre película y libro de Morrison,
Potencias de diez, daba una idea falsa de que todo cambia al saltar de escenario en un
orden de magnitud (diez por arriba o diez por abajo). Y de hecho, en muchos casos, la
verdad es que no cambia casi nada. La cuestión está en encontrar, en cada caso, el
mínimo número de niveles pertinentes para la descripción. La exigencia de mínimo es
aquí muy importante, una especie de homenaje a Guillermo de Occam que fue el
primero en generalizar esta sabia recomendación.

Jorge Wagensberg: Creo que hemos llegado, casi sin quererlo, a la cuestión central de
cómo tratar, de cómo imaginar la complejidad. El primer paso tiene mucho que ver con
estas elecciones que ha mencionado el profesor Mandelbrot. Concretando más yo diría
que hay que empezar por definir qué es el TODO y cuáles son las PARTES del sistema en
cuestión. Como ya se ha dicho: el todo no suele ser la suma simple de las partes (o por
lo menos no lo es en los casos de cierto interés «jerárquico»). Dos niños juntos llorando
pueden crearnos más problemas que la suma de los problemas que nos crearían
llorando por separado porque, si están juntos, hay que contar además con la interacción
mutua. El acto científico más comprometido consiste en elegir estos tres conceptos
fundamentales: las partes (un nivel de observación), el todo (el siguiente nivel de
observación) y las reglas de interacción entre las partes. Así ha nacido (acaba de nacer
en realidad) una nueva manera de hacer ciencia: la simulación por ordenador. Con la
simulación uno parte de una configuración inicial y puede probar el efecto
macroscópico de leyes individuales o, a la inversa, se puede explorar qué tipo de reglas
individuales son compatibles con cierto comportamiento global. Se trata de una nueva
aproximación a la realidad que no es teoría ni es experiencia sino una auténtica y
genuina tercera alternativa para nutrir la imaginación científica.

Douglas Hofstadter: Estoy de acuerdo en que la simulación puede dar buenas pistas,
pero tengo mis dudas en cuanto a su impacto en el conocimiento. Imaginemos, por
ejemplo, la simulación de la evolución de una galaxia (creo que se ha hecho algo así).
Imaginemos que en la pantalla podemos seguir a las estrellas formando las famosas
espirales. De acuerdo, las espirales salen en la pantalla. Pero ¿qué sacamos de ello aparte
de que tal modelo o tal configuración inicial dan espirales? El hecho de que las espirales
aparezcan en la pantalla no nos dice nada en cuanto a por qué o cómo aparecen en la
realidad.

Jorge Wagensberg: Decir que tal modelo o tal configuración inicial da galaxias en la
pantalla puede significar decir mucho en cuanto al porqué o al cómo ocurre en la
realidad. Si reflexionamos detenidamente sobre la observación y la teoría,
constataremos que en rigor el porqué no se contesta nunca en ciencia, y que tan lícita es
la respuesta que da la teoría como la que da la simulación si de lo que se trata es de
contestar al cómo. Pero estoy de acuerdo en que la simulación tiene unos límites bien
definidos: el número de partes que entran en juego y el orden de magnitud de los
tiempos de interacción. Esto quiere decir que el mundo megascópico (el del cosmos) y el
microscópico (el de las partículas) pueden llegar a tener efectivamente problemas
graves de representación (aunque los éxitos han sido notables hasta el momento), pero
justamente el mundo de la complejidad, el de la materia viva por ejemplo, cae de lleno
en el ámbito de las prestaciones de las computadoras. Pienso que la simulación es
justamente la gran esperanza para estudiar las conexiones de niveles jerárquicos
consecutivos.

Jesús Mosterín: Estoy seguro de que la simulación se va a imponer cada día en más y
más disciplinas, aunque sólo sea porque en muchos casos es mejor eso que nada.
También es mejor una teoría explicativa que una teoría tipo «caja negra». Pero creo que
el profesor Hofstadter tiene en mente sobre todo una cuestión: la de la inteligencia
artificial. Y, en ese sentido, creo que entiendo sus dudas sobre la comprensión que
puede aportar la simulación respecto al propio comportamiento humano…

Douglas Hofstadter: Eso es lo que ha sucedido durante los últimos cinco años en
inteligencia artificial con el auge de los modelos neuronales. Es cierto que estos modelos
han permitido hacer cosas que antes no podían hacerse, pero la verdad es que tales
modelos se han ido complicando cada vez más, y a veces da la impresión de que puede
explicarse con ellos por ejemplo cómo funciona el aprendizaje, pero su presunto
conocimiento de la cuestión se difunde a través de miles y miles de neuronas simuladas.
No comparto el optimismo científico en este campo porque no se consigue proporcionar
ninguna respuesta sencilla a ninguna pregunta que valga la pena. Creo que siempre
debe haber alguna explicación más clara que la de simplemente decir: he aquí el resultado
de la fantástica interacción de las miles de partes que he considerado, puedo dar cuenta de cada
parte por lo que mi resultado no tiene nada de místico. Quizá no sea misticismo, pero que no
sea misticismo no me parece suficiente.

Benoît Mandelbrot: Un comentario muy breve sobre mi impresión de que la noción de


explicación debe tomarse de un modo polifacético. En matemáticas ha costado mucho
aceptar las demostraciones por ordenador. La gente prefiere demostraciones reales, porque
pocos tienen el coraje y la paciencia de repasar y releer a mano larguísimos programas
ajenos. Pero estamos habituados a ver demostraciones ordinarias que son igualmente
insatisfactorias. Un amigo mío, Gene Taylor, ha probado conjeturas clásicas en
problemas matemáticos de mínima superficie debido a ciertas mesetas. Una conjetura es
que, si existen burbujas, entonces no hay puntos donde convelan más de cuatro burbujas
en el espacio ordinario. Demostró que si uno intenta romper las preferencias de simetría
de la naturaleza (y a la naturaleza no le gusta que más de cuatro burbujas se encuentren
en un punto) entonces la naturaleza se olvida de toda simetría y pasa a seguir otras
reglas. Escribió un artículo de 250 páginas (que fue premiado) al final del cual confesaba
su creencia en que su trabajo no ayudaría nada a que la comunidad científica aceptara
sus conclusiones, a pesar de haber sido demostradas con todo detalle y paso a paso.
Algunos allegados y familiares la comprobaron paciente y minuciosamente. Y en efecto,
todo era correcto y, también en efecto, la demostración no contribuyó a aumentar la
creencia en sus resultados. La idea de que ciertas pruebas son más reales que otras me
parece una idea muy irreal. Uno tiende a creer en las demostraciones transparentes y
cortas que pueden seguirse fácilmente, y a no creer en las que requieren demasiado
esfuerzo o en las que uno cierra los ojos para volverlos a abrir cuando ya ha llegado a
puerto. En física ocurre lo mismo por esa fuerte tendencia al reduccionismo y a la
creencia de que sólo hay una manera de entender las cosas. En muchos casos, y a
medida que se complican los sistemas, la cuestión va cada vez peor y peor. O mejor y
mejor, según se mire, porque yo no tengo nada en contra de ir en la dirección de la
complejidad creciente. Me gusta la complejidad.

Douglas Hofstadter: Bueno, no conozco la cuestión particular de las burbujas, pero ¿no
hay verdaderamente una explicación sencilla para este problema? En todo caso, quizá
sea un problema singular que no represente la situación general…

Benoît Mandelbrot: Es un hecho empírico que ciertas conjeturas simples presentan


dificultades enormes para ser resueltas; tantas y tan grandes que algunas permanecen
muchísimos años sin respuesta. Ahí tenemos por ejemplo el célebre teorema de Fermat.
Hace poco se ha resuelto una conjetura matemática que llevaba sesenta años en el
candelera. La conjetura de la meseta era todavía más antigua, y no porque no interesara
o porque la gente no se hubiese quemado las pestañas con ella. Todo aquel que conozca
un poco la historia y tenga un mínimo interés en las cuestiones de Simetry Breaking
(rotura de simetría) toma esta conjetura como la conjetura, la número uno, la más
elemental y fundamental, el ejemplo que todo el mundo entiende. Bien, pues mucha
gente había probado suerte con ella y nadie lo había conseguido. Hay que aceptar que
no todo puede ser demostrado elegantemente en cinco líneas. Hay que acostumbrarse a
la idea de que ciertas conjeturas requieren una demostración larga y farragosa, y hay
que acostumbrarse a creer en ellas cuando se comprueba que son correctas. La intuición
de que las cosas deben simplificarse es falsa en muchas ocasiones. Aunque, claro, esta
afirmación no deja de ser una intuición mía que también puede ser falsa a su vez. He
tenido la fortuna de acertar bastantes veces, pero no sería la primera vez.
Ramón Margalef: La biología acepta muchas veces la física como punto de partida.
Los sistemas fundamentales de la física (átomos, partículas elementales, etc.) se toman
adecuadamente como material para describir la vida. Pero el mundo de la vida en
continuidad con el mundo de la física no es más que un problema, me parece a mí, de
información y organización. Se podría llegar a un resultado parecido sustituyendo este
material por otro o, simplemente, sustituyéndolo por simples símbolos o piezas de
construcción de una especie de superestructura. Antes se ha manifestado la sospecha de
que la física podría quedarse pronto sin asuntos fundamentales que estudiar. En
biología, en cambio, quedan aún muchas cosas que no entendemos, pero todas esas
cosas tienen siempre relación con tal superestructura. La célula, por ejemplo, no es un
saco de enzimas, y su peculiar y precisa organización todavía se nos escapa en gran
parte. El desarrollo del organismo tampoco está claro en muchos aspectos. Poca cosa
sabemos de la memoria que usamos cada día.

Queda mucha investigación por delante. Pero en las listas de cosas fundamentales
de la ciencia aún pendientes no suele aparecer todavía la cuestión que he apuntado esta
mañana: el aumento de la complejidad, la memoria, la organización, la información o
como quiera llamarse, pero no en el mismo punto sino en tomo a otro que ya disfruta de
cierta riqueza en la estructura. Este hecho no creo que contenga ningún principio ajeno
a la física. El funcionamiento de sistemas que no están totalmente conectados entre sí
viene dado simplemente por la cuantificación, esa tendencia de la vida a formar
unidades discontinuas. Estas unidades son elementos introductores de indeterminación
en cosas tan fundamentales como la covariancia de la distribución de la energía puesta
en juego. La biología tiene mucho trabajo por hacer, pero buena parte de este trabajo es
a compartir con otros dominios dedicados a sistemas no vivos de distinto grado de
organización, en los que también se producen intercambios de información. Las técnicas
de simulación pueden ayudar mucho en estos temas, sobre todo si no nos limitamos al
universo matemático habitual de los ordenadores e introducimos restricciones y
componentes de tipo histórico como las que he mencionado en mi intervención esta
mañana. Hay un autor japonés, Matsuno, que asegura (un poco exageradamente) que la
evolución de la materia no es más que la restricción de las condiciones de cambio que se
dan en la propia materia. Es lo que ocurre cuando la información aumenta tanto que
llega a molestar a la propia información (una estructura tan complicada que pierde
movilidad). Por cierto, yo no diría que un sistema es más que la suma de sus partes
sino, en todo caso, menos. Porque cada parte encuentra, al entrar en un sistema dado,
que hay nuevas restricciones a sus posibilidades de cambio. En tales casos lo que hay
que buscar son regularidades que den idea de una eventual estructura superior.

Josep M. Pons: Un comentario sobre este tema del Todo, las Partes y su Suma. Creo que
el concepto Suma es muy delicado. Uno puede caer en la tentación de usar el término en
un sentido trivial. El Todo no es efectivamente la Suma de las Partes si nos olvidamos de
considerar la estructura que damos a las partes para formar el Todo. Me parece que la
aspiración reduccionista en este caso es disponer o encontrar las Leyes de Interacción que
den cuenta de esta estructuración. Si se hace tal cosa no hay inconveniente en afirmar
que el todo es la suma de las partes. La situación es dramática cuando queremos
conectar distintos niveles de organización. En física hemos fracasado o bien en la
descripción de la dinámica microscópica, o bien en la no consideración de las
condiciones iniciales. Pero la posición reduccionista me sigue pareciendo válida como
método, por lo menos es mejor que nada.

Carles Ulises Moulines: Estoy de acuerdo con el Dr. Pons, pero añadiría, a modo de
Gedanken Experiment, que quizá resulte útil no sólo la reducción de arriba abajo sino
también de abajo arriba. Cuando se piensa en la unificación de las teorías y en los
fundamentos últimos siempre hay un prejuicio: la búsqueda de un par de leyes
generales que lo expliquen todo. Es la idea de cosas grandes que siempre acaban siendo
explicadas por cosas muy pequeñas. Una buena terapia conceptual consiste en
considerar la idea inversa. Ya se ha hecho otras veces. Pienso en la propuesta, hace un
siglo más o menos, de Ostwald. Este autor propuso la llamada Energética como la
expresión final de la física, la química y la biología. Estaba convencido de que todo sería
finalmente reducible a una especie de superteoría supermacroscópica y
fenomenológica. Durante muchos años estuvo intentando convencer a la ciencia de ello
y, que yo sepa, nadie se molestó en refutarle. Independientemente del mérito de esta
idea, el poco caso que le hicieron se debió, sobre todo, a esta especie de prejuicio
psicológico que, desde Newton, nos empuja a reducir lo grande a lo pequeño. En
principio no creo que haya ningún tipo de prioridad metafísica de una tendencia sobre
la otra.

Josep M. Pons: Me temo que la versión corpuscularista del método reduccionista no


cambiará nunca. ¿Cómo imaginarse otra cosa?

Josep María Parra: Quería hacer un comentario sobre este tema tan querido del
profesor Wagensberg como es la introducción del concepto de información en el mundo
de las leyes de la naturaleza. Hasta ahora los intentos se han limitado mucho al uso del
análogo termodinámico, la entropía de Shannon o la de Boltzmann, y eso es
seguramente una idea demasiado restrictiva que no puede dar cuenta de los fenómenos
más trascendentes. Es fácil llegar a la conclusión, por ejemplo en biología, que una
secuencia de DNA operativa necesita el mismo número de bits para ser descrita que otra
que no lo es en absoluto. Se trata del aspecto a veces llamado semántico. Otro ejemplo
que viene muy bien aquí es el de las figuras de los objetos fractales. ¿Cuál es la
información contenida en un fractal z = z2 + c? Si c = 4/3, entonces la información es
igual a dos bits, los necesarios para describir 4/3; pero si es n (3,14159…) entonces la
información es evidentemente infinita. Una imagen quizá valga más que mil palabras,
pero en el caso de c = 4/3 con sólo dos bits y la idea de duplicación (una idea por cierto
fundamental en biología) podemos generar toda esa maravilla artística que nos ha
mostrado el profesor Mandelbrot. Ese es creo el camino: información sí, pero no de una
manera reduccionista sino acompañada de otras ideas como las de la iteración o la
simulación. En este sentido comprendo la insistencia del Dr. Wagensberg sobre el
replanteamiento de tantas cuestiones de base en sistemas complejos.

Benoît Mandelbrot: Existe toda una teoría de la complejidad de Chaitin y Kolmogorov


que intenta aplicar ideas de este tipo. La primera vez que la leí tuve un auténtico
conflicto. Por un lado me pareció muy ingeniosa, y por otro no podía creer que fuese
cierta. El conflicto me parece hoy resuelto: sencillamente no tiene sentido. La
complicación de todas estas cosas es casi cero, es ridículo. En este sentido las teorías de
la complicación son maravillosas teorías refutadas y negadas por unas pocas y bellas
imágenes. Las teorías más fascinantes se derrumban a veces por pocos hechos. Pasa
cada día.

Alberto Cardín: Cuando se habla de la unificación de teorías con la idea de construir


unas pocas leyes que expliquen toda la realidad y se incluye en ello el dominio de las
ciencias sociales, ¿se aborda únicamente la infraestructura biológica o también la
cultura? Y si se incluye también la cultura, ¿se hace sólo en forma de leyes generales de
la mente occidental (como he creído entender de las palabras del profesor Hofstadter)?
Porque parece que la materialidad de las culturas humanas consiste justamente en la
diferencia de la organización de su percepción del mundo que puede incluso redundar
en una organización distinta del cerebro. Quizás el profesor Okubo podría decirnos
alguna cosa, puesto que dicen que los japoneses tienen el cerebro lateralizado de una
forma distinta a la de los occidentales.

Akira Okubo: El cerebro de los seres humanos es esencialmente el mismo. Pero


permítame un comentario sobre las teorías predictivas en las ciencias de la naturaleza
en contraste con las teorías predictivas en las ciencias humanas. Hay una diferencia
sustancial que afecta precisamente a la información: en las ciencias humanas la
información afecta a la propia información de una manera que no ocurre nunca en la
física. Una predicción en economía afecta, cuando se hace pública, a la propia
predicción. Si en política alguien predice una revolución, está claro que pondrá en
marcha una serie de mecanismos que no aparecerían sin tal predicción. Es como aquel
químico que estaba trabajando con mucho esfuerzo por encontrar una solución que
disolviera absolutamente cualquier sustancia, pero no le sirvió de nada encontrarla
porque no había, por definición, recipiente alguno que pudiera contenerla.
Indice onomástico
Adorno, Theodor W.

Alexander, James Waddell

Amaldi, Ugo

Aquiles

Aristóteles

Auerbach

Bach, Johann Sebastian

Basri, Saúl

Batchelor, G. K.

Beatles, The

Beethoven, Ludwig van

Berg, Alban

Bohr, Niels

Boltzmann, Ludwig

Bom, Max

Bowden, K. F.

Bowman, M. J.

Boya, Joaquín

Boya, Luis

Brahms, Johannes
Bridgman, Percy Williams

Broglie, Louis de

Cantor, George

Cardín, Alberto

Carnap, Rudolf

Castells, Francesc

Chaitin

Clark, John

Comte, Auguste

Dalí, Salvador

Darwin, Charles

Demócrito

Devaney, R. L.

Dirac, Paul A.

Einstein, Albert

Elizalde, Emilio

Elkana, Y.

Epiménides

Escher, Maurits Cornelius

Euclides

Fermat, Pierre de
Feynmann, Richard

Fourier, Joseph

Frege, Gottlob

Frish, U.

Gardner, Martin

Garrido, Luis M.

Giles, R.

Ginsberg, Lev

Gódel, Kurt

Gold, Tom

Goodman, Nelson

Goya, Francisco

Haeckel, Ernst

Haken, Hermann

Hamilton

Hausdorff, Félix

Hawkings, Stephen

Heisenberg, Wemer K.

Helmholtz, Hermann L.

Hermán, R.

Hesper, B.
Hilbert, David

Hofstadter, Douglas

Hogeweg, P.

Janich, Peter

Jou, David

Kekulé

Kerner, E. H.

Kierstead, H.

Kolmogorov, Andréi N.

Krantz, D. H.

Kronecker, Leopold

Kuhn, Thomas

Lagrange, Louis

Langmuir, Irving

Laplace, Pierre Simon

Levin, S. A.

Lévy, Paul

Lévy-Strauss, C.

Lianupov, M. A.

Linneo

Lorenzen, P.
Lotka, Alfred J.

Luce, R. D.

Ludwig, Günther

Llull, Raimon

Mackas D. L.

Mandelbrot, Benoît

Margalef, Ramón

Martínez Alier, Joan

Matsuno, K.

Mende, W.

Mitchell, J. G.

Montague, Richard

Mosterín, Jesús

Moulines, Carles Ulises

Mozart, W. A.

Navarro, Luis

Newton, Isaac

Nicolis, C.

Nicolis, G.

Occam, Guillermo de

Okubo, Akira
Onsager, Lars

Ortega y Gasset, J.

Ostwald, Wildhem

Paniker, Salvador

Parra, Josep M.

Peano, Giuseppe

Peikgen, H. O.

Peschel, M.

Picasso, Pablo

Pons, Josep M

Popper, Karl R.

Prevosti, Antoni

Prigogine, Ilya

Przelecki

Reagan, Ronald

Reynolds, Osbome

Richardson, Owen W.

Richter, P. H.

Riemann, Bernhard

Rulfo, Juan

Saffnam, P. G.
Saupe, D.

Schródinger, Erwin

Scudo, F.

Segel, L. A.

Shannon

Sierpinski, Waclaw

Skellam, J. G.

Slobodkin, L. B.

Smith, Maynard

Sneed, Joseph

Spengler, Oswald

Suppes, Patrick

Taylor, G. A.

Turing, A. M.

Tversky, A.

Van Fraassen

Van Gogh, Vincent

Velázquez, Diego de

Von Koch, Helge

Von Neumann, John

Voss, Richard
Wagensberg, Jorge

Walter, C.

Wannier, Gregory

Weierstrass, Karl

Weissberg

Weizsacker, C. F.

Wiennet, Norbert

Wigner, Eugene

Wojcicki

Woods, J. D.

Wright (hermanos)

Wunderlin, Arne

Zenón

Zhabotinsky
BENOÎT MANDELBROT (Varsovia, Polonia, 20 de noviembre de 1924 - Cambridge,
Massachusetts, Estados Unidos, 14 de octubre de 2010). Está considerado uno de los
matemáticos más importantes de nuestro tiempo y ha desarrollado su trabajo en
numerosos campos de la ciencia y el arte. Desde 1987 es profesor de matemáticas en la
Universidad de Yale; también ha trabajado como investigador para los laboratorios de
IBM en Nueva York, ciudad donde vive en la actualidad. Es miembro de la Academia
Americana de Artes y Ciencias. Ha obtenido numerosos premios, como el Japan Prize
de Ciencia y Tecnología y el Wolf Prize de física. Comenzó a interesarse por el mundo
de las finanzas en el año 1960, y también en este terreno ha terminado haciendo
aportaciones fundamentales. En 2004, Fractales y finanzas fue elegido el mejor libro de
economía del año por la versión alemana del Financial Times.

Obras: The fractal geometry of nature 1982, The science of fractal images, 1988 Fractals and
scaling in finance 1997, Multifractals and 1-f noise 1999, Fractales y finanzas, 2004.
HERMANN HAKEN (12 de julio de 1927, Leipzig, Alemania). Es un físico teórico
alemán que trabaja como profesor emérito en la Universidad de Stuttgart. Es uno de los
fundadores de la teoría de la sinergética (synergetics). Tras sus estudios de matemáticas
y física en Halle (Saale) y Erlangen, recibe su Ph. D. en matemáticas en la Universidad
de Erlangen y posteriormente en algunas universidades de Estados Unidos. Sus
investigaciones iniciales fueron sobre Óptica no lineal. Sus investigaciones en la mejora
del láser hicieron que el profesor Theodore Maiman en mayo de 1960 construyera el
primer láser experimental fundamentado en las teorías del termodinámica del no
equilibrio. Estas investigaciones dieron lugar a un conocimiento de mejor de la
autoorganización de los sistemas físicos. En 1990 recibe la Medalla Max Planck.

Obras: Brain Dynamics: synchronization and activity dynamics in pulse-coupled neural nets
with delay and noise, Springer Verlag 2007 (Springer Series in Synergetics) Synergetic
computers and cognition: a top down approach to neural nets, Springer, 1991, 2. Auflage 2004
Molekülphysik und Quantenchemie – Einführung in die theoretischen und experimentellen
Grundlagen, Springer 1992, 5. Auflage 2006 Atom -und Quantenphysik: Einführung in die
experimentellen und theoretischen Grundlagen, Springer, 1980, 8. Auflage 2004 (englische
Ausgabe 1984) Information and Self-Organization: a macroscopic approach to complex
systems, Springer, 3. Auflage 2006 (Springer Series in Synergetics) mit Günther Schiepek:
Synergetik in der Psychologie: Selbstorganisation verstehen und gestalten, Göttingen, Hogrefe
2006.
DOUGLAS RICHARD HOFSTADTER (15 de febrero de 1945) es un científico, filósofo y
académico estadounidense, conocido sobre todo por su libro Gödel, Escher, Bach: un
eterno y grácil bucle (Gödel, Escher, Bach: an Eternal Golden Braid, abreviado GEB),
que se publicó en 1979 y que ganó el Premio Pulitzer de ensayo en 1980.

Obras: Yo soy un extraño bucle 2008, The Mind’s I: Fantasies and Reflections on Self and Soul
(1981), Metamagical Themas 1985.
RAMÓN MARGALEF LÓPEZ (Barcelona, 16 de mayo de 1919-ibídem, 23 de mayo de
2004) fue un limnólogo, oceanógrafo y ecólogo español. Fue el primer catedrático de
Ecología en España y, junto con Bernáldez, el refundador de esta disciplina en el país.
Entre sus trabajos, destacan la aplicación de la teoría de la información a los estudios
ecológicos, y la creación de modelos matemáticos para el estudio de las poblaciones.

Obras: Margalef, R. (1960). «Ideas for a synthetic approach to the ecology of running
waters». Int. Rev. ges. Hydrobiol. (45): 133-153. Margalef, Ramón (1962). Comunidades
naturales. Mayagüez: Instituto de Biología Marina de la Universidad de Puerto Rico. p.
469. Margalef R. 1963. On certain unifying principles in ecology. Am. Nat., 97: 357-374.
Margalef, Ramón (1968). Perspectivas en teoría ecológica. Margalef, Ramón (1974).
Ecología. Barcelona: Omega. Margalef, R.; Planas, M. D.; Armengol, J.; Vidal, A.; Prat, N.;
Guisset, A.; Toja, J.; Estrada, M. (1976). Limnología de los embalses españoles. Madrid:
Dirección General de Obras Hidráulicas. Margalef R. 1978. Life-forms of phytoplankton as
survival alternatives in an unstable environment. Oceanol. Acta 1: 493-509. Margalef, Ramón
(1980). La biosfera entre la termodinámica y el juego. Barcelona: Omega. p. 236. Margalef,
Ramón (1982). Limnología. Barcelona: Omega. Margalef R. 1992. Planeta azul, planeta
verde. Prensa Científica SA. Barcelona. 265 pp. Margalef R. 1994. Limnology now: a
paradigm of planetary problems. Elsevier, Ámsterdam. Margalef R. 1997. Our biosphere.
Ecology Institute, Oldendorf.
CARLOS ULISES MOULINES (Caracas, 1946) es un filósofo especializado en lógica y
filosofía de la ciencia. Su pensamiento sobre epistemología puede encuadrarse dentro
de la filosofía de la ciencia estructuralista.

Obras: La estructura del mundo sensible. Sistemas fenomenalistas, Barcelona, Ariel, 1973. Zur
logischen Rekonstruktion der Thermodynamik, Universität München, Múnich, 1975.
Fundamentos de filosofía de la ciencia, Barcelona, Ariel, 2008 (3.ª ed.) En colaboración con J.
A. Díez. La philosophie des sciences. L´invention d’une discipline (fin XIXe-debut XXIe siècle).
París: Éditions Rue d´Ulm /Press de l’École normale supérieure, 2006.
AKIRA OKUBO (1925-1996) Se graduó como ingeniero en 1947 y del máster en Química
física en 1949 en el Tokyo Institute of Technology. Luego, tuvo el encargo de jefe la
sección oceanográfica química de la oficina meteorológica de Tokio de 1950 a 1960. En
1959 empezó a realizar su doctorado en Estados Unidos en Chesapeake Bay Institute
(CBl) de la Johns Hopkins University en Baltimore bajo la dirección de Donald
Pritchard Akira y en 1963 lo terminó. Y siguió trabajando en el CBI hasta 1974 cuando
fue nombrado como profesor de ecología matemática de Marine Sciences Research
Center.

Obras: Diffusion and ecological problems: mathematical models 1980,


ARNE WUNDERLIN (1947-marzo de 2012). Profesor de la Universidad de Sttugart,
Institut für Theoretische Physik.

Obras: Synergetik: Eine Einführung. Nichtgleichgewichts Phasenübergänge Und


Selbstorganisation In Physik, Chemie Und Biologie, 1973. Lasers and Synergetics: A
Colloquium on Coherence and Self-Organization in Nature, 1987. Evolution of Dynamical
Structures in Complex Systems: Proceedings of the International Symposium Stuttgart,
July 16 17, 1992, Die Selbststrukturierung Der Materie: Synergetik in Der Unbelebten Welt,
1991. Die Selbststrukturierung der Materie, Evolution of Dynamical Structures in Complex
Systems, 1992. Lasers and Synergetics, Evolution of Dynamical Structures in Complex Systems
Notas
[*] En preparación, Tusquets Editores. <<

También podría gustarte