100% encontró este documento útil (1 voto)
44 vistas199 páginas

Ensayos de Epistemolog A VF 2

Este documento presenta tres resúmenes en menos de 3 oraciones cada uno: 1. El documento es una compilación de ensayos sobre epistemología contemporánea editada por Zenobio Saldivia M. Incluye agradecimientos, una introducción y varios ensayos de diferentes autores sobre temas epistemológicos. 2. El primer ensayo realiza una distinción entre conocimiento simple y conocimiento complejo, señalando que actualmente el conocimiento implica una relación discursiva entre conceptos vinculada a la experiencia y al contexto

Cargado por

Luis Segura Ante
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
100% encontró este documento útil (1 voto)
44 vistas199 páginas

Ensayos de Epistemolog A VF 2

Este documento presenta tres resúmenes en menos de 3 oraciones cada uno: 1. El documento es una compilación de ensayos sobre epistemología contemporánea editada por Zenobio Saldivia M. Incluye agradecimientos, una introducción y varios ensayos de diferentes autores sobre temas epistemológicos. 2. El primer ensayo realiza una distinción entre conocimiento simple y conocimiento complejo, señalando que actualmente el conocimiento implica una relación discursiva entre conceptos vinculada a la experiencia y al contexto

Cargado por

Luis Segura Ante
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 199

ENSAYOS DE EPISTEMOLOGÍA

CONTEMPORÁNEA

Zenobio Saldivia Maldonado

(Compilador)
Se prohíbe cualquier tipo de reproducción total o parcial. Ninguna parte
de este libro puede ser reproducida, transmitida o almacenada sin la
autorización expresa del autor. Se autorizan citas en revistas, diarios o
libros, siempre que se mencione la fuente.

Ensayos de Epistemología Contemporánea

© Zenobio Saldivia M. (Compilador)


Edición al cuidado de Paola Aceituno O.

Primera Edición 2011


Registro de Propiedad Intelectual Nº 211330, Stgo. Chile.
I.S.B.N. 978-956-307-052-1

Se terminó de imprimir en el
Mes de Diciembre 2011

Impreso en Chile/Printed in Chile


Dedicatoria:

A mi hijo Eduardo Alfonso Saldivia Saá,


distinguido juez de la República de Chile, con
mis mejores deseos de éxito en sus delicadas
funciones y que su Oriente sea siempre la
transparencia y la probidad.

Zenobio Saldivia M.
ÍNDICE

Agradecimientos…………………………………………………………………….6

Introducción………………………………………………………………………….7

Del conocimiento simple al conocimiento complejo y su impacto en el


diseño.
Zenobio Saldivia M……………………………………………………….………….9

La metodología de las Ciencias Sociales de Friedrich Hayek y su


relación la filosofía de Karl Popper
José F. Martínez S………………………………………………………………….19

Biología teórica y filosofía, la tesis de S. Kauffman


Carlos E. Maldonado……………………………………………………….……..44

Principales paradigmas que han marcado la evolución de las ciencias


Zenobio Saldivia M.…………………..……………………………………………55

Ambientes virtuais para a educação como ferramenta de estudo de


estrategias metacognitivas
Jerônimo Freire, Givanaldo Rocha, Arnon Andrade…………………………75

La Prospectiva: ¿Un nuevo paradigma en las Políticas Públicas?


Paola Aceituno O……………..…………………………………………………….85
La Ciencia Según Imre Lakatos y Thomas Kuhn
Juan C. Medina…...………………….……………………………………………99

Cometido de los valores económicos en las tecnologias de la información


y la comunicación. Reflexiones sobre el caso de internet
Paula Neira P..................………………………………………..……………132

La interdisciplinariedad, método holístico cognoscitivo


Zenobio Saldivia M.………………………………………………………………155

Epistemología de la ciencia jurídica enfrentada con el espejo


Paúl Hinojosa C…………………………………………………………………166

Necesidad de un marco epistémico y nuevos planteamientos para la


enseñanza de la matemática
Carlos Silva C……………………………………………………………………188
AGRADECIMIENTOS

Para el investigador y compilador del presente ensayo, que el lector


tiene entre sus manos, es un grato deber reconocer la cooperación y la
ayuda de muchos colegas y profesionales de Chile y de otros países, que
han hecho posible materializar esta iniciativa. Así, partiendo desde
Chile, quedo en deuda en primer lugar con la maestra en Ciencia
Política, Paola Aceituno O., de la ciudad de Santiago, quien ha tenido a
su cargo la pesada tarea de ordenar, diagramar y revisar los distintos
ensayos para homologar aspectos formales y estéticos. También
agradezco al Dr. Paul Hinojosa Carrillo, de la Universidad Nacional de
San Agustín, Perú, por sus oportunas sugerencias.
Y no menos importante es el aporte realizado por el investigador en
temas de epistemología Jesús Antonio Ramírez V., Presidente del Grupo
de Investigaciones Filosóficas Diaporein, Lima, Perú, por sus gestiones
para hacer llegar algunos trabajos de prestigiosos colegas estudiosos de
la epistemología. Y por supuesto quedamos complacidos con el aporte
de los autores que nos hicieron llegar sus ensayos y que con sus ideas
le dan vida a este trabajo: Juan C. Medina y Carlos Silva C., ambos de
la Universidad de Playa Ancha de Ciencias de la Educación, Valparaíso,
Chile; Carlos Eduardo Maldonado, Universidad del Rosario, Colombia;
José F. Martínez S., University College London, Londres, Inglaterra;
Paola Aceituno O., Universidad Tecnológica Metropolitana, Santiago,
Chile; Jerônimo Freire, Universida de Potiguar, Brasil, Givanaldo
Rocha, Universida de Federal do Rio Grande do Norte, Brasil, Arnon
Andrade, Universida de Federal do Rio Grande do Norte, Brasil, Paola
Neira P., Universidad de Santiago de Compostela, España.

El compilador

Santiago Chile, 2011


INTRODUCCIÓN

En la actualidad la epistemología ha trascendido el ámbito puramente


académico en la cual era tradicional estudiarla y desarrollarla. Hoy, las
principales tendencias de esta ciencia, las encontramos también con
mucha fuerza en el ámbito educacional, en los estudios estratégicos,
comunicacionales, políticos e interculturales y en el universo
empresarial. La noción clásica que se difundía hasta unas décadas
atrás en el siglo XX, asociada casi únicamente a la filosofía, ha dado
paso a una percepción de la epistemología profesional -al decir de
Bunge- como un corpus o como una herramienta disciplinaria
coadyuvante para las distintas áreas del saber y/o de cometidos
profesionales. Por ello, hoy es frecuente hablar de epistemología
latinoamericana, de epistemología para las neurociencias, para las
ciencias de la vida o para la enseñanza de las ciencias, o de
epistemología del diseño, de la ciencia criminalística, o de las ciencias
normativas, así como de una eventual epistemología de la prospectiva;
en fin.

Justamente, el presente ensayo pretende mostrar algunos de los nuevos


abordajes epistémicos y sus implicancias en el marco social en general,
de la epistemología contemporánea. Así, aquí se abordan trabajos
vinculados a problemas epistémicos del derecho, del diseño, de la
prospectiva; junto a reflexiones de destacados colegas sobre el aporte de
algunos epistemólogos como Popper, Lakatos, Kuhn y otros, amén de
las diversas características y tendencias clásicas de la epistemología.
Es de esperar por tanto, que estos tópicos que aluden a una
epistemología de nuevo cuño, motiven al lector a comprender mejor la
característica esencial de la epistemología que no es otra que el estudio
de la génesis y desarrollo del conocimiento científico, el análisis de las
condiciones de validez del conocimiento científico, y/o la explicitación
de las razones que permiten aceptar la objetividad de tal o cual
explicación disciplinaria. En rigor, es de esperar que el lector visualice
claramente que a la epistemología contemporánea, le interesa cubrir un
estudio lo más completo posible sobre los distintos ámbitos del
conocimiento científico. Esto es, el ámbito del descubrimiento científico
y el ámbito de la justificación o explicación científica. Es por eso
seguramente el éxito que ha alcanzado esta disciplina de raigambre
filosófica, y de allí emana el impacto de la misma en nuestro tiempo y
su impresionante expansión a diversas y nuevas áreas del saber,
muchas de las cuales, antes jamás habían sido pensadas. Y puesto que
hoy la ciencia y sus aplicaciones se han adueñado de nuestro orden
tecnológico social imperante, resulta muy oportuno, comprender lo
medular de aquello que le ha dado el punto de partida: el conocimiento
científico.

El autor compilador

Santiago, Chile, Noviembre del 2011.


DEL CONOCIMIENTO SIMPLE AL CONOCIMIENTO
COMPLEJO Y SU IMPACTO EN EL DISEÑO

Zenobio Saldivia M.*

En torno al conocimiento

Generalmente el conocimiento es entendido como una forma de


aprehensión de la realidad o de una parte de ella, es una captación y
una elaboración abstracta de datos o de información sobre los hechos
del mundo por parte de un sujeto. Es el enfoque tradicional, en el cual,
tanto el sujeto como el objeto, están en un marco confrontacional y
cuya raigambre descansa en los albores de la Teoría del Conocimiento
Clásica. Actualmente sabemos que no se agota en la captación
intelectual de un sujeto, sino que es acción y transformación del mundo
y del propio sujeto. Posee una estructura y requiere de una elaboración
de relaciones semánticas entre nociones abstractas que pretenden dar
cuenta de algo, de algún suceso, de algún acaecimiento o de algún
proceso acotado, o de una realidad o vivencia personal. El
conocimiento consiste en distinguir, en captar o en visualizar un
entorno específico, e implica niveles de una lógica interpretativa u
operativa. Justamente, Michel Foucault, deja de manifiesto que el
hecho de conocer es equivalente a revelar un sistema de semejanzas
entre las cosas que haga posible destacar sus similitudes con otras. Y
para ello es inevitable la utilización de un conjunto de signos.1 Así, el
conocimiento, en tanto implica una relación discursiva y/o semántica
entre conceptos, está vinculado a la experiencia del propio sujeto y a un
contexto histórico y cultural. No puede obviar dicha condición puesto
que es una construcción social.

*
Doctor en Historia de las Ciencias, Universidad Tecnológica Metropolitana, Santiago,
Chile.
La cuestión del conocimiento simple y el conocimiento complejo

Actualmente, los antiguos esquemas del conocimiento como una


facultad puramente humana que refleja la realidad, o como un acopio
meramente informativo, han quedado obsoletas. Entre los trabajos que
contribuyeron a esta nueva forma de entender la cognición, figuran con
toda seguridad, las explicaciones etológicas de Konrad Lorenz en los
años cincuenta, los enfoques estructuralistas, la Teoría de Sistemas y
la labor de los epistemólogos de los años sesenta y setenta del Siglo XX,
tales como Jean Piaget, Francisco Varela y otros. Así como también las
explicaciones provenientes de las nuevas disciplinas interesadas
actualmente en estudiar la evolución cognitiva, como por ejemplo la
biología, tal como lo manifiestan los trabajos de autores como los del
zoólogo austriaco Riedl, o los del biólogo chileno Maturana. También la
sociología contemporánea, especialmente la sociología del conocimiento,
está muy interesada en el tema; por ejemplo recuérdese la publicación
de autores como Berger y Luckmann: La construcción social de la
realidad.2
Todo lo cual, ha permitido entender el conocimiento como una
propiedad de todos los exponentes del mundo orgánico. Con razón para
Varela por ejemplo, el estudio del conocimiento requiere previamente
comprender el acto de vivir que lo hace posible, o donde se hace posible
el conocimiento.3 Por tanto, desde la perspectiva de la epistemología
contemporánea, la cuestión del conocimiento es el núcleo de diversas
posiciones y tendencias; pero lo que trasunta de todas ellas, es que el
conocimiento es una “creencia verdadera justificada”.4 Y esta creencia,
o consenso sobre tal o cual realidad peculiar, se ha vuelto cada vez más
complejo, se han determinado mejor sus variables, y se ha hecho
múltiple y dialéctico. Por ello, es frecuente hoy hablar de conocimiento
complejo, como para hacer constar que el conocimiento ha sufrido una
mutación interpretativa, y que se está plenamente consciente de la
diversidad de sus aristas y de sus fases y componentes, y que en rigor,
se entiende más bien, como un proceso enmarcado en una concepción
epistemológica que concilie lo antropológico, con lo biológico, con la
genética, la etología y las ciencias de la cultura en general.5
Y que por tanto, lo que existe hoy no es la idea del conocimiento a
secas, sino más bien el conocimiento complejo. Esto es, un proceso
cognitivo de interpretación y transformación del individuo y del medio,
que puede ir desde un esfuerzo operativo propio de los exponentes de
las ciencias de la vida, hasta la búsqueda y comprensión de la lógica
dominante en una organización social o productiva.6
Ahora, aplicado esto al diseño como profesión, y más específicamente al
paso de un conocimiento relativamente burdo a uno más complejo, esto
significaría en lo más consistente de una reflexión de esta naturaleza;
que el diseño como profesión habría hecho un giro en su praxis, dejando
atrás el apego a un paradigma estándar y analítico lineal y puramente
operativa o conductista propio de los albores de su consolidación social,
en los años cincuenta y sesenta del Siglo XX, y se habría desplazado
hacia una praxis con nuevos y más agentes demandantes, tal como se
observa en la actualidad. Es decir, de una etapa en que al diseño le
interesan esencialmente dos temas: su inserción social como un nuevo
gremio de especialistas, y su nivel de satisfacer los primeros
requerimientos provenientes de algunos agentes sociales relevantes, o
entidades gubernativas o los primeros y audaces y esperanzados
clientes. Esta faceta del desarrollo del diseño, por tanto; sería
cronológicamente equivalente a la etapa del empleo de un conocimiento
simple, elemental, que permite a los diseñadores satisfacer los primeros
requerimientos corporativos, industriales, o los provenientes del marco
social en general, aún no muy bien perfilados por los propios
diseñadores todavía sólo del Hemisferio Norte. Es una fase de ensayo y
error, de tanteos y de carencia de un marco teórico disciplinario fuerte,
o cuando menos, de una debilidad en cuanto a teorías del diseño.
El conocimiento complejo

En cambio, al hablar de una noción de conocimiento complejo, nos


situamos de hecho en la temática de las argumentaciones
epistemológicas contemporáneas de Piaget, Maturana, Morin, Kuhn,
Lakatos y otros; quienes en su conjunto, han dejado de manifiesto que
el conocimiento científico no se agota ni en la percepción individual ni
en resultado observable, ni que tampoco es una mera continuidad lineal
y sistemática como lo destaca Kuhn, al instaurar sus nociones de
“paradigma” y de “revolución científica”; ni que tampoco es algo alejado
de las entidades supracientíficas o gubernativas, tal como lo entiende
Lakatos. Y por cierto, y tal vez lo más relevante en este caso, tampoco es
un mero resultado unilateral y unidireccional, tal como lo ha planteado
Morin, en muchas de sus obras. Todo lo cual, deja de manifiesto, que el
conocimiento complejo apunta a la obtención de un pensamiento con
matices físico, antropológico, filosófico y ecológico, que dé cuenta de la
realidad y de la experiencia humana de dicho proceso.
En rigor, el conocimiento complejo en el diseño, por tanto; alude al
proceso de manejar una nueva racionalidad teórico-práctica, que
considere la interacción individuo-medio, y que en conjunto con las
nuevas variables emergentes, tales como: las exigencias de una Ecología
Humana, la adecuación dinámica y oportuna entre el mercado y las
currícula, la necesidad de enfrentar una educación con falencias, los
caminos para satisfacer la revolución de las expectativas y considerar el
impacto de las tecnologías de la información, entre otras, tal como ya lo
ha destacado Larraguibel;7 muestran que el conocimiento complejo, es
un proceso que descansa en una racionalidad incrementante, que
considera al objeto y al investigador en el dinamismo del proceso, y que
incluye márgenes de falibilidad. Así, esta nota agregada de “complejo”,
al conocimiento, entonces, refleja una etapa de madurez y de una
mayor autocrítica del proceso de aprehensión cognitiva, puesto que ha
dejado atrás la idea de una simplicidad mecánica y de una implícita
superioridad del sujeto en el proceso cognitivo. El conocimiento
complejo requiere de una semántica y posibilita la construcción de un
metalenguaje que permita el análisis de sus propios criterios de
confiabilidad.
En cierta manera ya hemos abordado las características del
conocimiento complejo, al tratar en otra ocasión las relaciones entre el
diseño y la epistemología, por ejemplo en el ensayo: “Epistemología,
Progreso y Diseño”, donde además analizamos las notas relevantes del
fenómeno del conocer desde las perspectivas epistemológicas
contemporáneas llevadas al diseño.8 Por tanto, lo que cabe en esta
ocasión es dilucidar ¿cómo sería la percepción del fenómeno de la
adquisición cognitiva, en su acepción contemporánea pero llevado al
campo del diseño; esto es, como un proceso complicado y diverso, como
una “creencia verdadera justificada”, en el universo profesional y
académico del diseño.

Diseño, nuevos desafíos

Desde esta perspectiva, entonces, los diseñadores, estarían trabajando


con una noción de conocimiento complejo, al desenvolverse dentro de
una praxis peculiar que se asiente al menos en cuatro ejes de poiesis
efectiva: el mundo académico, la presencia social, la obtención de un
modelo de producción expansivo y no depredador del medio, y la
participación exitosa en el proceso de globalización económica y
política.
Para lo primero, por ejemplo, las tareas pertinentes propias del diseño
en el universo académico, pueden seguir dos vías complementarias.
Una de ellas es obviamente, continuar la docencia con estatuto
académico del diseño en América, iniciada en México en la Universidad
Iberoamericana, en 1957;9 pero ahora con más apoyo tecnológico y de
los medios de comunicación en general, y en concordancia con los
requerimientos de los agentes sociales que interactúan con los
profesionales del diseño. La otra labor propia del diseño en la
universidad es la de continuar con la teorización disciplinaria y la
búsqueda de explicaciones sistémicas que surjan desde la propia
disciplina del diseño y que intenten superar la atomización cultural;
esto es, un punto de articulación con la epistemología, y una instancia
de reflexión obligada, mediante un replanteamiento del diseño con los
conceptos de arte, ciencia y técnica. Esto, porque justamente los
exponentes del diseño, estiman que su quehacer involucra una
interacción con distintas disciplinas auxiliares o áreas del
conocimiento, pero que no se agota en ninguna de ellas.10 Lo anterior,
deja de manifiesto, la conveniencia de un acercamiento entre la
epistemología y el diseño; en efecto, un maridaje entre la epistemología
y el diseño, no es un camino teórico para el futuro, es una necesidad de
sobrevivencia académica de la disciplina y un camino para perfilar el
estatuto del diseño dentro del universo del acervo cognitivo
contemporáneo.
Desde esta perspectiva por tanto, es posible continuar con los esfuerzos
académicos para abrirse a disciplinas vecinas, para recibir así nuevos
conocimientos que el diseño por sí mismo no ha podido generar. En
rigor, el carril del trabajo del diseño en la Academia, puede continuar la
elucidación de sus propias carencias, sus nihil privativum al decir de
Kant.11 Por esto, hoy es frecuente escuchar la propuesta de los
diseñadores jóvenes de una apertura hacia las ciencias vinculadas a la
filosofía, a las ciencias sociales y al Humanismo en general. Por tanto,
la idea de interdisciplinaridad que se visualiza actualmente en el
diseño, sería conveniente que se transforme en una oportunidad para
fortalecer su corpus teórico, y no en una constante carencia de
identidad cognitiva. Esto es, que los diseñadores aprovechen la
interdisciplinariedad como instancia integradora y articuladora de su
historia social y académica, y no como una avalancha de tópicos
disociadores, provenientes de la diversidad del saber.
En cuanto al segundo eje de producción del diseño contemporáneo, lo
que se sugiere es que puesto que el diseño ya ha alcanzado una notoria
presencia social, entonces cabe revisar como ha sido esa conquista,
quienes lo han hecho posible y de qué manera. Nuestra percepción es
que tal presencia social se ha venido dando más bien de suyo por la
simple extensión del ejercicio profesional y la conveniencia de satisfacer
tal o cual requerimiento emergente. Pero tal vez, sea conveniente
replantear tales directrices de acción y ofrecer políticas de acción del
diseño con objetivos audaces de inserción social y masiva. Esto es, que
sean los diseñadores los que vayan dando más firmemente el perfil, o se
adelanten más a los clientes o solicitantes, insertos en determinados
estratos sociales.
En relación al tercer eje sostenedor de la acción del diseñador, y que
alude a un eventual modelo o paradigma que permita la expansión del
quehacer de estos profesionales, es más bien, una invitación a pensar
dentro del propio campo, si es posible encontrar una matriz operativa
que sea amigable con el medio, o si deben darse diversos modelos en
acción de acuerdo al empleo de sus materiales y al propósito de sus
funciones; o simplemente llegar a un consenso de que dicho criterio
ecológico y humanista, debe estar en la praxis del diseño e
internalizarlo formalmente, como parte de las reglas del juego. Un poco
análogo, mutatis mutandis, a lo que realizaron los diseñadores
finlandeses en los años cincuenta, identificados con un proyecto de
país y estimulados por una poderosa Asociación de Diseño Industrial,
con un ideario que apuntaba a la construcción de una imagen
internacional de Finlandia y a la búsqueda de un perfil de lo nacional.
Esquema de trabajo que se coronó de éxitos por sus logros en las
exposiciones internacionales de diseño. Y entre cuyos exponentes
figuraron Tapio Wirkkala, Timo Sarpaneva y Jack Franck, cuyos
productos de diseño “cincuenta años después continúan en producción
y gozan de una demanda constante”.12
Y en relación al eje denominado la participación exitosa en el proceso de
globalización económica y política, lo que se estima aquí, es un
imperativo de excelencia cognitiva. Es decir, alcanzar en las tareas del
diseño un exitismo que permita interactuar adecuadamente en los
procesos de globalización política-económica, y que al mismo tiempo
respete la diversidad y pluralidad de los usuarios, sus características y
diferencias antropológicas, étnicas y culturales, entre otras. Esto es,
que el diseño “haga señales” efectivas de inserción satisfactoria en la
sociedad no solo de los países desarrollados, sino de manera muy
especial, en aquellos países que están en vías de lograr dicho sitial; tal
como es el caso de Chile por ejemplo. Y justamente a este respecto, la
celebración del Bicentenario de la Independencia, fue una oportunidad
única, un desafío histórico para los profesionales del Diseño por la
enorme importancia de las obras en los cuales ellos pueden participar y
dejar una impronta identitaria para Chile y para América.

Globalización, diseño y el Chile del Bicentenario

Actualmente se habla mucho del fenómeno de la globalización y no


siempre se utiliza adecuadamente. Desde un punto de vista práctico y
funcional, podemos entender la globalización como una acepción que
alude a un fenómeno social político y cultural que atraviesa las esferas
de las disciplinas del conocimiento y de la interacción y de la praxis
humana general, y cuya nota más significativa es el impacto unificador
que generan los procesos político-económicos que acontecen en un
determinado lugar del mundo y su consecuencia inmediata en todos
los puntos del planeta. Así, lo que sucede en un país cualquiera
repercute en las economías y en los procesos sociales en cada uno de
los lugares del globo, con leves diferencias, según la mayor o menor
autonomía de cada país. Ello también afecta a las expresiones de la
cultura; de modo que la universalización de los cánones referentes a
movimientos sociales y culturales, se repiten contradictoriamente en los
distintos países; con la salvedad de que las réplicas de expansión liberal
económica a ultranza que lleva implícita la globalización, da pábulo
también para sus expresiones aisladas de rechazo, especialmente en los
países más desarrollados y en aquellos en que funciona mejor la
democracia; de manera que muchos grupos, etnias y sectores
marginados luchan por no perder su identidad; y otros son avasallados
por el avance del mercado y la tecnología. Es lo que la dialéctica
marxista en otra época tipificaría como: la unidad en la diversidad. Sólo
que ahora la fuerza parece radicar en la estandarización y en una
persistente y compleja diversidad social y cultural.
Si tuviéramos que sintetizar las características de este proceso, hay que
tener presente la universalización, la instantaneidad de las
comunicaciones, las sociedades en red, los acuerdos de libre comercio,
la generalización y expansión masificada de las ideas, modas y
actuaciones; y en especial la primacía del liberalismo económico, que
hace que todos los productos estén en todas partes para aquellos que
pueden alcanzarlos. En este contexto, la búsqueda de nuevas
expresiones cognitivas parece ser la tónica en tecnologías, en las
humanidades y especialmente en la literatura, lo que trae aparejado un
nuevo discurso que desde los márgenes se abre paso por sobre el
discurso tradicional. Este es el desafío para los exponentes de la
cultura, para los filósofos, para los humanistas, y en cuanto es el
actual marco de coexistencia y contemporaneidad, también debe
afectar a los diseñadores contemporáneos. Así, saber equilibrar su
producción, utilizar los resultados de su hacer social y académicamente
aceptado, con los vaivenes de un mercado mundial inserto en una
globalización galopante, pero sin caer en un mero instrumentalismo, es
el nuevo derrotero de los diseñadores. Es decir, encontrar mecanismos
para cuidar que el diseño no sea un mero apéndice del mercado, un hilo
temático y operativo más del mercado.
Justamente, esta realidad en la cual estamos inmersos como país que
va hacia el desarrollo, es también una excelente oportunidad para los
diseñadores, en tanto el marco histórico es trascendental y significativo
por la noción de imaginario colectivo que despierta como nación y por
el enorme impacto político y social que generen todos los megaproyectos
estructurales, arquitectónicos y de infraestructura. Entre estos, en
especial el sentimiento de pertenencia a un locus determinado
geográfica, natural y políticamente. En este sentido, al estar los
diseñadores participando en estos megaproyectos, estarían
fortaleciendo su imagen social y dejando asentado definitivamente la
presencia e importancia del diseño en Chile y en el Mundo. He ahí el
más reciente desafío para los diseñadores de nuestro medio.

Citas y Notas
_____________
1 Cfr. FOUCAULT, Michel: Las Palabras y las Cosas, Ed. Siglo XXI, México D.F. y
Madrid, 1999, p. 49.
2 Vd. RIEDL, R.: Biología y conocimiento, Ed. Labor Universitaria, Madrid, 1983. Y para

el caso de Maturana, H., vd.: El árbol del conocimiento, Ed. Universitaria, Stgo, 1997. Y
en cuanto a la sociología del conocimiento, recuérdese la publicación de Berger, P. y
Luckmann, T.: La construcción social de la realidad. Ed. Amorrortu, Buenos. Aires,
2006.
3 Cfr. OJEDA, César: “Francisco Varela y las Ciencias Cognitivas”, Rev. Chilena de

Neuropsiquiatría, Stgo., 2001.


4 Cfr. OTERO, Edison: Diccionario de Epistemología, Corporación de Promoción

Universitaria, Stgo., 2001, pp. 35-36.


5 Vd. RIEDL, R.; Op. Cit. También el texto de Jay Gould, Stephen: Desde Darwin.

Reflexiones sobre Historia Natural; Hermann Blume Edit., Madrid, 1983. Y el artículo
de Pulgar G., A.: “Edgard Morín y la complejidad”; Rev. Occidente, Stgo., Nº 389; 2006,
pp. 15-18.
6 Cfr. AHUMADA, L.: Teoría y cambio en las organizaciones: un acercamiento desde los

modelos de aprendizaje organizacional, Ediciones Universitarias de Valparaíso,


Valparaíso, 2001.
7 LARRAGUIBEL G., Fernando: “Incorporación de algunos aspectos de la complejidad

de los Escenarios futuros a la educación”, Rev. Constancias en Diseño, Nº3, UTEM.,


Stgo., pp. 17-30.
8 Cfr. SALDIVIA, Zenobio: “Epistemología, Progreso y Diseño” Revista Constancias de

Diseño, Nº4, U. Tecnológica Metropolitana, Stgo., 2006, pp. 35-41. Y también en:
Saldivia, Z. y Silva, C.: “La epistemología y el diseño: un maridaje necesario” en:
www.critica.cl (Stgo., 2004).
9 Cfr. HINRICHSEN, Carlos: “Despliegue del oficio: diseño y sus desafíos”, en http://w

ww. arquitecturaucv.cl/detalle_print.php?id=305
10 Cfr. SUAREZ, T., Manuel: http://www.Monografias.com/trabajos/epistemologia/

epistemologia.shtml
11 Término empleado por Kant para dar cuenta de una de las acepciones del no ser, en

la Analítica Trascendental, de la Crítica de la razón pura.


12 STENROS, Anne: “El Diseño Finlandés” en: http://virtual.finland.fi
LA METODOLOGÍA DE LAS CIENCIAS SOCIALES DE
FRIEDRICH HAYEK Y SU RELACIÓN CON LA FILOSOFÍA
DE KARL POPPER

José F. Martínez S.*

El interés de Friedrich Hayek por la Metodología de las Ciencias


Sociales comenzó en los años treinta del siglo XX, cuando se ocupó del
debate sobre la planificación económica en el colectivismo (calculation
debate).1 Sin embargo, no llegó a desarrollar sus propias ideas
metodológicas en ese momento. Deseaba primero llegar a configurar
una posición epistemológica, de modo que fuese novedosa respecto de lo
aceptado en la Escuela Austriaca, la tendencia en la que se enmarcaba
su propio trabajo. A finales de esa década fue cuando propuso un
cambio de rumbo para la Economía como Ciencia.2 Sus planteamientos
constituyeron una genuina aportación hasta el punto que su postura
epistemológica marcó el posterior estudio realizado por la Economía.
En esa misma década se publicaron asimismo las revolucionarias ideas
de Karl Popper sobre la Metodología de la Ciencia en general.3 Pronto
fueron conocidas por Hayek a través de Gottfried Haberler.4
Constituyeron un auténtico descubrimiento para Hayek.5 El encuentro
entre ellos no tardó en producirse.6 A partir de ahí, comenzó entre
ambos pensadores una relación intelectual, académica y de amistad
que duró hasta la muerte de Hayek en 1992.
Dentro de este contexto de estrechas relaciones entre ambos autores, se
analizan aquí las concepciones metodológicas de Hayek para ver si
existió o no una influencia de la Metodología popperiana sobre ellas; y,
si se dio ese influjo sobre el célebre economista, se busca dictaminar en
qué medida se puede afirmar que haya sido un popperiano avant la
lettre. Con ese fin se aborda, en primer lugar, el marco general de la
recepción de Popper en sus posiciones sobre la Metodología de las

*
Doctor en Humanidades, University College London, Londres, Reino Unido.
Ciencias Sociales. También se trata las variaciones que fue
introduciendo con el paso del tiempo. En segundo término, se presta
atención a la concepción hayekiana de la explicación y la predicción,7
aplicadas ambas a las Ciencias Sociales, particularmente a la
Economía. En tercera instancia, se contempla la posición hayekiana
acerca del problema de la unidad metodológica entre las Ciencias de la
Naturaleza y las Ciencias Sociales, que deriva de sus ideas acerca del
"cientificismo" (scientism). Finalmente, se analiza el sentido del
individualismo metodológico de Hayek.8

La recepción de las ideas de Popper en las concepciones


metodológicas de Hayek

Hayek prestó atención al “falsacionismo” en la elaboración de su


Metodología de la Ciencia en dos ocasiones. La primera se produjo en
1937, cuando propuso la idea de que la Economía debía girar hacia un
enfoque no apriorista. Pensó entonces que la “falsación” era el elemento
clave de una Metodología para ese enfoque.9 La segunda se dio en los
años cincuenta y sesenta del siglo XX mediante la publicación de dos
artículos donde propuso ideas en sintonía con la Filosofía popperiana.10
En esos trabajos, Hayek considera alguna de las posiciones de Popper y
las aplica a sus propios puntos de vista. Se trata de ver si lo hizo de una
manera puramente personal, para reinterpretar a Popper con el fin de
adaptarlo a sus propias ideas metodológicas, o bien si hubo una
interiorización más profunda de la Metodología popperiana.11
Durante el primer periodo —los años treinta y cuarenta— el
acercamiento de Hayek a la noción de “falsación” estuvo acompañado
también por llamadas de atención sobre las dificultades que se le
podían presentar a ese enfoque en el terreno particular de las Ciencias
Sociales. Por eso hizo matizaciones importantes, que se referían
primordialmente a la forma de trabajar en Ciencias como la Economía.
Como muestra de su postura sobre la Metodología de las Ciencias
Sociales, Hayek entiende que su elaboración tiene dos importantes
restricciones.
La primera se basa en que “las teorías de las Ciencias Sociales no
constan de leyes, en el sentido de reglas empíricas sobre la conducta de
objetos definibles en términos físicos. Todo lo que intenta la teoría de
las Ciencias Sociales es proporcionar una técnica de razonamiento que
nos ayude a conectar los hechos individuales, pero que —como la
Lógica o las Matemáticas— no es sobre los hechos”.12 Con esta primera
idea Hayek quiere mostrar que discrepa respecto del cientificismo
(scientism), que aquí cabe entender de modo muy general como
“positivismo”. La razón estriba en que piensa que no hay objetos
sociales (en el sentido de objetos físicos), es decir, que no existen cosas
tales como la Sociedad, el Capitalismo, la clase obrera o la clase
dirigente, y, de ahí, la imposibilidad de recurrir a leyes en el sentido de
la Física.
Añade un segundo punto, con el que señala la dificultad de poner en
práctica la falsación de las teorías mediante la experiencia del objeto de
cualquier Ciencia Social. La orientación metodológica de Hayek en este
aspecto es puramente lógica y parece estar lejos aún de los
presupuestos popperianos, aunque sea compatible con ellos. En este
contexto, afirma que un enunciado “nunca puede (...) ser verificado o
falsado en relación con los hechos. Todo lo que podemos y debemos
verificar es la presencia de nuestros presupuestos en el caso particular
(...) En esta conexión surge una auténtica “cuestión de hecho” —aunque
es una cuestión que, con frecuencia, no será posible responder con la
misma certeza como ocurre en las Ciencias de la Naturaleza. Pero la
teoría misma, el esquema mental para la interpretación, nunca puede
ser “verificado” sino sólo comprobado para determinar su
consistencia”.13 Así, ve posible la verificación- falsación en el terreno de
las Ciencias Sociales, pero considera sus resultados muy limitados,
debido al carácter propio del objeto de estudio. Desde su punto de vista,
en este terreno merece la pena recurrir a la consistencia de ese
enunciado en vez de comprobar su verdad directamente en la realidad.
Hay un segundo momento en el que los textos metodológicos de Hayek
se ocupan particularmente de temas popperianos. Se da a partir de los
años cincuenta. Se produce entonces una aceptación clara y explícita
de varios principios básicos de la Metodología de la Ciencia
falsacionista. Así, Hayek acepta que es el método hipotético-deductivo el
que gobierna el funcionamiento de la Ciencia en general. Para poner de
manifiesto determinados aspectos del método científico, se ha de
comenzar “desde la interpretación ya ampliamente aceptada de la
Ciencia teórica como sistema hipotético-deductivo”.14
La aceptación de ese marco metodológico tiene consecuencias
relevantes para su concepción. Entre ellas destaca el rechazo de la
inducción como método.15 Hayek hace suyo el que “las Ciencias teóricas
sean todas esencialmente deductivas que no pueda haber ningún
procedimiento tal como la inducción que conduzca necesariamente
desde la observación de los hechos a la formulación de reglas generales,
las últimas son el producto de actos creativos de la mente que no
pueden formalizarse”.16
Además, Hayek se adhiere en este momento —años cincuenta— a un
segundo elemento de la Metodología popperiana, que tiene gran
importancia para el desarrollo de sus ideas. Se trata de la idea según la
cual “las conclusiones a las que conducen las teorías son esencialmente
del tipo de prohibiciones: “prohiben” la aparición de determinados tipos
de hechos y no pueden ser nunca “verificadas” de modo definitivo, sino
sólo confirmadas cada vez más por intentos continuados sin éxito de
probarlas falsas”.17 Esta tesis es netamente popperiana. Hayek la aplica
para apoyar el sentido que le da a su noción de orden (order),18 que
propone para la descripción del funcionamiento de la realidad social, así
como para su estudio.19
Pero esto no quiere decir que, por el hecho de sumarse a las ideas de
Popper en estos aspectos generales, Hayek acepte todas las
implicaciones de la Filosofía de la Ciencia popperiana. Parece más bien
otra cosa: cita sus trabajos filosóficos como apoyo a las conclusiones a
las que él mismo ha llegado en otro terreno.20 También se puede
apreciar claros desacuerdos con Popper en cuestiones relevantes. Hayek
se aleja de Popper en cuanto a la cuestión de los elementos concretos de
la investigación en Ciencias Sociales.
A este respecto, Hayek muestra su desacuerdo con la idea popperiana
según la cual la Ciencia explica “lo conocido por lo desconocido”, es
decir, “que el progreso del conocimiento consiste en la formulación de
enunciados nuevos que, con frecuencia, se refieren a hechos que no
pueden observarse de modo directo y de los que, en combinación con
otros enunciados sobre particulares, podemos derivar enunciados
capaces de descartar (disproof) mediante observación”.21 A su juicio, ese
modo de ver la explicación en la Ciencia “es propenso a convertirse en
engañoso, si se acepta de un modo demasiado literal”.22 Porque le
parece a Hayek que “no representa una característica general de todo
procedimiento científico, sino que puede ser la norma en Física y, en
alguna ocasión, tener también éxito en las Ciencias Biológicas, pero que
presupone condiciones que no están presentes en muchos otros
ámbitos”.23
Esos ámbitos a los que se refiere son, obviamente, los campos de las
Ciencias Sociales. Hayek establece así una diferencia en el grado de
aplicación del falsacionismo a la Ciencia en general. Se acerca entonces
a una versión moderada de falsacionismo, puesto que introduce ideas
propias en la investigación de problemas concretos de la Metodología de
las Ciencias Sociales, en particular, de la Economía.
Considera en efecto que, si se aplican estrictamente algunos
presupuestos de la Metodología popperiana, no se podría hacer Ciencia
en el ámbito de la investigación social. Así, el giro que da ahora respecto
de sus posiciones de los años cuarenta no es total, sino que se trata
más bien de un acercamiento a algunos aspectos generales de la
Filosofía de Popper. Pero la postura básica es la misma: la
particularidad del objeto de las Ciencias Sociales (la acción humana) no
permite el uso de métodos que sí funcionan bien en las Ciencias de la
Naturaleza.
La diferencia que establece Hayek entre las Ciencias se concreta en dos
aspectos: a) la diferencia entre sus objetos; y b) la posibilidad de
contrastación, que se aprecia especialmente en Economía. Así, afirma
que “en aquellos casos en los que es interesante, la validez de la teoría
nunca puede ser comprobada empíricamente”.24 Muestra una postura
reacia respecto de la contrastabilidad y la predicción en Economía.
Señala que “una teoría con objetivos mucho más modestos (predicción
no exacta) puede ser comprobable, en el sentido de ser refutable por la
observación; (…) no parece en absoluto seguro que se puedan conseguir
objetivos más ambiciosos”.25
Así pues, la defensa del falsacionismo metodológico en Hayek ha ido a
más desde los años 30 a los años 50. Pero lo ha hecho también en el
sentido de reconocer las limitaciones que posee esa orientación
metodológica, en especial en su aplicación dentro del terreno de las
Ciencias Sociales. Esas limitaciones se deben al objeto con el que se
trata, puesto que no permite el desarrollo de una Metodología
falsacionista similar a la que, a su juicio, se puede usar en el terreno de
la Física. Para profundizar en el carácter de esas limitaciones que
aprecia Hayek en la Metodología popperiana es preciso analizar ahora
sus concepciones sobre la explicación y la predicción.

Explicación y predicción en las Ciencias Sociales

Por influencia de Popper, Hayek defiende la tesis de la simetría entre


explicación y predicción.26 Pero mantiene de nuevo posiciones propias,
acordes con su desarrollo intelectual, y admite la existencia de
limitaciones en su aplicación a las Ciencias Sociales. No obstante, hay
que analizar sus ideas sobre explicación y predicción para apreciar en
qué medida recibe el influjo de la Filosofía popperiana.27
Cuando desarrolla sus concepciones metodológicas en este campo,
Hayek acuña dos expresiones: “explicación de principio” (explanation of
the principle) y “predicción de pautas” (pattern prediction). En cuanto a
la noción de “explicación de principio”, aquí interesa en particular su
aplicación a contextos de Economía. Se ha de ver si se relaciona con
Popper o bien si Hayek propone una perspectiva metodológica
independiente del falsacionismo aunque sea afín a él. Después se
analiza la noción de “predicción de pautas”. Se profundiza entonces en
su papel dentro de la Economía y si posee o no un fondo popperiano.

La noción de “explicación de principio” (explanation of the principle)

Desde un ángulo general, para Hayek una explicación es “la formación


en el cerebro de un modelo del complejo de hechos que se explica,
modelo cuyas partes se definen por su posición en una estructura más
general de relaciones que constituye el marco teórico semipermanente
desde el que reciben su significado las representaciones de los hechos
individuales”.28 Con esta perspectiva adopta un enfoque epistemológico
de corte kantiano, porque se concibe la explicación como un
procedimiento de adaptación y organización de los datos de la
experiencia.
La operación mental de explicar científicamente descansa
principalmente sobre aquellos aspectos generales de los fenómenos de
los que se pretende dar cuenta. Hayek admite la existencia de un
segundo tipo de explicación que dé cuenta de los detalles de los
fenómenos. Pero, a su juicio, las explicaciones de detalle son más
difíciles de conseguir. Porque la “explicación siempre es genérica, en
cuanto que siempre se refiere a características que son comunes a
todos los fenómenos de un tipo determinado y nunca pueden explicar
todo lo que se observa en un conjunto particular de hechos”.29
La diferencia entre esas explicaciones de principio y explicaciones más
detalladas está simplemente en su grado de generalidad. Pero mantiene
que, estrictamente hablando, ninguna explicación puede ser más que
una explicación de principio. Reserva el nombre explicación de principio
para las explicaciones de un alto grado de generalidad para poder
diferenciarlas de las explicaciones de detalle.30
Todas las explicaciones son entonces, para Hayek, del tipo de una
explicación de lo general o básico del objeto que se pretende estudiar.
La clasificación, pues, sólo tiene que ver con el tipo de complejidad con
la que se trate, de modo que “es indudablemente un paso atrás tener
que trabajar con teorías que sólo pueden ser refutadas por enunciados
de un alto grado de complejidad, porque cualquier cosa por debajo de
ese grado de complejidad es permitido sobre esa sola base por nuestra
teoría. Sin embargo, es aún posible que en algunos ámbitos las teorías
más genéricas sean las más útiles y más especificación pueda ser de
poco valor práctico”.31
En principio, los tipos de explicación científica son iguales en ambos
casos. Todas las Ciencias usan explicaciones de principio. Es debido a la
complejidad del objeto o a la cantidad de datos con los que se trabaje
que se pueden establecer diferencias entre ellas.32 Esas diferencias no
afectan a la unidad metodológica de la Ciencia: la validez para ambas
formas es la misma. De esta manera, Hayek se aleja de uno de los
principios básicos de la Escuela Austriaca y se acerca a las ideas
propuestas por Popper. Pero parece ser que no sólo por la influencia de
Popper sino por la propia dinámica de su pensamiento.
Esta unidad metodológica se puede apreciar con el análisis de los casos
de explicación en Economía o en Historia. Respecto de la primera,
Hayek piensa que es un ejemplo donde la complejidad del objeto hace
inútil o imposible la explicación de los detalles. Ya no se trata sólo de
que el investigador se tenga como objeto a sí mismo y a individuos como
él que actúan de un modo libre. Está asimismo la cuestión de la
imposibilidad de realizar esa operación mental sobre los detalles de los
fenómenos. En este sentido, afirma que “donde sólo se pueden observar
las pautas más generales en un número considerable de casos, el
empeño de convertirse en más científico por medio de reducir más
nuestras fórmulas bien puede ser un derroche de esfuerzo; en algunas
disciplinas como la Economía, el esforzarse en esto ha conducido con
frecuencia a la suposición no válida de constantes allí donde, de hecho,
no teníamos ningún derecho a presuponer que los factores en cuestión
fueran constantes”.33
Cuando se trata de la Historia, Hayek entiende que la explicación no
pretende dar cuenta de todos los detalles de los hechos históricos: sólo
puede encontrar la lógica de los hechos y de las acciones.34 Así afirma
que las explicaciones históricas “deben darse en términos genéricos,
tratarán lo que se denomina algunas veces lógica de los hechos,
desatenderá mucho de lo que es importante en el caso histórico único, y
se ocupará de la mutua dependencia de las partes del fenómeno que
incluso no sea necesariamente la misma que el orden cronológico en el
que aparecieron. En resumen, no es Historia sino teoría social
compositiva (compositive)”.35
Así pues, desde una perspectiva epistemológica la explicación es una
operación mental de construcción de modelos en la que la mente
humana muestra sus limitaciones, pues no puede dar cuenta de los
detalles de los fenómenos sino sólo aclarar sus aspectos generales. No
obstante, según Hayek, hay diferencias en el grado de generalidad de
las explicaciones. Esto justifica las diferentes opciones metodológicas de
investigación científica que se llevan a cabo en cada Ciencia en función
de las diferencias que marcan sus objetos. De todas maneras, esas
diferencias no son —en el fondo— relevantes en el terreno de las
Ciencias, porque la manera como trabaja la mente humana es la misma
en todos los casos.

La predicción de pautas (pattern prediction)

Hayek define predicción científica como “el uso de una regla o ley para
inferir de determinados enunciados sobre condiciones actuales,
enunciados sobre lo que sucederá (incluídos enunciados sobre lo que
encontraremos si buscamos en un momento concreto)”.36 A su juicio,
predicción no es más que explicación proyectada hacia el futuro. En
este caso, denomina predicción de pautas a aquellos enunciados cuya
precisión es menor o sólo se limitan a enunciar algo genérico, esto es,
una pauta de comportamiento de los fenómenos.
Al igual que en el caso de la explicación, hay también grados en la
predicción. Dependen igualmente de la naturaleza del objeto sobre el
que verse la Ciencia en cuestión. Así, como no se puede tener toda la
información sobre un problema, sólo se pueden hacer “simples
predicciones de pautas —predicciones de alguna de las características
generales de las estructuras que ellas mismas constituirán pero que no
contengan enunciados específicos sobre elementos individuales de los
que las estructuras se compondrán”.37
Como sucede en el caso de la explicación, las diferencias entre los tipos
de predicción no conllevan una pérdida en cuanto a su carácter
científico. Con todo, las predicciones en las Ciencias Sociales no pueden
ser —a su juicio— de igual exactitud que las predicciones que se
puedan realizar en la Física. Deja claro Hayek que esa diferencia entre
ambas no afecta al carácter científico de las predicciones en Ciencias
Sociales, como la Economía, aunque sean viables en ellas las
predicciones de pautas.
Insiste en dos aspectos: las predicciones en Ciencias Sociales son más
difíciles, de modo que se circunscriben a lo genérico (pautas), y que este
hecho diferencial no les hace menos científicas que las Ciencias de la
Naturaleza. Así señala que “el carácter limitado de las predicciones que
nos permiten hacer estas teorías no debería confundirse con la cuestión
de si son más o menos seguras (uncertain) que las teorías que llevan a
predicciones más específicas. Están más indefinidas sólo en el sentido
de que dejan más elementos sin definir porque dicen menos sobre los
fenómenos, no en el sentido de que lo que digan sea menos cierto”.38
Esta cuestión metodológica de las limitaciones de la explicación y de la
predicción tiene, en sí misma, un interés en orden a conocer la postura
general de la Metodología de la Ciencia de Hayek. Es además muy útil
para entender su visión de la Economía. Sirve también para establecer
mejor los paralelismos entre su Pensamiento y la Filosofía de Popper.
Limitaciones de ambos procedimientos

Para Hayek, la explicación es un procedimiento que sólo puede dar


cuenta de los aspectos generales de un fenómeno o bien de un conjunto
de fenómenos. En cualquier tipo de actividad (cotidiana o científica), la
mente humana funciona de ese modo general. Las diferencias entre
explicaciones son de grado —varía la precisión del resultado— más bien
que de tipología. En cuanto a la predicción, mantiene la posición
equivalente: sólo se pueden predecir rasgos generales de los fenómenos
y las predicciones más específicas son mera anécdota. Las restricciones
en ambos procedimientos apuntan, a su vez, a las limitaciones
epistemológicas generales del ser humano. Cabe, con todo ver las
deficiencias que muestran ambos procedimientos metodológicos para
profundizar en las causas y apreciar su relación con las Ciencias
Sociales.
Tanto la explicación como la predicción tienen limitaciones que resultan
de la complejidad del objeto estudiado. Este rasgo dificulta el realizar
predicciones de hechos concretos y sólo permite predecir patrones
generales del comportamiento de los fenómenos.39 Hayek afirma que “ni
la explicación ni la predicción se refieren desde luego a un hecho
individual sino siempre a fenómenos de un cierto tipo o clase; siempre
establecen sólo alguna y nunca todas las propiedades de cualquier
fenómeno particular al que se refieren”.40
Son límites que no pueden ser rebasados mediante el uso de técnicas de
investigación. Así que “por muy enormemente que nuestras teorías y
técnicas nos ayuden a interpretar los hechos observados, ofrecen poca
ayuda en establecer todos aquellos particulares que entran en la
determinación de las pautas complejas y que tendríamos que conocer
para lograr explicaciones completas o predicciones precisas”.41 El
problema no es tecnológico sino que está más bien en nuestra escasa
capacidad de procesamiento de una enorme cantidad de información.
Esas restricciones sobre la explicación y la predicción se dan tanto en el
ámbito de las Ciencias de la Naturaleza como en el terreno de las
Ciencias Sociales. De manera que con esto Hayek puede justificar su
idea de la unidad metodológica: ambos campos de estudio comparten
las restricciones que sufren. En efecto, la incompletud de la explicación
o de la predicción afecta asimismo a Ciencias tradicionalmente
consideradas como de la Naturaleza. A este respecto, sostiene que “hay
algunos campos en los que las dificultades prácticas nos impiden que
se elabore así explicaciones conocidas del principio, hasta el punto en el
que nos permitirían predecir hechos particulares. Con frecuencia, este
es el caso cuando los fenómenos son muy complejos, como en
Meteorología o Biología”.42
Concretamente en Economía ocurre lo mismo.43 Hayek mantiene que,
debido al número de variables que se manejan, la precisión en la
predicción es imposible de alcanzar. Así, por ejemplo, respecto de la
Teoría de la Competencia afirma que “su capacidad de predecir está
limitada necesariamente al tipo de pauta, o al carácter abstracto del
orden que se conformará a sí mismo; pero no se extiende a la predicción
de hechos particulares”.44 Y sobre la predicción en Economía, en
general, señala que “la Teoría Económica está restringida a describir
tipos de pautas que aparecerán si se satisfacen determinadas
condiciones generales, pero que en pocas ocasiones, si es que en
alguna, pueden derivar de este conocimiento algunas predicciones de
fenómenos específicos”.45
Aunque Hayek puntualiza también que “sólo la predicción del hecho de
que encontraremos una determinada disposición de los elementos será,
a menudo, una predicción interesante y, sobre todo, refutable —y, por
tanto, empírica— incluso si podemos decir poco sobre las propiedades
particulares de esos elementos, su magnitud o distancia, etc.”.46 Así, “el
que nuestra teoría no nos permita predecir precios concretos, etc., no
dice nada en contra de su validez. Sólo quiere decir que nunca sabemos
todas las circunstancias particulares sobre las que, según esa teoría,
dependen los distintos precios. Estas circunstancias son (…) los deseos
y el conocimiento de todas las personas que toman parte en el proceso
económico”.47
Así pues, el papel de la predicción en la evaluación de las teorías queda
en un segundo plano, lo cual modula los rasgos popperianos de la
Metodología de la Ciencia de Hayek. Porque la comprobación de que
una predicción sea falsa, no implica que la teoría esté falsada, al modo
como puede ocurrir en Física. Cabe entonces pensar que, al menos en
las Ciencias Sociales, deslinda refutación y falsación.

Claves metodológicas en Hayek

Hayek se enmarca dentro del ámbito general del falsacionismo como


corriente metodológica, pero plantea cuestiones que hacen que su
enfoque sea bastante personal. Puede, incluso, poner en duda algunos
pilares básicos de la Filosofía popperiana. A mi juicio, se puede afirmar
que Hayek es un popperiano moderado. Es un defensor del esquema
básico de la Metodología popperiana, pero aporta su propio enfoque y
modula de este modo los presupuestos más exigentes del falsacionismo.
Esto se puede ver con motivo del monismo metodológico y el
individualismo metodológico.

El monismo metodológico

En su enfoque sobre la explicación y la predicción, Hayek parece dejar


claro que —a su juicio— no hay separación metodológica entre las
Ciencias de la Naturaleza y las Ciencias Humanas y Sociales,48 en
cuanto que ambas se enfrentan al mismo tipo de problemas y tienen las
mismas restricciones. Sin embargo, la Escuela Austriaca defendía de
modo habitual la separación entre ambos grupos de Ciencias. Incluso
Hayek criticó durante bastante tiempo el cientificismo, esto es, la
tendencia de los investigadores de determinadas Ciencias Sociales a
imitar los procedimientos de la Física,49 que presuponía una visión
unificatoria sobre el método.
Esa crítica del cientificismo se concretaba en tres diferencias entre las
Ciencias de la Naturaleza y las Ciencias Sociales. La primera es de
índole epistemológica: en esos dos ámbitos de conocimiento la
experiencia tiene un cometido distinto. En ese sentido señala que “el
papel que la experiencia desempeña en estos ámbitos de conocimiento
de las Ciencias Sociales, difiere de modo fundamental del que tiene en
las Ciencias de la Naturaleza”.50
Una segunda diferencia se refiere al objeto de las Ciencias Sociales.
Junto a otros miembros de la Escuela Austriaca, Hayek piensa que su
objeto son “las acciones de los seres humanos y su objetivo es explicar
los resultados no buscados ni diseñados de las acciones de muchos
seres humanos”,51 sobre lo que no se puede aplicar estrictamente los
procedimientos de la Física. Al tratarse de “Ciencias de la acción
humana” son ontológicamente distintas de los objetos naturales.
Esa segunda diferencia de cariz epistemológico respecto del ámbito de
estudio lleva consigo una tercera, esta vez metodológica. Afirma que
“aunque el método de las Ciencias de la Naturaleza es analítico (…), el
método de las Ciencias Sociales se describe mejor como compositivo
(compositive) o sintético”.52 Porque mientras que la Física y las otras
Ciencias de la Naturaleza tienen como cometido analizar su objeto en
detalle, las Ciencias Sociales tienen que usar métodos que les permitan
conocer cómo muchos agentes diferentes utilizan el conocimiento de
una forma coordinada. Esto exige el uso de un método compositivo.53
Su concepción sobre la explicación y la predicción afecta a su idea
acerca de esas relaciones. Desde una perspectiva metodológica, a partir
“del hecho de que nunca podremos lograr más que una explicación de
principio, por la cual se establezca el orden de los hechos mentales, se
sigue también que nunca lograremos una completa unificación de todas
las Ciencias, en el sentido de que puedan describirse en términos físicos
todos los fenómenos de los que trata”.54 En consecuencia, Hayek tenía
clara la idea de que “algunos de los procedimientos característicos de la
Física pueden no ser de aplicabilidad universal”.55
Ahora bien, ¿quiere esto decir que Hayek sostiene, en efecto, una
separación nítida entre los dos ámbitos? no. Su posición acerca de las
limitaciones de la explicación y la predicción en terrenos que tratan de
objetos de complejidad organizada le hacen ver que en esos terrenos
hay una convergencia entre ambos tipos de Ciencias. Porque “cuanto
más nos adentramos en el terreno de lo muy complejo, más probable es
que nuestro conocimiento sea sólo del principio, del contorno (outline)
significativo más bien que del detalle”.56
También en Física las teorías tienen que dar cuenta de la complejidad:
“incluso la Física, cuando deja de tratar unos pocos hechos conectados
como si fueran sistemas cerrados, y al mismo tiempo, cuando se
desarrolla de modo que necesita definir sus términos en una relación
mutua —y, en consecuencia, sólo el sistema teórico como un todo y no
ya en una parte puede ser falsado realmente— tendrá cada vez más que
afrontar las mismas dificultades con las que están familiarizados en las
Ciencias Sociales y Biológicas”.57
Su postura no defiende entonces la completa separación de ambos
ámbitos temáticos. Porque Hayek acepta la existencia de elementos que
pueden servir de conexión entre ambos tipos de Ciencias. Así, señala
que “sólo el reconocimiento de la primacía de lo abstracto en la
elaboración de los fenómenos mentales puede permitirnos integrar
nuestro conocimiento de la mente con nuestro conocimiento del mundo
físico”.58
Así pues, no hay en Hayek una separación tajante entre los dos ámbitos
—el natural y el social— porque ambos tratan objetos complejos. La
diferencia está sólo en el tratamiento que cada uno de ellos hace de esa
complejidad. Sin embargo, el punto de partida epistemológico de Hayek
(el hecho de que la explicación es igual para todos los tipos de
conocimiento) no tiene un origen popperiano. Si defiende tesis como el
rechazo de la inducción o la simetría entre explicación y predicción en
sintonía con Popper es porque esos elementos son coherentes con su
postura epistemológica previa. De manera que hay una confluencia con
la Metodología popperiana en el aspecto metodológico, que procede de la
adopción de posiciones epistemológicas propias de Hayek.59
El individualismo metodológico

Dentro del marco de un estudio de la Metodología de las Ciencias


Sociales de Hayek, cabe plantearse finalmente el sentido que tiene, para
él, el uso del individualismo como método. El individualismo
metodológico ha sido usado como lema de la Metodología de la Escuela
Austriaca, pero, en este caso, puede suscitar rasgos propios. Se aprecia
aquí asimismo que es Popper el que asume el individualismo
metodológico y lo desarrolla en su propia Metodología de las Ciencias
Sociales.60
Todo el razonamiento de Hayek se mueve dentro del marco del
individualismo metodológico. Está claro que proyecta en esta idea tanto
su concepción epistemológica del subjetivismo como el problema
metodológico de la explicación y la predicción. Básicamente, su defensa
del individualismo tiene dos planos: la intregación en un todo social y la
ausencia de predeterminación en la vida social.
1.- El individualismo “es ante todo una teoría de la sociedad, un
intento de entender las fuerzas que determinan la vida social del ser
humano”.61 Así, no se estudian individuos aislados sino, más bien, a la
sociedad como conjunto de individuos que actúan de modo coordinado,
guiados por algún tipo de orden no consciente. El método de Hayek es
compositivo, pues pretende componer, ordenar, y deducir conocimiento
de las acciones de los individuos que se coordinan en la sociedad,
aunque sea de modo no consciente.
En ese sentido, Hayek pide que el científico social “se abstenga
permanentemente de tratar estas pseudo-entidades (la Sociedad, el
Imperialismo, el Partido, el Capitalismo, etc.) como hechos, y comience
sistemáticamente con los conceptos que guían a los individuos en sus
acciones y no con los resultados de su teorización acerca de sus
acciones. Este es el rasgo característico de ese individualismo
metodológico que está estrechamente conectado con el subjetivismo de
las Ciencias Sociales”.62
2.- Las acciones humanas se combinan de manera inconsciente para
formar el orden social o económico. Al indagar en esto se descubre que
“muchas de las instituciones sobre las que descansan los logros
humanos han surgido y funcionan sin una mente que diseñe y dirija”.63
Esto incide en que no hay posibilidad viable de diseñar el entramado
social o económico. Hayek exhibe una concepción del individualismo
nominalista o no esencialista (en terminología popperiana).64
Pero en este asunto del individualismo metodológico es donde mejor se
puede apreciar que Hayek también ejerció una influencia directa y clara
sobre Popper, quien lo adopta en el ámbito de sus ideas sobre las
Ciencias Sociales. Al economista le influye su previa pertenencia a la
Escuela Austriaca, pero es él quien —en este punto— deja su impronta
en la orientacion popperiana. Se puede incluso conjeturar si su
acercamiento a la Filosofía popperiana no habrá sido meramente el
resultado de una ampliación del enfoque y los horizontes de la misma
Escuela más bien que la aceptación de los puntos de vista de Popper.65

Conclusiones

No es clara la influencia de la Filosofía de Karl Popper en los trabajos


más filosóficos de Friedrich Hayek, frente a lo que podría inferirse de la
lectura de algunos fragmentos relevantes de las obras de Hayek o de la
relación personal que ambos mantuvieron a lo largo de sus vidas.
Cuando se profundiza en las posiciones metodológicas de Hayek, se
aprecia con mucha claridad que su desarrollo intelectual en relación
con esos temas de corte filosófico discurrió de forma independiente al
desarrollo de las ideas popperianas.
Paralelamente, se puede afirmar que, en algunos puntos concretos,
Hayek puede ser considerado un popperiano moderado, al menos en
cuanto que defiende posturas popperianas aplicadas a aspectos
particulares de su Metodología de la Ciencia. Se puede concluir
entonces que hay similitudes en el trabajo de ambos pensadores
respecto de determinados temas; y también que hay partes del
Pensamiento de Hayek que se deben a la influencia directa de Popper.
Así, se pueden resaltar varios aspectos metodológicos.
1.- En cuanto al individualismo metodológico que defiende el
economista, hay coincidencia de pareceres entre los dos austriacos.
Pero no se puede afirmar que haya una influencia directa de Popper
sobre Hayek, sino que más bien sucede al contrario, es decir, que
Hayek incide sobre Popper de un modo más claro.
2.- Hayek acepta, de hecho, el falsacionismo metodológico. Pero matiza
que su aplicación difiere de unas Ciencias a otras, es decir, cabe
variación de las Ciencias de la Naturaleza a las Ciencias Humanas y
Sociales. De manera que Hayek, en rigor, cree que el falsacionismo de
Popper se aplica a la Física; pero plantea su propia versión del
falsacionismo, que sería la que se aplicaría a las Ciencias Sociales como
la Economía.
3.- Sobre los rasgos de la explicación y la predicción, Hayek acepta en
su totalidad la tesis de la simetría lógico-metodológica entre ambos
procedimientos. Pero aporta una serie de características para la
explicación y la predicción. Lo hace con tal intensidad que lleva a
pensar que su concepción es diferente de la postura de Popper al
respecto: su postura parece más elaborada, en cuanto que tiene en
cuenta las limitaciones que impone el objeto de estudio debido a su
complejidad.
4.- El lugar donde mejor se puede apreciar la influencia metodológica de
Popper sobre Hayek es en el problema de la unidad o diversidad de las
Ciencias. Se puede afirmar que Hayek cambió su parecer sobre el
asunto por influencia de Popper.66 Este cambio tiene su base en la
aceptación de la Metodología popperiana de la Ciencia, en lo que atañe
al plano general.
Finalmente, se puede concluir que la influencia de Popper sobre Hayek
es muy moderada. De aquí se infiere que lo que hizo Hayek fue tomar
prestadas algunas ideas popperianas para el desarrollo de las suyas. De
este modo la influencia popperiana no es profunda sino que más bien
está modulada por los intereses intelectuales del economista austriaco.

Citas y Notas
_____________
1 Cfr. HAYEK, F. A.: “The Nature and History of the Problem”, en HAYEK, F. A. (ed):
Collectivist Economic Planning. Critical Studies on the Possibilities of Socialism,
Routledge and Kegan Paul, Londres, 1935, pp. 1-40.
2 La contribución principal es la propuesta de una Ciencia de la Economía de corte

empirista, lo que conllevaba el rechazo del apriorismo de von Mises, cfr. HAYEK, F. A.:
“Economics and Knowledge”, Economica, v. IV, (1937), pp. 33-54.
3 Cfr. POPPER, K. R.: Logik der Forschung, Springer, Viena, 1935.
4 Cfr. HACOHEN, M. H.: Karl Popper —The Formative Years, 1902-1945. Politics and

Philosophy in Interwar Vienna, Cambridge University Press, Cambridge, 2000, p. 277


5 Cfr. KRESGE, S.: “Introduction”, en HAYEK, F. A.: Hayek on Hayek. An
Autobiographical Dialogue, The University of Chicago Press, Chicago, 1994, pp. 1-35;
en particular, p. 14.
6 Cfr. POPPER, K. R.:“Tribute to the Life and Work of Friedrich Hayek”, en FROWEN, S.

E. (ed): Hayek: Economist and Social Philosopher. A Critical Retrospect, Macmillan,


Basingstoke, 1997, p. 311-312.
7 Sobre este tema véase GRAF, H.-G.: “Muster-Voraussagen” und “Erklärungen des

Prinzips” bei F. A. von Hayek. Eine Methodologische Analyse, Mohr, Tubinga, 1978
8 El individualismo metodológico de Hayek es consecuencia de otra de sus posiciones

epistemológicas: el subjetivismo.
9 Cfr. HAYEK, F.A.: “Economics and Knowledge”, p. 33.
10 Cfr. HAYEK, F. A.: “Degrees of Explanation”, British Journal for the Philosophy of

Science, v. 6, (1955), pp. 209-225. Compilado con añadidos en HAYEK, F. A.: Studies in
Philosophy, Politics and Economics, Routledge and Kegan Paul, Londres, 1967, pp. 3-
21; y HAYEK, F. A.: “The Theory of Complex Phenomena”, en BUNGE, M. (ed): The Critical
Approach to Science and Philosophy, The Free Press, N. York, 1964, pp. 332-349.
Compilado con correcciones en HAYEK, F. A.: Studies in Philosophy, Politics and
Economics, pp. 22-42.
11 Cfr. HAYEK, F. A.: Hayek on Hayek. An Autobiographical Dialogue, p. 51.
12 HAYEK, F. A.: “The Facts of the Social Sciences”, en HAYEK, F. A.: Individualism and

Economic Order, Routledge and Kegan Paul, Londres, 1949, pp. 57-76; en particular,
p. 73.
13 HAYEK, F. A.: “The Facts of the Social Sciences”, p. 73.
14 HAYEK, F. A.: “Degrees of Explanation”, Philosophy, Politics, pp. 3-21; en particular,

p. 4. En nota al pie de página dice “lo que sigue es poco más que una elaboración de
algunas de las ideas de Popper”. En esa misma página también dice que “la
concepción de la Ciencia como un sistema hipotético-deductivo ha sido expuesta por
Karl Popper de una manera que pone de manifiesto claramente algunas características
muy importantes”.
15 Las dudas sobre la validez de la inducción como método se pueden encontrar ya en

Carl Menger, cfr. CUBEDDU, R.: The Philosophy of the Austrian School, Routledge,
Londres, 1993, p. 6. Hayek las hereda y encuentra en Popper una sólida base para
rechazar la inducción.
16 HAYEK, F. A.: “Degrees of Explanation”, pp. 4-5. Respecto de la aceptación de la tesis

anti-inductivista dice en otro lugar que “lo que he argumentado está relacionado de
alguna manera con determinados desarrollos de la moderna Teoría del conocimiento,
en especial el argumento de Karl Popper contra el “inductivismo” —es decir, el
argumento según el cual no podemos derivar lógicamente generalizaciones de
experiencias particulares, sino que la capacidad de generalizar llega primero y las
hipótesis son comprobadas después y confirmadas o refutadas de acuerdo con su
efectividad como guías para las acciones”, HAYEK, F. A.: “The Primacy of the Abstract”,
en HAYEK, F. A.: New Studies in Philosophy, Politics, Economics and the History of Ideas,
Routledge and Kegan Paul, Londres, 1978, pp. 35-49; en particular, p. 43.
17 HAYEK, F. A.: “Degrees of Explanation”, pp. 4-5.
18 Hayek define “orden” como "un estado de cosas en el que una multiplicidad de

elementos de varias clases se relacionan de tal manera unos con otros que podemos
aprender a formarnos expectativas adecuadas que tienen una buena oportunidad de
que se prueben correctas a partir de nuestro conocimiento de alguna parte del espacio
o del tiempo de un todo", HAYEK, F. A.: Law, Legislation and Liberty. Vol. 1: Rules and
Order, Routledge and Kegan Paul, Londres, 1973, p. 36.
19 Hayek aplica esta idea también al seguimiento de reglas en la acción humana,

afirma que “como las leyes científicas, las reglas que guían la acción de un individuo
se ven mejor como determinantes de lo que nosotros no haremos en vez de lo que
haremos”, HAYEK, F. A.: “Rules, Perception and Intelligibility”, en HAYEK, F. A.: Studies
in Philosophy, Politics and Economics, pp. 43-65; en particular, pp. 56-57.
20 Cfr. HAYEK, F. A.: Hayek on Hayek, p. 51.
21 HAYEK, F. A.: “Degrees of Explanation”, p. 5.
22 Ibídem.
23 Ibidem., p.5.
24 HAYEK, F. A.: “Competition as a Discovery Procedure”, en HAYEK, F. A.: New Studies

in Philosophy, Politics, Economics and the History of Ideas, pp. 179-190; en particular,
p. 180.
25 HAYEK, F. A.: “The Place of Menger's Grundsätze in the History of Economic

Thought”, en HAYEK, F. A.: New Studies in Philosophy, Politics, Economics and the
History of Ideas, pp. 270-282; en particular, p. 281.
26 Considera Hayek que “puede darse por supuesto que predicción y explicación son

sólo dos aspectos del mismo proceso”, HAYEK, F. A.: “Degrees of Explanation”, p. 9.
27 Hayek maduró sus pensamientos sobre estos temas durante mucho tiempo. Sus

reflexiones no siguieron un orden cronológico, sino que se fueron exponiendo


conforme los temas le iban interesando o le servían para otros fines. Así, publicó sus
puntos de vista sobre explicación en Ciencias Sociales (en el trabajo Scientism and the
Study of Society) antes de haber ofrecido su perspectiva acerca de los fundamentos de
ese procedimiento científico (en el estudio The Sensory Order). Por esta razón, esta
exposición sigue un orden sistemático más que temporal.
28 HAYEK, F. A.: The Sensory Order, p. 179.
29 Ibídem., p. 182.
30 Ibídem., pp. 182-183.
31 HAYEK, F. A.: “Degrees of Explanation”, p. 16.
32 Este aspecto de la complejidad es muy relevante para comprender la posición de

Hayek respecto de las similitudes entre los ámbitos de las Ciencias de la Naturaleza y
de las Ciencias Humanas y Sociales.
33 HAYEK, F. A.: “Degrees of Explanation”, p. 16.
34 Popper también usa la expresión “lógica de la situación” para describir el método de

las Ciencias Sociales, cfr. POPPER, K. R.: “The Logic of the Social Sciences”, en POPPER,
K. R.: In Search of a Better World, Routledge, Londres, 1992, pp. 64-81; en particular,
pp. 79-80; y POPPER, K. R.: “Models, Instruments, and Truth”, en POPPER, K. R.: The
Myth of the Framework, Routledge, Londres, 1994, pp. 154-184; en particular, pp.
168-171. Ahí afirma que la noción hayekiana de “lógica de la elección” (logic of choice)
le condujo a la formulación de su idea de la “lógica de la situación” basada en el
principio de racionalidad o “método cero” (véase POPPER, K. R., The Poverty of
Historicism, Routledge and Kegan Paul, Londres, 1957, pp. 136-141), cfr. “Models,
Instruments, and Truth”, p. 181, nota 1.
A mi juicio, es el intento de Popper de acomodar las ideas de Hayek a su propio
esquema metodológico para las Ciencias de la Naturaleza expuesto en la Logik der
Forschung lo que explica las tensiones que se han encontrado en su defensa de la
unidad metodológica entre Ciencias de la Naturaleza y Ciencias Sociales, cfr.
GONZALEZ, W. J.: “The Many Faces of Popper’s Methodological Approach to Prediction”,
en CATTON, PH. y MACDONALD, G. (eds): Karl Popper. Critical Appraisals, Routledge,
Londres, 2004, pp. 78-98.
35 HAYEK, F. A.: “Scientism and the Study of Society”, p. 85.
36 HAYEK, F. A.: “Degrees of Explanation”, p. 8.
37 HAYEK, F. A.: “The Pretence of Knowledge”, p. 27.
38 HAYEK, F. A.: “Degrees of Explanation”, p. 17.
39 Cfr. HAYEK, F. A.: Law, Legislation and Liberty. Vol. 1, p. 16.
40 HAYEK, F. A.: “Degrees of Explanation”, pp. 9-10.
41 HAYEK, F. A.:“The Errors of Constructivism”, en HAYEK, F. A., New Studies in

Philosophy, Politics, Economics and the History of Ideas, pp. 3-22; en particular, p. 12
42 HAYEK, F. A.: The Sensory Order, pp. 184-185.
43 Cfr. HAYEK, F. A.: “The Economy, Science and Politics”, en HAYEK, F. A., Studies in

Philosophy, Politics and Economics, pp. 251-269; en particular, pp. 259-260.


44 HAYEK, F. A.: “Competition as a Discovery Procedure”, p. 181.
45 HAYEK, F. A.: “The Theory of Complex Phenomena”, p. 35.
46 HAYEK, F. A.: “The Economy, Science and Politics”, p. 261.
47 Ibídem., p. 262
48 Por influencia de Popper, cfr. POPPER, K. R.: The Poverty of Historicism, pp. 136-141.
49 Aunque él mismo pensara así en un primer momento: “al principio yo mismo

enfoqué mi disciplina absolutamente imbuido de la creencia en la validez universal de


los métodos de las Ciencias de la Naturaleza”, HAYEK, F. A.: “Scientism and the Study
of Society”, p. 57.
50 Ibídem., p. 57.
51 Ibídem., p. 25.
52 Ibídem., p. 39.
53 Sobre el término “compositivo” dice que lo tomó prestado “de una nota manuscrita

de Carl Menger que, en su copia personal anotada de la revisión de Schmöller de su


Methoden der Socialwissenschaften, lo escribió sobre la palabra deductivo que usó
Schmöller”, HAYEK, F. A.: “Scientism and the Study of Society”, p. 212.
54 HAYEK, F. A.: The Sensory Order, p. 191.
55 HAYEK, F. A.: “Degrees of Explanation”, p.3.
56 Ibídem., p. 20.
57 Ibídem.
58 HAYEK, F. A.: “The Primacy of the Abstract”, p. 48.
59 Esto tiene una consecuencia metodológica: Hayek se aleja de la idea según la cual

las Ciencias Humanas y Sociales deben seguir el método de la Verstehen, en vez de la


Erklären. Afirma que prefiere hablar “de inteligibilidad y de abarcar (comprehending) el
significado de la acción humana en vez de comprenderlo (understanding)”, HAYEK, F.
A.: “Rules, Perception and Intelligibility”, p. 59. Sobre la noción de inteligibilidad dice
que “es una cuestión de grado y es un lugar común que las personas que son más
parecidas también se comprenden mejor unos a otros […] la inteligibilidad de la
comunicación y otros actos descansa en la similitud práctica de la estructura mental”,
“Rules, Perception and Intelligibility”, p. 60.
60 Cfr. POPPER, K. R.: The Poverty of Historicism, p. 136.
61 HAYEK, F. A.: “Individualism: True and False”, en HAYEK, F. A., Individualism and

Economic Order, pp. 1-32; en particular, p. 6.


62 HAYEK, F. A.: “Scientism and the Study of Society”, p. 38. En otro lugar, afirma que

“no hay otro camino hacia el entendimiento de los fenómenos sociales sino a través de
nuestro entendimiento de las acciones individuales que se dirigen hacia otras
personas y están guiadas por la conducta que se espera de ellas”, HAYEK, F. A.:
"Individualism: True and False”, p. 6.
63 HAYEK, F. A.: “Individualism: True and False”, pp. 6-7.
64 Cfr. Ibídem., p. 6 nota.
65 Se puede plantear la cuestión al contrario: si no será más bien la influencia de

Hayek lo que hizo variar a Popper en diversos temas, como por ejemplo su perspectiva
evolutiva del conocimiento (la Epistemología evolutiva) y la posición de Popper respecto
de la Historia como Ciencia.
66 Cfr. KRESGE, S.: “Introduction”, en HAYEK, F. A.: Hayek on Hayek. An
Autobiographical Dialogue, p. 14; y CALDWELL, B. J., Hayek's Challenge, The University
of Chicago Press, Chicago, 2003, p. 311.

Bibliografía
_____________
BIRNER, J. and ZIJP, R. VAN (eds): Hayek, Co-ordination and Evolution: His Legacy in
Philosophy, Politics, Economics, and the History of Ideas, Routledge, Londres, 1993.

CALDWELL, B. J.: “La méthodologie de Hayek: Description, évaluation et interrogations”,


en DOSTALER, G. y ETHIER, D. (eds), Friedrich Hayek. Philosophie, économie et politique,
Economica, París, 1989.

CALDWELL, B. J.: “Hayek's Transformation”, History of Political Economy, v. 20, (1988).

CALDWELL, B. J.:, Hayek's Challenge, The University of Chicago Press, Chicago, 2003.

CATTON, PH. y MACDONALD, G. (eds), Karl Popper. Critical Appraisals, Routledge,


Londres, 2004.

CUBEDDU, R.: The Philosophy of the Austrian School, Routledge, Londres, 1993.

DOSTALER, G. y ETHIER, D. (eds): Friedrich Hayek. Philosophie, économie et politique,


Economica, París, 1989.

EBENSTEIN, A., Hayek's Journey: The Mind of Friedrich Hayek, Palgrave Macmillan, N.
York, 2003.

FROWEN, S. F. (ed), Hayek: The Economist and Social Philosopher. A Critical Retrospect,
Macmillan, Basingstoke, 1997.

GONZÁLEZ, W. J. (ed), Karl Popper: Revisión de su legado, Unión Editorial, Madrid,


2004.

GONZÁLEZ, W. J.: “The Many Faces of Popper’s Methodological Approach to Prediction”,


en CATTON, PH. y MACDONALD, G. (eds): Karl Popper. Critical Appraisals, Routledge,
Londres, 2004.

GRAF, H.-G.: “Muster-Voraussagen” und “Erklärungen des Prinzips” bei F. A. von Hayek.
Eine Methodologische Analyse, Mohr, Tubinga, 1978.

HACOHEN, M. H.: Karl Popper — The Formative Years, 1902-1945. Politics and
Philosophy in Interwar Vienna, Cambridge University Press, Cambridge, 2000.

HAYEK, F. A.: “The Nature and History of the Problem”, en HAYEK, F. A. (ed): Collectivist
Economic Planning. Critical Studies on the Possibilities of Socialism, Routledge and
Kegan Paul, Londres, 1935.

HAYEK, F. A.: “Economics and Knowledge”, Economica, v. IV, 1937.

HAYEK, F. A.: “The Facts of the Social Sciences”, en HAYEK, F. A.: Individualism and
Economic Order, Routledge and Kegan Paul, Londres, 1949.

HAYEK, F. A.: “Scientism and the Study of Society” Economica, v. 9, n. 35, 1942.
HAYEK, F. A.: “The Use of Knowledge in Society”, The American Economic Review, v. 35,
(1945), pp. 519-530. Compilado en LITTLECHILD, S. (ed), Austrian Economics. Vol. III, E.
Elgar, Aldershot, 1990.

HAYEK, F. A.: “Individualism: True and False”, en HAYEK, F. A.: Individualism and
Economic Order, Routledge and Kegan Paul, Londres, 1949.

HAYEK, F. A.: The Counter-Revolution of Science. Studies in the Abuse of Reason, Free
Press, Glencoe, 1952.

HAYEK, F. A.: “Degrees of Explanation”, British Journal for the Philosophy of Science, v.
6, (1955), pp. 209-225. Compilado en HAYEK, F. A.: Studies in Philosophy, Politics and
Economics, Routledge and Kegan Paul, Londres, 1967.

HAYEK, F. A.: “The Theory of Complex Phenomena”, en BUNGE, M. (ed), The Critical
Approach to Science and Philosophy, The Free Press, N. York, 1964, pp. 332-349.
Compilado con correcciones en HAYEK, F. A.: Studies in Philosophy, Politics and
Economics, Routledge and Kegan Paul, Londres, 1967.

HAYEK, F. A.: “The Economy, Science and Politics”, en HAYEK, F. A.: Studies in
Philosophy, Politics and Economics, Routledge and Kegan Paul, Londres, 1967.

HAYEK, F. A.: “Rules, Perception and Intelligibility”, en HAYEK, F. A.: Studies in


Philosophy, Politics and Economics, Routledge and Kegan Paul, Londres, 1967.

HAYEK, F. A.: “Kinds of Rationalism”, en HAYEK, F. A.: Studies in Philosophy, Politics and
Economics, Routledge and Kegan Paul, Londres, 1967.

HAYEK, F. A.: “The Results of Human Action but not of Human Design”, en HAYEK, F.
A.: Studies in Philosophy, Politics and Economics, Routledge and Kegan Paul, Londres,
1967.

HAYEK, F. A.: Studies in Philosophy, Politics, and Economics, Routledge and Kegan Paul,
Londres, 1967.

HAYEK, F. A.: “Competition as a Discovery Procedure”, en HAYEK, F. A.: New Studies in


Philosophy, Politics, Economics and the History of Ideas, Routledge and Kegan Paul,
Londres, 1978.

HAYEK, F. A.: “The Primacy of the Abstract”, en HAYEK, F. A.: New Studies in Philosophy,
Politics, Economics and the History of Ideas, Routledge and Kegan Paul, Londres, 1978.

HAYEK, F. A.: “The Errors of Constructivism”, en HAYEK, F. A., New Studies in


Philosophy, Politics, Economics and the History of Ideas, Routledge and Kegan Paul,
Londres, 1978.

HAYEK, F. A.: “The Place of Menger's Grundsätze in the History of Economic Thought”,
en HAYEK, F. A.: New Studies in Philosophy, Politics, Economics and the History of Ideas,
Routledge and Kegan Paul, Londres, 1978.

HAYEK, F. A.: “The Pretence of Knowledge”, Nobel Memorial Lecture, December 1974,
Les Prix Nobel en 1974, Stockholm. Reimpreso en HAYEK, F. A.: New Studies in
Philosophy, Politics, Economics and the History of Ideas, Routledge and Kegan Paul,
Londres, 1978.

HAYEK, F. A.: Law, Legislation and Liberty. Vol. 1: Rules and Order, Routledge and
Kegan Paul, Londres, 1973.
HAYEK, F. A.: New Studies in Philosophy, Politics, Economics and the History of Ideas,
Routledge and Kegan Paul, Londres, 1978.

HAYEK, F. A. y WEIMER, W. B.: “Weimer-Hayek Discussion”, en WEIMER, W. B. y


PALERMO, D. S. (eds): Cognition and the Symbolic Processes. Vol. 2, Lawrence Erlbaum,
Hillsdale, N. Jersey, 1982.

HAYEK, F. A.: Hayek on Hayek. An Autobiographical Dialogue, The University of Chicago


Press, Chicago, 1994.

HUTCHISON, T. W.: The Politics and Philosophy of Economics, Blackwell, Oxford, 1981.

KRESGE, S.: “Introduction”, en HAYEK, F. A., Hayek on Hayek. An Autobiographical


Dialogue, The University of Chicago Press, Chicago, 1994, pp. 1-35.

LACHMANN, L. M.: “The Science of Human Action”, Economica, v. 18, 1951.

LITTLECHILD, S. (ed): Austrian Economics, E. Elgar, Aldershot, 1990 (3 vols.).

MACHLUP, F. (ed): Essays on Hayek, Routledge and Kegan Paul, Londres, 1977.

MARTÍNEZ SOLANO, J. F.: “La incidencia del problema de la verdad en el Racionalismo


crítico”, en GONZÁLEZ, W. J. (ed): Karl Popper: Revisión de su legado, Unión Editorial,
Madrid, 2004.

MILFORD, K.: “A Note on Hayek's Analysis of Scientism”, en FROWEN, S. F. (ed), Hayek:


The Economist and Social Philosopher. A Critical Retrospect, Macmillan, Basingstoke,
1997.

NADEAU, R.: “Popper, Hayek et la question du scientisme”, Manuscrito, v. 9, 1986.

PAQUÉ, K.-H.: “Pattern Predictions in Economics: Hayek's Methodology of the Social


Sciences Revisited”, History of Political Economy, v. 22, n. 2, 1990.

POPPER, K. R.: Logik der Forschung, Springer, Viena, 1935.

POPPER, K. R.: The Poverty of Historicism, Routledge and Kegan Paul, Londres, 1957.

POPPER, K. R.: The Logic of Scientific Discovery, Hutchinson, Londres, 1959.


BIOLOGÍA TEÓRICA Y FILOSOFÍA.
LAS TESIS DE S. KAUFFMAN

Carlos E. Maldonado*

Introducción

Una de las áreas más apasionantes y sin embargo menos desarrolladas


en general, es la biología teórica. Con ella, por extensión, nos referimos
a la filosofía de la biología –que sí ocupa un lugar destacado al lado de
la filosofía de la física y de la filosofía de las ciencias sociales-. Pues
bien, con seguridad, quizás el reto mayor es aquí s el del desarrollo de
una teoría general de la vida, sobre lo cual son muy pocos los trabajos.
No obstante, el autor que más sistemáticamente ha trabajado el tema es
S. Kauffman, uno de los padres de las ciencias de la complejidad, por lo
demás.
S. Kauffman es uno de los autores e investigadores más destacados en
el marco del estudio de las ciencias de la complejidad en general, y de
las conexiones entre biología y complejidad, en particular. Encontramos
en este autor varias ideas que pueden servir de referentes necesarios en
el camino hacia teoría general de la vida, válida igualmente para el
estudio evolutivo de cualquier fenómeno de interés. El camino que
adopta Kauffman consiste en la complementación de la capacidad
explicativa de la selección con la ayuda de la autoorganización. Así, de
entrada, la teoría de la evolución debe ser comprendida y explicada en
función del matrimonio (marriage) entre selección y autoorganización.
Autor de más de cien artículos especializados y becario de la prestigiosa
Beca McArthur, Kauffman ha escrito tres libros: The Origins of Order, At
Home in the Universe, Investigations,1 que constituyen auténticos hitos
en la biología teórica y la filosofía de la biología; o también, para el
estudio de los sistemas complejos. Me concentraré aquí en los tres
libros como una manera de presentar al mismo tiempo una síntesis del

*
Postdoctorado en Filosofía, Universidad del Rosario, Bogotá, Colombia.
pensamiento de Kauffman, las bases para abordar la significación de
una teoría general de la vida. Después de presentar las líneas generales
del pensamiento de Kauffman y de destacar las tesis y los problemas
fundamentales, me concentro en el significado de una biología general,
o también, en el alcance de la evolución de los sistemas complejos.

El origen de un programa de investigación

Para Kauffman, la idea de una biología general coincide en el esfuerzo


por encontrar o postular leyes de/para los sistemas vivos. En este
sentido, la pretensión de Kauffman se integra a todo el espíritu de la
modernidad, para el cual no es posible hacer ciencia –esto es, buena
ciencia- sin descubrir o identificar leyes. Por lo demás, tal es, de
manera precisa, el espíritu de todo el trabajo adelantado por los teóricos
e investigadores del Instituto Santa Fe, en Nuevo México.
Los pasos a través de los cuales Kauffman formula la idea de una
biología general son tres. En primer lugar, en The Origins of Order,
Kauffman se aboca al estudio de las fuentes del orden magnífico del
mundo viviente. Dado que la selección, por sí misma, es insuficiente
para explicar fenómenos tales como la adaptación y el orden, Kauffman
plantea la necesidad de complementar la capacidad explicativa de la
selección con la autoorganización. De este modo, selección y
autoorganización se yerguen como los mecanismos explicativos de la
teoría de la evolución, gracias a lo cual es posible poner de manifiesto
que la evolución es fuente de complejidad. Mientras, de un lado, la
selección conduce a los sistemas complejos al filo del caos, de otra
parte, la autoorganización pone de manifiesto aquello que la selección,
ya sea entendida en sentido positivo o negativo, no puede llevar a cabo,
a saber: explicar el origen de la vida. Gracias a la conjunción entre
evolución y autoorganización se hace, sorpresivamente claro, que el
origen de la vida es sorprendentemente fácil, pues emerge como una
propiedad colectiva ya compleja; mejor, con una complejidad mínima.
Esta complejidad es explicada de dos maneras paralelas y
contemporáneas: los bucles autocatalíticos y KN2.
Los bucles autocatalíticos se fundan en redes booleanas, y el modelo
NK, dos aspectos de una sola y misma tesis.
En efecto, la tesis central sostenida en el libro The Origins of Order, es
que existen funciones booleanas de un cierto número –limitado- de K
variables. Estas funciones booleanas son las que sostienen y dan lugar
a los bucles autocatalíticos y que a partir de Kauffman se denominarán,
más propiamente, como redes autocatalíticas.
El problema de base para Kauffman consiste en explicar las fuentes del
abundante y magnífico orden espontáneo que cabe observar en el
mundo; notablemente, el orden espontáneo de los sistemas que exhiben
vida. Este orden debe ser explicado ab initio y de manera permanente a
fin de que la evolución pueda ser comprendida como una teoría sólida.
Al mismo tiempo, es preciso explicar las propiedades autoordenadas
que permiten y limitan a la selección. De esta suerte, finalmente, cabe
entender la que quizás es la dificultad mayor a la hora reentender los
fenómenos evolutivos: por qué unos sistemas se adaptan y otros no.
Pues bien, esta explicación y razones descansan en funciones booleanas
que sirven como el esqueleto lógico de reglas continuas de control.2
A los ojos de Kauffman, la vida puede así ser comprendida como una
red autocatalítica alejada del equilibrio, y es precisamente debido a que
vivimos en un universo no ergódico que la vida existe y se hace posible.
El segundo paso que hace posible la exploración de una biología general
se encuentra en la identificación de las leyes de la autoorganización y la
complejidad, a lo cual se dedica Kauffman en At Home in the Universe.
The Search for the Laws of Self-Organization and Complexity.
Mientras que The Origins of Order, es un libro técnico que compila
varios de los artículos (papers) que Kauffman ha escrito con
anterioridad y que considera como los más relevantes para la
elaboración de su teoría, At Home in the Universe, tiene un carácter
intermedio entre un libro de producción de conocimiento y de
divulgación.
La vida, sostiene Kauffman, al igual que el propio lenguaje, aparece
como un sistema persistentemente abierto a innovaciones radicales y
que no cabe deducir a partir de conceptos y de categorías previos. Pues
bien, los patrones de la vida son el resultado de procesos endógenos y
naturales, es decir, autoorganizativos. La evolución es, literalmente,
evolución de sistemas complejos, o mejor, de sistemas de complejidad
creciente.
Ahora bien, ¿qué hace que, siendo contingente e impredecible, la vida
pueda, sin embargo, obedecer leyes generales? Kauffman presenta los
siguientes argumentos: vivimos en un universo alejado del equilibrio, lo
que expresa su deuda con la obra seminal de I. Prigogine; la vida es un
sistema esencialmente incompresible, lo cual hace pensar
inmediatamente en la máquina de A. Turing; la vida obedece no tanto a
principios causales, cuanto a emergencias. Así, la emergencia es el
título en el que se condensan y se expresan, al mismo tiempo, las redes
booleanas y los bucles autocatalíticos; y finalmente, es el hecho de que
la vida misma existe en el filo del caos.
Sobre la base de los dos pasos anteriores, el tercero tiene un carácter
eminentemente heurístico, pero por ello mismo, al mismo tiempo, más
abierto. Se trata de su obra Investigations, en las que Kauffman, a
partir del reconocimiento expreso de que el espacio de configuración de
una biosfera no puede ser preestablecido de manera finita, aborda la
novedad persistente que tiene lugar en la biosfera y en el universo como
un todo. Pero si ello es así, entonces el tiempo es un fenómeno real y
necesario.
En Investigations, Kauffman avanza en la radicalización de las
relaciones entre evolución y autoorganización afirmando que ésta es, en
realidad, la condición de aquella. Mejor aún, el orden maravilloso del
mundo y, a fortiori, del mundo vivo, es el resultado de la selección y de
la autoorganización. De esta suerte, la evolución misma evoluciona y su
dinámica acontece en la forma de posibles adyacentes, esto es, en la
búsqueda permanente, por parte de los sistemas vivos, de las
condiciones que los hagan posibles, en la medida misma en que las
condiciones van variando. Sobre esta base, Kauffman procede, en un
lenguaje al mismo tiempo cauteloso y agudo, a formular, o mejor, a
proponer, cuatro leyes que serían constitutivas de una biología general.
Como quiera que sea, la idea de una biología general es consustancial,
para Kauffman, con el descubrimiento o la postulación de leyes de/para
la biología. Este es el leitmotiv de todo su trabajo teórico y de
investigación. Quisiera a continuación presentar y discutir esta idea de
cara al tema de la evolución, poniendo de manifiesto que ésta implica
no linealidad, diversificación, especiación y complejización. La idea
básica es que, la evolución debe ser entendida como coevolución y que
la complejidad no tiene límite superior.

En casa en el universo

Las dos formas fundamentales mediante las cuales tiene lugar el orden
en el universo son aquellas que implican a los sistemas de equilibrio de
energías bajas y las que requieren de una fuente constante de masa o
de energía, o ambas, para sostener una estructura ordenada. Pues bien,
el tema apasionante consiste en el reconocimiento de que el origen de la
vida es espontáneo (order for free). En otras palabras, la vida no
responde a mecanismos causales de explicación, sino, es una propiedad
emergente del universo. Así, los sistemas vivos emergen con una
complejidad mínima, y no como agregado de partes. La explicación de
esta complejidad mínima la encuentra Kauffman en las redes
autocatalíticas, las cuales llevan a cabo cierres autocatalíticos.
Las redes autocatalíticas consisten en una red de reacciones mediante
las cuales se van produciendo estructuras crecientemente complejas
que se denominan técnicamente como conjuntos autocatalíticos. De
esta suerte, pensar el origen de la vida demanda de entrada una
aproximación de tipo conjuntista, y no analítica. El mérito grande de los
conjuntos autocatalíticos consiste en que la división entre genotipo y
fenotipo ya no se sostiene más, dando lugar a una estructura no binaria
o dualista de la vida. El espacio, por así decirlo en el que tienen lugar
estos bucles autacatalíticos es en filo del caos, cerca de una transición
de fase. Es aquí en donde acontece el orden que es flexible y lleno de
sorpresas. Pues bien, es exactamente esto lo que se designa, en
propiedad, como complejidad.
Los sistemas complejos existen en el filo del caos debido a que la
evolución los conduce allí. La evolución de los mismos, da lugar a la
constitución de la biosfera, a la que Kauffman concibe como
supracrítica, en tanto que las células individuales que constituyen a la
biosfera deben ser subcríticas. En otras palabras, es en el umbral, por
así decirlo, entre supracriticalidad y subcriticalidad en donde tiene
lugar el conjunto de fenómenos que designamos como vida. La biosfera
se explica, por tanto, como un sistema de diversidad creciente, en tanto
que las unidades fundamentales de la vida, como son las células, se
explican con base en recursividad.
Ahora bien, la selección natural por sí sola no configura a la biosfera,
puesto que la evolución requiere, al mismo tiempo, de paisajes que no
sean totalmente aleatorios o contingentes (random). Pues bien, la fuente
última de estos paisajes –paisajes rugosos adaptativos- se encuentran
en la autoorganización. Sin embargo, el hecho verdaderamente
significativo radica en el reconocimiento de que la evolución por sí
misma está limitada a la búsqueda local de espacios de posibilidades,
guiada, tan sólo, por el terreno local.
Más sencillamente, los sistemas vivos evolucionan a través de posibles
adyacentes; o para decirlo, en términos elementales: hacen siempre,
cada vez, lo que pueden. La contribución de la autoorganización a los
mecanismos explicativos de la evolución estriba en que es aquella, la
precondición de la evolución; esto es, tan sólo aquellos sistemas que
son capaces de autoorganizarse espontáneamente, están en capacidad
de evolucionar. Cabe pensar, sostiene Kauffman, que existen leyes
generales que gobiernan la evolución de los sistemas complejos.
Heurística de una teoría general de los sistemas vivos

Anticipados en At Home in the Universe, es sin embargo en


Investigations, en donde se formulan y exploran plenamente los niveles
de leyes constitutivos de la complejidad y, por consiguiente, de los
sistemas que exhiben vida.
Los tres niveles son la condición heurística, por así decirlo, para la
identificación o formulación de las leyes mismas que sostienen a la
complejidad del universo. El primer nivel hace referencia a una
comunidad o un ecosistema en el que las especies se reúnen y tratan de
hacer su vida en los nichos que cada especie le suministra a las demás;
el segundo, trata de una escala de tiempo más amplia que la de una
comunidad que se reúne y en que el cambio ecológico, es el de la
coevolución; y finalmente, el tercer nivel es el propio proceso de la
coevolución que evoluciona.
Pues bien, sobre esta base, cabe identificar las leyes que harían posible
una teoría general de la vida, de la vida conocida tanto como de la vida
por conocer. Estas leyes son cuatro, así:
Primera ley: Abarca el filo del caos dinámico, en el que las comunidades
de agentes autónomos evolucionan al interior de, y entre, los miembros
de la comunidad, alcanzando consiguientemente un grano grueso
(coarse graining) óptimo del mundo de cada agente, el cual maximiza la
capacidad de cada uno de los agentes de suerte que discrimina y actúa
sin temores o incertidumbres.
Segunda ley: Trata de una comunidad que alcanza un estado de
criticalidad autoorganizada en la que una comunidad de agentes que se
co-ensambla, se ensamblará hasta un estado crítico autoorganizado con
un número máximo de especies por comunidad. En la vecindad de ese
máximo ocurrirá una avalancha de extinciones locales en distribuciones
que se rigen por una ley de potencia. En cuanto ese estado máximo es
alcanzado la data neta de entrada de nuevas especies se hace más
lenta, y finalmente se detiene.
Tercera ley: Se ocupa de la correspondencia coevolutiva entre los
paisajes adaptativos y los organismos en un estado de criticalidad
autoorganizada gracias a los cuales, en la escala de tiempo coevolutiva,
los agentes autónomos que coevolucionan como una comunidad,
alcanzan un estado crítico autoorganizado al ponerse a tono con la
estructura del paisaje y al acoplamiento entre paisajes, poniendo así en
marcha una distribución global de ley de potencia de eventos de
extinción y de especiación a una distribución de especies en tiempos de
vida que obedecen a una ley de potencia.
Sin embargo, la más importante es, de lejos, la cuarta ley, a la que
propiamente hablando Kauffman designa como la cuarta ley de la
termodinámica.
Cuarta ley: Explica la expansión del adyacente posible del modo de la
criticalidad autoorganizada, por la cual los agentes autónomos
evolucionarán de tal manera, que las comunidades locales causales se
encuentran en un límite subcrítico-subpracrítico que exhibe una
ventaja generalizada autoorganizada para una expansión sostenida de
posibles adyacentes del espacio de fases posible de la comunidad.
Quisiera subrayar, en otros términos el significado de esta cuarta ley,
que es, a todas luces, la más importante. Ella sostiene que los sistemas
vivos se autoorganizan de tal manera que no solamente generan
entropía, sino que, mejor aún, aprovechan la entropía generada y dan
lugar a sistemas, comportamientos y estructuras de complejidad
creciente.
Pues bien, con respecto a la filosofía misma de Kauffman cabe una
observación puntual. Ciertamente, la pretensión de toda la ciencia
durante la modernidad consistió en el descubrimiento e identificación
de leyes como el modo mismo de la investigación científica. Sin
embargo, esta pretensión encuentra un serio punto de inflexión, es
decir, de distanciamiento con la obra de I. Prigogine. En efecto, para
Prigogine no es necesario ni inevitable que la ciencia consista en la
identificación de leyes generales puesto que, por el contrario, es
indispensable considerar a cada sistema dinámico alejado del equilibrio
como un caso singular. He analizado con mayor detenimiento esta idea
de Prigogine en Maldonado,3 por lo que no es necesario entrar aquí en
ese tema.
La idea central de Prigogine es la de que no puede haber leyes generales
para todos los sistemas termodinámicos de no equilibrio posibles.
Kauffman, por su parte, coincide en este punto con Prigogine, pero
introduce un matiz de alta importancia. En verdad, sí podría haber
leyes generales para los sistemas autoconstructivos, y el caso
paradigmático de un sistema autooconstructivo es, para Kauffman, la
biosfera. En efecto, las biosferas aumentan persistentemente la
diversidad de lo que puede suceder a continuación.

Significado y posibilidades de una teoría general de los sistemas


vivos

Quisiera precisarlo de manera puntual, a partir de las ideas sugeridas o


planteadas por Kauffman. La coevolución, se funda en las nociones de
la historia de paisajes danzantes como paisajes rugosos adaptativos o
también, paisajes adaptativos acoplados; obedece al principio de
criticalidad autoorganizada, y se funda en leyes de potencia. Una ley de
potencia, sencillamente, es el modelo que sostiene que la mayoría de las
especies morirán jóvenes, y que tan sólo unas pocas vivirán un tiempo
largo.
Ahora bien, ¿cuál es el significado de una teoría general de la vida?. El
propio Kauffman no está enteramente seguro de haber alcanzado una
biología general. Las leyes propuestas por él tienen un carácter
provisorio, a la espera, quizás, de que la comunidad académica y
científica las avale. Entre tanto, cabe extraer algunas reflexiones
generales a partir del trabajo de Kauffman.
Una teoría general de la vida es, ciertamente, una teoría general, pero
no a la manera del derecho –para el cual se trata de una teoría general
cerrada-ni tampoco de la física –que la concibe como una teoría
unificada de tipo reduccionista-. Por el contrario, de manera clara y
explícita, una teoría general de la vida es una teoría abierta,
esencialmente inacabada e incompleta. Esto en virtud de su objeto: la
vida, los sistemas vivos.4 Kauffman es sencillamente un hint o tip muy
importante de lo que significaría una teoría general de la complejidad:
eso sería una teoría incompleta, inacabada, en función de su objeto: los
seres vivos.
La consecuencia de esta idea puede ser escandalosa a la luz de la
ciencia normal y de la filosofía en sentido habitual. Se trata de la idea
según la cual puede ser plausible o incluso necesario alcanzar una
teoría – científica o filosófica, para el caso da igual- que no sea cerrada,
autorreferente o conclusiva, que son el modelo básico de las teorías
científicas predominantes en la modernidad. Pero esto es ya tema de
desarrollo que nos conduce a otro espacio y que debe quedar aquí de
lado. Lo que sí es evidente es que si asumimos con seriedad el reto de la
biología, ya no es más necesario que el modelo de las teorías siga siendo
el de la física. O por lo menos no el de la física clásica y moderna.
Quiero rescatar aquí, sencillamente, el alcance que puede tener el
pensar a la manera de la vida o de los sistemas vivos. Pero ese es ya el
tema de la biología teórica, justamente; un terreno bastante poco
explorado en general.

Citas y Notas
________________________
1 Véase. KAUFMAN, S.: The Origins of Order. Oxford, Oxford University Press, 1993; At
Home in the Universe. The Search for the Laws of Self-Organization and Complexity.
Oxford, Oxford University Press, 1995; Kaufman, S.: Investigations. Oxford: Oxford
University Press, 2000.
2
Cfr. KAUFMAN, S.: The Origins of Order. Oxford: Oxford University Press, 1993, p.
449.
3
MALDONADO, C. E.: Termodinámica y complejidad. Una introducción para las
ciencias sociales y humanas. Bogotá: Universidad Externado de Colombia, 2005.
4
MALDONADO, C. E.: “El problema de una teoría general de la complejidad”, en:
Maldonado, C. E., (Editor), Complejidad: ciencia, pensamiento y aplicaciones, Bogotá,
Universidad Externado de Colombia, 2007, pp. 101-132.
Bibliografía
___________
ANDRADE, E.: (2001). Los demonios de Darwin. Bogotá: Universidad Nacional de
Colombia.

BAK, P.: Self-Organized Criticality. How Nature Works. Springer Verlag, 1999.

GOODWIN, B.: Las manchas del leopardo. Barcelona: Tusquets, 1998.

PRIGOGINE, I.: La nueva alianza. Madrid: Alianza, 1992.

SOLÉ, R.: and Goodwin, B.: Signs of Life. How Complexity Pervades Biology. New York:
Perseus Books, 2000.

VARELA, F.: El fenómeno de la vida. Santiago de Chile: Océano, 2001.


PRINCIPALES PARADIGMAS QUE HAN MARCADO LA
EVOLUCIÓN DE LAS CIENCIAS

Zenobio Saldivia M.*

Pensar en los paradigmas que más han contribuido al desarrollo


científico en general, nos obliga al menos en lo inmediato, a pensar en
los criterios que pueden emplearse para acometer una investigación de
esta naturaleza que una así, paradigmas, historia de la ciencia e
incrementos cognitivos. Desde esta perspectiva por tanto, resulta
aconsejable contar con una definición básica sobre “paradigma” que nos
permita medir, revisar o sopesar su impacto en la evolución científica.
Y por otra parte, resulta conveniente además, consignar la tendencia
analítica o la mirada crítica e historiográfica que se tomará como
directriz para apreciar la evolución científica. Así, para lo primero,
hacemos constar que utilizaremos una definición amplia que descansa
principalmente en una raigambre kuhniana, tal como veremos a
continuación. Y para lo segundo, dejamos de manifiesto, que nuestro
enfoque para ver el impacto de los paradigmas en que dar cuenta de la
evolución científica será externalista y constructivista; esto es, que se
situará desde una perspectiva que considere las distintas variables que
desde el marco social inciden en la praxis científica, y no sólo desde la
mirada internalista, que ve la marcha científica como una entidad
gremial e intelectual cerrada y centrada en sí misma. Y constructivista
porque se privilegiarán aquí algunas nociones del constructivismo
piagetiano, para apreciar las novedades científicas.

*
Doctor en Historia de las Ciencias, Universidad Tecnológica Metropolitana, Santiago,
Chile.
La definición de paradigma

A este respecto, es ya muy conocida la noción de paradigma que nos ha


legado Thomas Khun, en su libro La Estructura de las revoluciones
científicas, aparecido en la década del sesenta del Siglo XX; en dicha
obra, el autor define “paradigma” como un modelo o patrón aceptado
por la comunidad científica en sus tareas rutinarias.1 El mismo autor,
sin embargo, le atribuye más tarde otros significados; entre estos, lo
asocia a un conjunto de normas, valoraciones, reglas y procedimientos
que utiliza un marco teórico que posibilita la elección de problemas y la
selección de técnicas con las cuales analizar los observables de interés
científico. En otro lugar, sugiere entenderlo como “…un logro científico
fundamental, que incluye una teoría y alguna aplicación ejemplar a los
resultados de la experimentación y la observación”.2
En todo caso, cabe tener presente que desde la perspectiva de Kuhn, los
paradigmas, siempre vienen aparejados a una revolución científica
específica, e incluso en algunas ocasiones le atribuye un sentido muy
amplio, como una visión general del mundo. Ello deja de manifiesto
que dicho modelo explicativo es el resultado de una revolución que se
viene incoando en la propia comunidad científica, hasta que la teoría o
los enunciados esenciales que postula, son aceptados por la comunidad
científica, en vistas de su conformación empírica y su mayor rango
explicativo. Y situados desde esta perspectiva, queda claro que habría
ciertos paradigmas exitosos que han estimulado o contribuido a
innumerables avances en astronomía, en las ciencias de la vida, en las
ciencias fisicoquímicas o en las ciencias de la tierra, por ejemplo. Para
el primer caso, piénsese en la Teoría Heliocéntrica, que deja atrás el
modelo planetario centrado en el Geocentrismo. Para el caso de las
ciencias de la vida, la Teoría de la Evolución, se nos aparece en gloria y
majestad como un paradigma muy persistente, que deja en el recuerdo
las explicaciones fijistas, estáticas o puramente creacionistas sobre los
exponentes del mundo orgánico. Para el ámbito físico-químico, la Teoría
de la Combustión resulta un claro exponente que en el Siglo XVIII,
gracias a Lavoisier, da cuenta de la presencia del oxígeno en los
procesos de combustión y que definitivamente deja atrás la Teoría del
Flogisto de los químicos del Siglo XVII. A su vez en el campo de las
ciencias de la tierra, la Teoría de Placas, que corresponde en parte a
una consecuencia de la Teoría de la Evolución, pero dentro del universo
inorgánico, deja en el pasado los enfoques deterministas o creacionistas
y muestra una clara concatenación con el dinamismo en general del
mundo orgánico y del universo abiótico. Chile, por ejemplo, desde esta
perspectiva, se encuentra sobre uno de estos pedazos, la placa
Sudamericana. Y a su vez, en la mitad del Océano Pacífico desde el
centro de la tierra, emerge la placa de Nazca, la cual avanza hacia el
oeste hasta colisionar con la placa Sudamericana para posteriormente
hundirse bajo ella. Dichas placas avanzan en sentido contrario a unos
10 centímetros por año. Dichos movimientos ocasionan los terremotos
tan conocidos por nuestra historiografía y que llamaron poderosamente
la atención de viajeros como Maria Graham o de científicos como
Charles Darwin y otros.
Y por cierto, después de Kuhn encontramos otros autores que
continúan con la difusión e ilustración de la noción de paradigma
haciéndola extensiva a nuevos campos disciplinarios. Es el caso por
ejemplo de Guillermo Briones, quien desde el campo de las ciencias
sociales, concibe dicho concepto como “…una concepción del objeto de
estudio de una ciencia, de los problemas generales a estudiar, de la
naturaleza de sus métodos y técnicas, de la información requerida y,
finalmente, de la forma de explicar, interpretar o comprender los
resultados de la investigación realizada”.3
Más recientemente, el término “paradigma” se populariza aún más, con
la difusión del vídeo “Descubriendo el futuro” (1984), del futurólogo Joel
Barkel; quien, presentando amenamente diversos ejemplos de
innovaciones tecnológicas e industriales, tales como los relojes digitales
y la fotocopiadora, lo hace extensivo al ámbito tecnológico, al campo de
la industria, de la mercadotecnia y de la gestión empresarial en general.
Claro está, en todo caso, que los distintos estudiosos tanto de la
epistemología como de las disciplinas sociales, muestran algunas
correlaciones entre sí y también algunas divergencias en cuanto al
empleo de dicho término. Lo relevante, para nuestro propósito es tener
presente que la noción en comento, en la actualidad tiene una
denotación muy amplia y que entre los puntos convergentes para la
mayoría de los estudiosos están los siguientes: alude a un compromiso
valórico y a una determinada parsimonia de trabajo científico, incluye
una o unas teorías en boga dentro de uno o más campos disciplinarios,
es una cosmovisión o una manera de mirar y entender el mundo,
incluye un conjunto de criterios, métodos e instrumentos de trabajo al
cual se adscriben consciente o inconscientemente los investigadores de
un o unos campos científicos determinados.
Por tanto, considerando tales correlatos de significado, al hacerlo
extensivo al universo de las tareas propias de la historia de la ciencia,
podemos entenderlo por nuestra parte como un marco teórico y
metodológico amplio que posibilita una determinada visión de la
naturaleza y de la sociedad y que contribuye a la explicación y
descripción de los fenómenos y observables propios de la investigación
científica. Lo relevante es, en todo caso, tener presente que la
descripción y explicación de determinados referentes orgánicos o
inorgánicos que un científico pueda aportar al incremento cognitivo,
estará inevitablemente comprometido con el marco teórico o el modelo
explicativo utilizado, constituyendo así una aproximación entre teoría-
hipótesis hechos, que puede tener mayor o menor alcance explicativo
que otras, pero que nunca será la definitiva.

Paul Feyerabend y el anarquismo cognitivo.

Por cierto, dentro del universo de enfoques sobre la ciencia como forma
de adquisición cognitiva, hay también posiciones radicalizadas y muy
críticas; es el caso de Paul Feyerabend y su conocida tesis: “todo vale en
el conocimiento científico”, popularizada a partir de la publicación de su
texto: Contra el Método. Para este autor, en síntesis, la denominada
racionalidad científica en que descansa el método científico, con sus
cánones y parsimonia obligatoria, no corresponde a un espíritu
verdaderamente crítico y pluralista que debería existir en el proceso de
investigación científica y por tanto, a su juicio, esa forma tradicional de
ejercer la racionalidad científica, no es el pilar en el que descansan los
nuevos descubrimientos. Ello, toda vez que para Feyerabend, el
conocimiento nuevo sólo se alcanza, justamente cuando los científicos
se alejan de los elementos constitutivos del paradigma en uso en una
disciplina y de una identificación con el éxito y el progreso científico;
esto es, cuando audazmente abandonan los procedimientos, métodos,
reglas, criterios y valoraciones, propias del ámbito de la justificación
dentro de la investigación científica y deciden guiarse por sus propias
ideas.
A su juicio, la aprehensión cognoscitiva acontece más bien al recurrir a
una metodología que va más allá del paradigma vigente en las distintas
ciencias particulares, y que permita arribar a nuevas teorías sobre el
fenómeno o sobre el objeto de estudio específico; probando así,
caminos insospechados, hipótesis aparentemente descabelladas,
procedimientos alternativos de inducción y contra-inducción, y en
general recurriendo a cualquier procedimiento que la imaginería del
observador sea capaz de construir. De aquí su expresión: “todo vale”.
Por eso, dentro de la serie de ejemplos históricos con los que pretende
ilustrar su tesis, recuerda a la revolución copernicana o el atomismo
griego. Y confronta también los estilos de trabajos de astrónomos y
físicos para dejar de manifiesto que no usaban todos una metodología
uniforme: “Ni Galileo, ni Kepler, ni Newton utilizaban métodos
específicos bien definidos. Son más bien eclécticos, oportunistas.
Naturalmente cada individuo tiene un estilo de investigación que da a
sus trabajos una cierta unidad; pero el estilo cambia de un individuo a
otro y de un área de investigación a otra”.4 Así como también señala
que los astrónomos de formación escolástica por ejemplo, se negaban
a usar el telescopio y cuando los menos, procuraban utilizarlo, no
veían nada; no veían las manchas solares, no veían las protuberancias
de la luna, ni las lunas de Júpiter.5 Ello es comprensible, puesto que
estos astrónomos estaban enfrentando los observables, a partir del
antiguo paradigma geocéntrico de Ptolomeo y no desde el punto de
vista de un Modelo heliocéntrico, como el que sostenían Copérnico y
Galileo. Y por otra parte, es comprensible también dicha situación, toda
vez que tal como hoy sabemos, cualquier instrumento científico
requiere entrenamiento anticipado, demanda un acucioso dominio
previo para interpretar adecuadamente el observable.
Por otra parte, de la postura anárquica cognitiva de Feyerabend,
debemos rescatar la importancia que le asigna a factores tales como la
revisión metodológica, el uso de procedimientos aleatorios, el empleo de
hipótesis audaces, la confianza en la imaginería del científico, la
presencia indirecta del principio antrópico en la idea de objetividad,
entre otras. Pero, su enfoque sobre la marcha científica, más que
constituir un acicate para el progreso científico, es una explicación
epistémica muy crítica y analítica sobre la racionalidad científica y
sobre su modus operandis. Y por tanto, resulta más pertinente como
elemento teórico de un curso de epistemología, o como un hito
epistémico contemporáneo que hace serias observaciones acerca de
cómo funciona la ciencia, más que constituir un paradigma generador
de avances científicos específicos. En rigor, es una forma de explicación
del progreso científico y no un paradigma específico en el sentido
acotado con antelación. Empero, sus críticas a los procedimientos
propios de la comunidad científica, aluden a la confianza extrema en el
paradigma vigente que tienen muchos científicos; es un vivo llamado a
la tolerancia y a la mesura para lograr el adecuado equilibrio del oficio
propio del investigador que se desliza entre los criterios de búsqueda
de la objetividad científica y amplitud de las variables de las
humanidades y la condición entrópica en el proceso cognitivo.
El constructivismo piagetiano

Otro paradigma aún vigente en distintas disciplinas, tales como la


psicología, ciencias sociales, educación, pedagogía, sociología del
conocimiento, epistemología e historia de las ciencias, es el
constructivismo piagetiano. Dicho modelo explicativo tiene su génesis
con los estudios sobre el desarrollo de la inteligencia infantil realizados
por Jean Piaget, ya en la década del treinta, con observaciones y
experimentos con niños, sobre aspectos cuantitativos y sobre las
nociones de número, velocidad, cantidad, proporciones y otras. Luego,
continúa sus investigaciones, haciéndolas extensivas a diversas
disciplinas, gracias a la consolidación en Ginebra, de su Centre
Internacional de Épistémologie Genétique, en 1950 y también gracias a
la publicación en 1955, de su magna obra en tres tomos, Introducción
a la epistemología genética. En cuanto a su primera fase, referente a los
experimentos sobre la adquisición cognoscitiva en los niños, los mismos
los aplica Piaget primero en sus hijos, luego en los niños ginebrinos y
en la década del sesenta y setenta del Siglo XX, se hacen extensivos a
los países del Tercer Mundo. Lo relevante desde la perspectiva de los
paradigmas que nos interesa, es el hecho de que su modelo explicativo,
concibe la epistemología genética como “…una disciplina que estudia el
paso de un conocimiento de menor validez a otro de mayor validez”,6
con lo cual acota el tema epistemológico “al estudio de la constitución
de los conocimientos válidos”7 y por ende, sitúa el problema de la
adquisición cognoscitiva en el fenómeno del conocimiento y en la
comprensión del dinamismo de las estructuras. Así, su Modelo
explicativo del avance científico, permite dar cuenta del desarrollo
intelectual del niño, de una disciplina social, o de una disciplina propia
de las ciencias de la vida. O en otras palabras, su visión del
conocimiento es extensivo no sólo al hombre sino a todos los seres
vivos. La diferencia únicamente radicaría en cuando y cómo van
apareciendo nuevas estructuras cognitivas que bien pueden ser
conductuales y operativas en unos y lógico matemáticas en otros, como
en el caso del ser humano.
Así, desde la perspectiva del modelo constructivista, resulta
comprensible que el conocimiento es el resultado de una interacción
mutua entre un sujeto y objeto dentro de las variables específicas del
medio. Con ello se privilegian los aspectos biológicos y operativos del
proceso cognitivo y la construcción interna de novedades, que en este
caso serían las nuevas estructuras, con las cuales el ser vivo o un
sujeto epistémico específico tiene que habérselas con el medio. Desde
esta perspectiva el conocimiento es siempre un resultado visible, un
dominio efectivo de nuevas estructuras de un ser vivo que va ampliando
su dominio y comprensión sobre el medio, justamente en la medida que
va internalizando y practicando nuevos niveles de estructuras que en el
caso del ser humano terminan con el pensamiento formal y la
profundización lógica, normativa y discursiva de las mismas. Ello sirve
de pábulo por tanto, para homologar la adquisición cognitiva individual
y la adquisición de las comunidades científicas, tal como Piaget lo deja
aclarado en obras tales como Introducción a la epistemología Genética,
Biología y Conocimiento, Psicogénesis e Historia de las ciencias y otras.
Por cierto, que si nos situamos desde esta perspectiva, la ciencia en su
totalidad es siempre un progreso que se caracteriza por la aparición de
nuevas estructuras lógico matemáticas y conceptuales. Y ello dentro de
un isomorfismo entre el desenvolvimiento de la inteligencia individual y
el desarrollo de las ciencias formales, biológicas, psicosociales,
educacionales y otras. Resulta conveniente, en todo caso, reconocer la
enorme persistencia de este paradigma especialmente en ciencias de la
conducta humana, de la educación, de la psicología evolutiva, de la
sociología del conocimiento, de las ciencias sociales en general y más
recientemente en el campo de la historia de las ciencias; e incluso ha
dado pié para el desarrollo de las denominadas ciencias cognitivas; esto
es, aquellas disciplinas que concilian aspectos biológicos, neurológicos y
lógico-matemáticos dentro de las cuales se ubican las corrientes
cognitivas de Varela, Maturana, Mpodozis y otros, cuyas ideas han
dejado en claro la importancia del rol del observador y la fuerte unidad
que existe entre el observable que se desea describir y el investigador.8
Desde el punto de vista de la historia de las ciencias y del desarrollo de
las ciencias sociales, llama la atención la persistente influencia del
paradigma constructivista, que aún luego de más de setenta años,
continúa ofreciendo conceptos y teorías en los campos disciplinarios
mencionados. Tanto es así, que la tendencia más moderna y remozada,
denominada neoconstructivismo, continúa como eje directriz de
muchas reformas educacionales en Chile, América y España, y
ofreciendo interesantes hipótesis sobre la realidad biológica y social del
conocimiento. Luego, si tuviéramos que enumerar algunas conquistas
vinculadas a este modelo explicativo, La Teoría de la Inteligencia, la
Teoría de los Estadios Evolutivos, la Teoría de la Equilibración, la Teoría
del Isomorfismo Biología-Lógica y otras, nos indican que en los campo
de la psicología, de la sociología del conocimiento, de las Ciencias
Sociales, así como en el ámbito de la Historia de las Ciencias en
general y de la Historia de las Ciencias en América, en especial, ha
contribuido con interesantes hipótesis y nuevas explicaciones sobre los
procesos de institucionalización de la ciencia en los países de América.9
Ahora bien, como los paradigmas existentes en el universo de la
epistemología contemporánea, son demasiados para ser analizados en
una modesta exposición de esta naturaleza, nos vemos obligado a
seleccionar de entre los existentes, los mencionados, pero es
prácticamente un deber mencionar también el “racionalismo científico”
de Mario Bunge, que sostiene que el conocimiento científico requiere de
verdades necesarias y momentáneas y que los resultados observables
de la ciencia como institución social se perciben en la ordenación de
sistemas deductivos, o en la coherencia y uniformidad en el ejercicio de
la adquisición cognitiva, tal como se señala en sus obras, entre las
cuales, recordemos al menos: La Investigación científica, Racionalidad y
realismo, entre otros.10 Desde esta perspectiva, por tanto, queda claro
que la historia de las ciencias es la marcha de nuevas verdades que son
el resultado de la totalidad del corpus científico y del orden tecnológico
imperante. Y en este mismo camino, pero desde la perspectiva de la
Historia de las Ciencias, se ubicaría George Sarton, quien concibe a la
ciencia como un continuo de verdades y de resultados en constante
progreso, pero esencialmente abierta a los avatares de las influencias
culturales de Oriente y Occidente, tal como lo deja de manifiesto en su
obra: Ensayos sobre la ciencia.11
También el modelo de la “Arqueología del saber” de Michel Foucault,
entre otros, merece una mención especial, toda vez que su análisis
sobre el discurso científico en general, deja de manifiesto que la
comunidad científica no está ajena a la influencia de los códigos, o
tendencias de la cultura en la cual se desenvuelve. Ni tampoco puede
distanciarse del propio proceso discursivo que utiliza para dar cuenta
de los hechos o para representar a la naturaleza o la sociedad. Ello toda
vez que tal como lo deja de manifiesto este autor en su obra: Las
palabras y las cosas; las explicaciones y/o descripciones de los
observables de interés de la comunidad científica, se entrecruzan con el
lenguaje. O dicho en términos del propio Foucault: “…la naturaleza sólo
se ofrece a través de la reja de las denominaciones, y ella que sin tales
nombres, permanecería muda e invisible, centellea a lo lejos tras ellos,
continuamente presente más allá de esta cuadrícula que la ofrece, sin
embargo, al saber y sólo la hace visible atravesada de una a otra parte
por el lenguaje”.12 Lo anterior es relevante, puesto que al aplicarlo a la
Historia de las Ciencias, las disciplinas interesadas, por ejemplo a los
fenómenos del mundo orgánico en general, como el caso de la Historia
Natural de los siglos XVIII y XIX, únicamente estarían haciendo nuevas
contribuciones en la medida que logren dejar atrás el estatismo o
fijismo de los discursos y nombres consagrados para explicitar el
mundo natural. Y justamente el esfuerzo de toda la Historia Natural, así
considerado sería bifronte: por un lado va dando una nueva ordenación
del universo biótico de las distintas regiones del mundo, y por otra, va
consolidando una terminología más precisa que supera la fábula u
otras maneras tradicionales de hacer representaciones discursivas
sobre el mundo natural. Así, la botánica, la farmacopea, la geografía, la
taxonomía y otras disciplinas habrían seguido este doble derrotero.
Pero como nuestro objetivo central apunta a apreciar el impacto de
ciertos paradigmas en la marcha científica, es conveniente considerar
también corpus culturales, teóricos y metodológicos, que si bien no
vienen de la tradición epistemológica, si provienen del dinamismo de la
cultura y la sociedad y de su relación dialéctica, entonces es
conveniente también considerar ciertos modos de ver el mundo, o
ciertos movimientos culturales, que de acuerdo a nuestros criterios de
revisión acotados (la definición tentativa y amplia de paradigma, y un
enfoque externalista para concebir la marcha científica), nos instan a ir
más allá de las perspectivas epistemológicas contemporáneas y la
interpretación que estos hacen del desarrollo científico. En efecto,
partiendo de los criterios analíticos indicados, resulta pertinente incluir
algunos movimientos culturales, filosóficos, históricos y estéticos, que
en general fueron capaces de encontrar expresiones que los hicieron
llegar a la comunidad científica y a sus exponentes. Entre estos, sin
pretender dar cuenta de todos, consideremos al menos al movimiento
cultural, político, filosófico e ideológico de la Ilustración, al movimiento
cultural, científico, artístico y estético del Romanticismo, a la corriente
científica, filosófica, cultural del Positivismo.

El aporte de la Ilustración

En cuanto a la Ilustración, los ejemplos son innumerables, pero


recordemos aquí al menos, el esfuerzo de Ignacio Molina, para dar
cuenta de la flora y fauna chilena, en sus obras tales como Saggio sulla
storia naturale del Chili (Bolognia, 1782). Y es de justicia indicar
también que el movimiento cultural y político impacta a la comunidad
científica internacional, toda vez que muchos monarcas simpatizantes
de este ideario, contribuyen a la consolidación de Academias científicas,
a la instauración de cátedras de Botánica, construcción de Museos y
diseño de Reales Jardines. Estos últimos por ejemplo, pasan a
constituir una clara expresión de acopio taxonómico, de conocimientos
florísticos y farmacológicos y de gusto estético ornamental. Además de
lo anterior es prácticamente imposible olvidar la organización y puesta
en marcha de las diversas expediciones científicas y geopolíticas, hacia
el Nuevo Mundo, o hacia los territorios de Ultramar de las distintas
monarquías europeas. Recuérdese al respecto, los viajes de Hipólito
Ruíz y José Pavón, a las costas de Chile, Perú y otros lugares de
América entre los años 1777-1888, o los viajes de La Perouse a distintos
lugares del Pacífico, entre 1785 y 1788, o la gran expedición global de
Malaspina, entre 1789 y 1794, que tanto rédito significó para la
ciencias de la vida, para la geografía, la taxonomía y la farmacopea,
aunque el gigantesco acopio de sus observaciones y la abundante
diagnosis de la flora y fauna americana, sólo se analizaron muchos
años más tarde. Desde el punto de vista de la Historia de las Ciencias
en Chile, es significativo, dentro de este marco de la Ilustración, las
diversas expediciones que realiza José de Moraleda en Chiloé y la zona
austral del Chile Colonial, las cuales se ubican entre 1786 y 1801. Ello,
porque significó para la ciencia española y europea en general, un
incremento muy significativo, en especial en cuanto a la hidrografía, al
estudio de las mareas, a la climatología, la astronomía y la
actualización de cartas náuticas.
Por tanto, lo anterior ilustra como el movimiento de la Ilustración
potencia el desarrollo de la comunidad científica internacional y actúa
como un mecanismo efectivo que produce un notorio incremento en el
acerbo cognitivo de las distintas disciplinas dieciochescas; entre estas,
la navegación, la farmacopea, la balística, la hidrografía, la geografía, la
geología, la taxonomía, la botánica y la cartografía, entre tantas otras.
Por ejemplo, entre los resultados que generó este movimiento, están los
centenares textos de geografía, de taxonomía o de historia natural en
general, en los cuales sus autores dan cuenta de los referentes
orgánicos del Nuevo Mundo. Y entre estos, recordemos aquí al menos el
libro de Hipólito Ruiz: Tratado del árbol de la Quina ó cascarilla. Con su
descripción y la de otras especies de quinas nuevamente descubiertas en
el Perú, que sale a la luz pública en 1792; o el texto del mismo autor,
que dos años después publica su Florae peruvianae et chilensis
prodomus, sive novorum generum plantarum peruvianarum, et chilensium
descripciones et icones. O el ensayo de Antonio de Ulloa, aparecido en
1792, Noticias americanas. Entretenimientos phisico-históricos, sobre la
América Meridional, y la Septentrional Oriental. O el texto de Charles
Marie de la Condamine, que sale de las prensas en 1778. Relation
abrégé d’un voyage fait dans l’interieur de l’amerique meridionale,
después, la cote de la Mer du Sud. En rigor la bibliografía científica que
queda para la comunidad de especialistas europeos, como resultado del
impulso de la Ilustración es extraordinariamente abundante y si se
consideran las distintas ciencias de la época, pasan de centenares, y
esto focalizando la atención nada más en los ensayos que aportan una
visión sobre la naturaleza del Nuevo Mundo, tal como lo ha estudiado
Saldino.13 Por eso no resulta extraño que en Chile, recientemente
algunos investigadores como Rafael Sagrado, traigan a presencia estos
esfuerzos de circunnavegación científica, al dar cuenta detallada de los
viajes de Malaspina en América y en el Chile Austral, en particular.14

El romanticismo

En cuanto al Romanticismo, por ejemplo, es innegable la notoria


influencia que este movimiento artístico cultural, histórico, estético y
científico, influyó durante el Siglo del Progreso, desde al arte y la
literatura hasta en el desenvolvimiento de la ciencias de la vida y a las
ciencias de la tierra. En el caso de América, el romanticismo irrumpe
notoriamente después de la obtención de la independencia política, en
la mayoría de los países emancipados de la metrópolis hispana;
aludiendo a temas como la naturaleza, la peculiar realidad social y la
búsqueda de una literatura que deje atrás la tradición hispana. Al
respecto, piénsese en la influencia expansionista que ocasionan los
trabajos de Vicente Fidel López, Bartolomé Mitre, Domingo Faustino
Sarmiento, José Victorino Lastarria, Alberto Blest Gana, Esteban
Echeverría y tantos otros. Los contenidos tratados por estos autores
chilenos y argentinos, así como la prosa de los mismos, trasuntan un
nuevo modelo de sensibilidad y de valores estéticos y pasa a
constituirse en un acerbo teórico relevante para abordar problemas
vinculados al marco social. Lo anterior, coincide con la consolidación
política y cultural autónoma, en que están empeñados los exponentes
de esta tendencia y que se presenta en casi todos los ámbitos del
quehacer intelectual y artístico de los países de América. En el ámbito
de las ciencias, autores como Humboldt y Bompland, luego de su viaje
por América Meridional, (1799-1804), instauran con antelación los ejes
de un modelo que se cohesiona con el romanticismo literario y
artístico de los inicios del siglo XIX y que de allí en adelante generan
una especie de intromisión de la búsqueda estética en las descripciones
taxonómicas de los diversos observables de la naturaleza americana,
amén de una clara convicción de apreciar los referentes orgánicos como
parte del todo del Cosmos y por ello los exponentes bióticos, aparecen
dando cuenta de sus hábitats y en su interacción con el marco social de
su tiempo, especialmente con los nativos americanos. Esto es un
acicate poderoso en taxonomía, en botánica, en farmacopea, en
ictiología y otras disciplinas, como la antropología y la etnografía, e
incluso para el desarrollo de la vulcanología, de la geografía humana, la
fitogeografía y otras. Por eso no es extraño entonces, que exploradores
como Belt y Squier en Nicaragua, geógrafos como Ritter en Argentina, o
Jiménez de la Espada, que acompaña a otros investigadores en la
Comisión Científica del Pacífico Sur, organizada por el gobierno español.
(1862-1866). Y en Chile, botánicos como Gay e ingenieros en minas
como Domeyko, continúen con este modelo explicativo de lo viviente y
de lo inorgánico, que se caracteriza por la búsqueda de un equilibrio
discreto entre los sentimientos del científico en tanto sujeto observador
y las exigencias de objetividad propias de la diagnosis taxonómica,
además de un notorio énfasis por los íconos, en lo referente a la
descripción de locus específicos y a la identificación y clasificación de
los referentes de la flora y fauna locales.
Entre los logros científicos conseguidos al alero de esta cosmovisión,
tengamos presente cuando menos, los textos de Humboldt, tales como
su Cosmos, o sus Viajes a las regiones equinocciales del Nuevo Mundo;
o el texto de Thomas Belt El naturalista en Nicaragua (1874), donde el
autor despliega las notas propias del romanticismo científico y
descriptivo, con visos hipotéticos y explicativos, para identificar y
describir los distintos especímenes de la flora y fauna de dicho país
centroamericano, matizado con ilustraciones del mismo autor. La visión
de la naturaleza en Belt, corresponde a una mirada apasionada que
capta un gigantesco receptáculo orgánico e inorgánico de formas y
colores infinitos que hacen posible el desenvolvimiento de la vida y la
obtención de la belleza y el goce estético. Su prosa expresa muy a
menudo el asombro ante el observable, característica frecuente entre los
científicos románticos; v. gr. en su obra ya mencionada expresa:
"...mientras cabalgábamos; vimos robles y pinos enteramente por
colgantes festones, con aspecto de musgos grises, de la Tillandsia
usneesis o "barba de viejo". No había ramita que no estuviera agobiada
por un fleco colgante, de hasta seis pies de largo que simulaba un velo
gris meciéndose al viento....El aspecto de la región, los árboles, matas, y
flores, los pájaros y los insectos, el aromático perfume de los pinos, todo
reclamaba mi atención a cada minuto".15
También la visión de la naturaleza nicaragüense que nos ha dejado E.
G. Squier, es esencialmente una mirada romántica, interesada en
mostrar lo curioso, lo vernáculo. La misma es presentada como un
universo extraño, lleno de vida y colorido que provoca un claro asombro
en el europeo, o en el visitante del hemisferio norte en general; tanto
por los especímenes de la flora y fauna que en ella viven, como por la
forma de vida y comportamiento social y cultural de los nativos que la
habitan. Con razón, también, al igual que Humboldt en la América
Meridional, Squier viaja con un artista: James Mc Donough, quien se
encarga de ilustrar muchas de las notas referentes a situaciones
sociales, a estatuas aborígenes y a algunos exponentes del medio
orgánico en general del país. En cuanto a una descripción más
específicamente de la flora, la cita a continuación nos ilustra parte de la
percepción de la misma que tiene el autor: “…los mercados de León
ofrecen tal profusión de frutas y legumbres que sería casi imposible
enumerarlos todos. Sandías, papayas, piñas, naranjas, mameyes,
nísperos, granadillas, marañones, jocotes, yucas, plátanos, bananos,
frijoles, maíz, y a veces cierta clases de papas apenas más grandes que
las balas, llevadas allá en zurrones desde las tierras altas de Honduras
y Costa Rica que la venden por libra”.16
En el caso de Domeyko, es muy relevante su Introducción al estudio de
las ciencias naturales, (1847), donde frecuentemente cita a Humboldt y
también a Schiller, y en otros trabajos cita incluso a Goethe. O bien su
obra La Araucanía y sus habitantes, publicada en 1845, donde deja de
manifiesto las observaciones sociológicas sobre los araucanos y su
vinculación con el entorno. Gay, a su vez, nos ha legado los dos Atlas
que complementan los tomos de su Historia Física y Política de Chile
(26 tomos), publicados en París, entre 1844 y 1870. Dichas obras en su
conjunto, muestran el cuerpo físico y social de la época, focalizando la
atención en las costumbres y eventos sociales en general, y en el
medio natural, y para ello se ayudó al igual que la mayoría de los
científicos románticos, de destacados dibujantes y pintores, entre estos
Mauricio Rugendas; quien también había colaborado antes con
Humboldt. Lo precedente es parte de la producción teórica y
bibliográfica de los científicos románticos, pero también es parte de un
peculiar estilo de vida que se identifica con la dedicación absoluta y
total a un proyecto científico.

El positivismo y su influencia

Desde que Augusto Comte, publica su texto: Cours de Philosophie


positive (1830-1842), las ideas del positivismo se empiezan a conocer en
la comunidad académica y científica europea. Y si bien el concepto
encierra muchas acepciones, es posible entenderlo como una corriente
filosófica, cultural, científica y epistémica que se desarrolla en Europa a
partir de las ideas sobre ciencia y filosofía de Comte, que se caracteriza
por enfatizar la importancia del método y de la ciencia para la obtención
del progreso y la regeneración moral de la sociedad. Y como
adelantáramos, luego de la difusión de la obra ya mencionada, muy
rápidamente pasa también a las nacientes repúblicas americanas. En
especial en México, Brasil y Chile, donde se percibe su ideario en la
educación, en las ciencias sociales y en la estructuración de las
corporaciones de la educación superior. En el caso de Chile,
principalmente a partir de la fundación de la Academia de Bellas Letras
en 1873, dirigida por José Victorino Lastarria, y más aún con la
publicación al año siguiente, del libro Lecciones de política positiva, de
Lastarria, se consolida un grupo de destacados intelectuales, entre los
que se cuentan B. Vicuña Mackenna, Diego Barros Arana, José Manuel
Balmaceda, Miguel Luis Amunategui, los Hnos. Lagarrigue y Valentín
Letelier, entre otros. Los objetivos de los mismos, apuntan a la difusión
de las nociones comtianas y al estudio y aplicación o "adaptación" de
muchas de ellas a la realidad social, cultural, científica y política
chilenas. La labor de este grupo para nuestro país, en el período
finisecular, es extraordinariamente significativa, toda vez que imbuidos
del ideario comtiano; propician la educación científica y la educación de
la mujer, el desarrollo de obras ingenieriles tendientes a la obtención
del progreso, la difusión de la ciencia y la separación de los poderes del
estado. Para ello fundan sus propios medios comunicacionales, tales
como la Revista de Chile, en Santiago, o el periódico “El positivista”,
entre otros, donde difunden dichas nociones y dan cabida a científicos
nacionales, para exponer sus tesis vinculadas a los propios paradigmas
vigentes en esta era, en las distintas disciplinas. Por ello no es extraño
encontrar en estas y otras fuentes del período, abundantes trabajos de
economía, botánica, taxonomía, ciencias sociales, educación,
historiografía, geología, antropología, política, arqueología, higiene
pública. Y es frecuente además observar en estos medios trabajos de
Philippi, análisis de la obra taxonómica de Gay, tesis de medicina, y de
la educación en general, y en especial, los mejores esfuerzos de los
seguidores de esta doctrina, apuntan a inculcar el conocimiento del
método experimental y de las leyes de la naturaleza en la curricula del
sistema educacional chileno.
Lo propio acontece en muchos otros países de América, en México ya en
1867 por ejemplo, el positivismo es el eje de una profunda reforma
educacional, a cargo de Gabino Barreda, con el propósito de instaurar
los cánones científicos y experimentales en la formación de los
estudiantes, como un mecanismo efectivo que contribuya a alcanzar el
anhelado progreso material y el ordenamiento social. En Venezuela, a
su vez, en la Universidad de Caracas en 1866, Rafael Villavicencio
inaugura la Cátedra de Filosofía Positiva, y en 1882, se instaura la
Sociedad de Amigos del Saber, ambas entidades apuntan a similares
propósitos de sus pares chilenos. Lo relevante entonces, es que esta
doctrina genera una discusión sobre la conveniencia de difundir las
características del método científico y al mismo tiempo cientifizar los
sistemas educacionales. Dicha tarea se complementa con las
actividades específicas de los científicos del período, quienes aportan
desde sus especialidades enfatizando los aspectos pragmáticos y todos
aquellos elementos que contribuyan a la industrialización, al desarrollo
de la economía nacional y a la incorporación de los referentes orgánicos
o abióticos del cuerpo físico de los países de América, al capitalismo en
general. En el caso de Chile, es notorio el esfuerzo de científicos como
Philippi, Gay, Domeyko, Pissis y otros, quienes comparten estos
aspectos utilitarios de la ciencia y su articulación con los sistemas
productivos, tal como ya lo ha destacado por ejemplo Benjamín
Subercaseaux.17

A manera de conclusión.

De acuerdo a nuestra hipótesis formulada en los inicios de esta


comunicación, creemos que es posible dejar constancia de algunas
conclusiones propiamente epistémicas y otras relacionadas con la
marcha de la comunidad científica internacional. Para lo primero,
queda claro que la idea de paradigma no se agota en la peculiar mirada
de Thomas Kuhn, pues su definición es a ratos muy estrecha y a ratos
demasiado operativa, tal como el mismo autor lo reconoce en diversas
obras; por ello resulta aconsejable también abrirse a las cosmovisiones
y movimientos propios de la cultura y la sociedad del tiempo histórico
que se desea dilucidar, para comprender mejor el dinamismo y la
emergencia del conocimiento nuevo. Es también un fenómeno
debidamente demostrado, que los paradigmas vigentes dentro de una
comunidad de especialistas, contribuyen a incrementar la adquisición
cognitiva dentro de un campo disciplinario específico, siempre y cuando
dicho modelo no muestre visos de alguna crisis teórica significativa o
tenga notorias falencias en el ámbito de la comprobación empírica.
Desde luego, los paradigmas mencionados aquí, han sido el resultado
de una selección cuidadosa, pero hay muchos más que no es posible
abordar en una comunicación de esta naturaleza. Así por ejemplo, se
sugiere también pensar en la perspectiva del racionalismo griego, en el
modelo mecanicista del universo y en el paradigma marxista, para
futuros análisis, debido al enorme impacto que estos paradigmas,
también han generado en la ciencia universal.

Citas y Notas
___________________
1 Cfr. KUHN, Thomas S.: La Estructura de las Revoluciones científicas, Ed. Fondo de
Cultura Económica, México D. F., 1982, p. 51.
2 KUHN, Thomas S.: “Los paradigmas científicos” en: Barnes, B. et al.: Estudios

sociales de la Ciencia, Alianza Editorial, Madrid, 1980, p. 89.


3 Cfr. BRIONES A., Guillermo: “Epistemología de la investigación”, Módulo I, Curso

Educación a distancia: Métodos y Técnicas avanzadas de investigación aplicadas a la


educación y a las Cs. Sociales., Stgo., 1989.
4 Cfr. FEYERABEND, Paul: Contra el método, Ariel, Barcelona, 1981, p. 48.
5 Ibidem, p. 49.
6 PIAGET, Jean: Logique et connaissance scientifique, Gallimard, Paris, 1967, p. 7.
7 Ibídem., p. 6.
8 Vd. por ejemplo: Maturana, Humberto: El árbol del conocimiento, Ed. Universitaria,

Stgo. O bien, Maturana H. y Mpodozis, J.: Origen de las especies por medio de la
deriva natural, Dirección de Bibliotecas, Archivos y Museos, Stgo., 1992, p. 14.
9 Vd. trabajos tales como: Saldivia M., Zenobio: “¿Qué puede aportar Piaget a América

Latina?”, Revista Solar, Stgo., Nº1, 1991. O bien: Berríos C., Mario y Saldivia M., Z.:
“Una propuesta constructivista para el análisis epistémico en América Latina”, Revista
Trilogía, U. Tecnológica Metropolitana, Stgo., Vol. 16, Nº 25-26, 1996-1997. O
también: Berríos, M. y Saldivia, Z.: “La construcción de un concepto de ciencia en
Chile: Manuel de Salas y Claudio Gay”, Revista de Sociología, U. de Chile, Stgo., Nº8,
1993.
10 Cfr. SARTON, George: Ensayos de Historia de la Ciencia, Ed. Uthea, México D. F.,

1968.
11 Cfr. BUNGE, Mario: La investigación científica. Y del mismo autor: Racionalidad y

realismo, Alianza Universidad, Madrid, 1985.


12 FOUCAULT, Michel: Las palabras y las cosas, Ed. Siglo XXI, México D.F y Madrid,

1999, p. 160.
13 Vd. SALADINO García, Alberto: Libros científicos del Siglo XVIII Latinoamericano, U.

Autónoma del Estado de México, 1998


14 Cfr. SAGREDO, Rafael: La expedición de Malaspina en la frontera austral del Imperio

español, Ed. Universitaria, Centro de Investigaciones Diego Barros Arana y DIBAM,


Stgo., 2004.
15 BELT, Thomas: El naturalista en Nicaragua (Traducción y notas de Jaime Incer B.),

Banco Central de Nicaragua, Managua, 1976, p. 182.


16 SQUIER, E. G.: Nicaragua, sus gentes y paisajes, Editorial Universitaria
Centroamericana (Educa), Trad. de Luciano Cuadra, 1970, Costa Rica, p. 212.
17 Cfr. SUBERCASSEAUX, Benjamín: Historia de las ideas y de la cultura en Chile (2

vol). Ed. Universitaria, Stgo., 1997.


AMBIENTES VIRTUAIS PARA A EDUCAÇÃO COMO
FERRAMENTA DE ESTUDO DE ESTRATÉGIAS
METACOGNITIVAS

Jerônimo Freire*, Givanaldo Rocha*, Arnon Andrade*

Introdução

O desenvolvimento tecnológico relacionado com Ambientes Virtuais


para a Educação (AVE) tem permitido uma crescente naturalidade nas
interfaces usuário-computador. A forma amigável de interação com os
mundos virtuais, através do computador e de forma colaborativa via
Web, tem colaborado para que a Cultura e a Ciência sejam
compreendidas e assimiladas mais facilmente, uma vez que os usuários
podem interatuar e manipular diretamente o próprio conhecimento,
colaborando desta forma para o estudo de estratégias metacognitivas.
Em estudos realizados por Flavell,1 Metacognição éa capacidade que
temos de autoregular a própria aprendizagem, ou seja, planificar que
estratégias podem ser utilizadas em cada situação, aplicá-las para
controlar o processo, avaliá-los para detectar possíveis falhas, e, como
conseqüência, transferir tudo isso para uma nova situação. Em sua
Epígrafe no livro Psicologia Educativa: um ponto de vista cognitivo,
David Ausubel afirma: “Se tivera que reduzir toda a Psicologia
Educativa a um só princípio, diria o seguinte: o fator mais importante
que influi na aprendizagem é que o aluno já sabe. Observe isto e ensine
em conseqüência”.2 Ausubel, em sua teoria de aprendizagem
significativa, afirma que a aprendizagem do aluno depende de sua
estrutura cognitiva prévia que se relaciona com a nova informação,
entende-se por estrutura cognitiva, o conjunto de conceitos, idéias que

*
Doctor en Ciencias de la Educación, Universida de Potiguar, Brasil.
* Doctor en Sistemas e Información, Universida de Federal do Rio Grande do Norte,
Brasil.
* Doctor en Ciencias de La Educación, Universidade Federal do Rio Grande do Norte,
Brasil.
o indivíduo possui em um determinado campo do conhecimento, assim
como sua organização. A aprendizagem significativa parece ocorrer por
meio de processos: explorando, fracassando, tentando, corrigindo,
obtendo dados, elaborando conjecturas, testando-as construindo
explicações, que são resultados de inferências, comparações, analogias,
reflexões, sobretudo do estabelecimento de relações entre as
aprendizagens prévias e o novo objeto de conhecimento. Nesse cenário,
o professor é um provocador que instiga a mente do aluno, fazendo-o
pensar, ter idéias, refletir, dar explicações, tomar decisões. Ele precisa
planejar ambientes problematizadores que contenham obstáculos (para
desequilibração), possibilitando que o aluno obtenha informações, atue
em equipes, de forma colaborativa, elabore hipóteses, teste hipóteses,
realize experiências, tome decisões, procure informações, resolva
problemas. Segundo Ausubel, a organização destes conceitos, para uma
área determinada do saber na mente de um indivíduo, tende a ser uma
estrutura hierárquica em que as idéias mais inclusivas se situam em
cima e progressivamente incluem proposições, conceitos e dados
inclusivos e menos diferenciados. A estrutura cognitiva se caracteriza,
portanto, por apresentar uma organização dinâmica de conceitos
aprendidos. É necessário apontar que estas idéias não são totalmente
novas, a teoria de Vigotsky,3 embora com outras palavras, afirma o
conceito de que o desenvolvimento cognitivo de um sujeito implica em
seu desenvolvimento metacognitivo: à medida que o indivíduo cresce e é
instruído (tanto na educação formal, como na espontânea), suas
funções cognitivas superiores (memória, percepção, atenção,
compreensão) sofrem uma série de transformações.
Nas sociedades primitivas era indispensável que a criança aprendesse a
caçar e pescar para sobreviver como membro útil de sua sociedade, na
Idade Média o ensino dos ofícios às crianças e jovens nas pequenas
cidades era considerado como a prática mais recomendável por parte
dos artesãos. Em resumo, cada sociedade a cada tempo tem tomado
decisões sobre qual é a formação para seus representantes. Hoje em
nosso mundo, na sociedade da informação, existem representantes dos
mais diversos espaços e que apontam a necessidade de formar uma
capacidade de saber ser cognitivo dentro de nossa sociedade e nossa
cultura.4 O jovem deve aprender os conhecimentos sobre língua,
matemática, história e ciências que esta sociedade
transmite, assim como valores e crenças, não obstante, deve também
ser capaz de enfrentar uma realidade impregnada de tecnologia no qual
o uso inteligente da informação é fundamental.5
O ensino tradicional, na sua grande maioria, com seu método único
memorístico, se dissolve dando lugar a uma educação baseada em
distintas formas de apresentar os conteúdos (hipermídia), onde o meio
influencia definitivamente na aprendizagem do aluno. Estamos
deixando para traz um ensino centrado apenas nos números e palavras
para um ensino com base também no som e na imagem,6 desta forma,
acreditamos que este canal multisensorial possa colaborar com
estratégias metacognitivas. Este trabalho apresenta um ambiente
virtual para a educação desse jovem do nosso tempo, tratando das
ferramentas de uso da metrologia: régua, paquímetro, micrômetro,
balanças, com propósito de colaborar com as estratégias
metacognitivas.7

Desenvolvimento do Ambiente Virtual para Educação - AVE

A criação do ambiente virtual com propósito de estudar os aspectos


metacognitivos dos aprendizes do assunto abordado está definido como
um ambiente hipermídia (hipertexto com multimídia), caracterizado pelo
uso simultâneo de dados em diferentes formas de mídia (som, vídeo,
texto, animações e simulações). Os seres humanos experimentam o
mundo por meios dos sentidos e se expressam através de diversos e
elaborados sinais verbais e visuais. A hipermídia é uma tecnologia de
informação flexível que proporciona um ambiente poderoso para o
propósito de estudar as estratégias metacognitivas. Principalmente pela
possibilidade de oferecer diversos caminhos às aprendizagens
diferentes, respeitando assim as diferenças nas características
cognitivas dos aprendizes. Outro ponto importante do ambiente virtual
de educação via Web está relacionado ao aspecto colaborativo, espaços
compartilhados de convivência pessoal, favorecendo a troca de
informações entre os participantes destes ambientes, visando a
construção do conhecimento de forma assíncrona. Atualmente a Web se
tornou um grande ambiente para aprendizagem colaborativa,
oferecendo possibilidade para armazenamento e distribuição de
informações de fácil acessibilidade e independente de plataforma.8
A proposta consiste em construir ambientes na Web com recursos em
Java e VRML (simulações) com vídeo integrado ao ambiente virtual,
contendo hipertextos, links de acesso às páginas com orientações para
estudos na forma presencial e à distância, com informações sobre o
estudo da Metrologia, com URLs contendo temas relacionados à
disciplina (biblioteca virtual) e com formulário s para efetivar processos
de interação entre o professor e aluno e entre alunos (função
colaborativa). As informações referentes aos conceitos a serem
estudados foram disponibilizadas na Internet em forma de hipertextos,
organizados de forma a incentivar o aluno a refletir, interpretar, tomar
decisões e gerenciar sua aprendizagem (estratégias metacognitivas).
As tarefas de aprendizagem propostas foram planejadas de forma a
incentivar o aluno a refletir sobre os conceitos e problemas com os
quais lida, na busca de desenvolver suas habilidades e competências
para o assunto abordado.
A decisão de optar pelo ambiente virtual para o estudo da Metrologia
nasceu da necessidade de ampliar os recursos audiovisuais aplicados
ao ensino-aprendizagem aos quais o aluno tem acesso nessas últimas
décadas. O aspecto interativo do ambiente, aliado à disponibilidade de
observar o funcionamento dos instrumentos (paquímetromicrômetro)
em vídeo digital tem apresentado um significativo aumento no
conhecimento da arte de usar e realizar medidas, sendo esta atividade
importante nos primeiros momentos de contato com o estudo das
ciências.9
(a) (b)

Figura 01 – Paquímetro virtual

A figura 01 apresenta modelos didáticos para demonstração do uso do


paquímetro: a figura 01(a) ilustra o protótipo do modelo virtual
proposto, construído em VRML; e a figura 01(b) ilustra um modelo já
existente na Internet, sendo que construído em Java (visualização em
2D). A vantagem de uma visualização em 3D é que o usuário tem uma
melhor percepção da forma física do objeto (nesse caso, do aparelho de
medição) além da visão funcional, sendo apenas esta observada numa
visualização em 2D. A dinâmica de uso do ambiente virtual de
aprendizagem em sala de aula e via Internet tem contribuído, com
características lúdicas, para um maior entendimento dos fenômenos e
conceitos em uma menor escala de tempo. Neste sentido, observamos
que os processos cognitivos são acelerados, em razão da forte
contribuição devido à interatividade e repetitividade.
Uma demonstração prática do uso de um paquímetro é abordada sob a
forma de vídeo, como mostra a figura 02, complementando o uso do
ambiente virtual. Os vídeos estão no formato do Real Player que, neste
sentido, contribuem para facilitar a compreensão do ambiente virtual,
sendo bastante útil para o ensino assíncrono.
Figura 02 – Vídeo mostrando o uso do paquímetro

A figura 03 mostra a modelagem do micrômetro virtual (protótipo),


também em VRML. Por ser um aparelho de uso mais complexo que o
paquímetro, a virtualização dele torna-se muito útil, pois facilita uma
compreensão detalhada do seu processo de medida. Neste caso, a
visualização em 3D permite que se tenha uma visão mais real da forma
física do micrômetro, ao contrário de uma visualização em 2D, a qual se
poderia apenas observar o seu funcionamento.

Figura 03 – Micrômetro Virtual

Na figura 04, analogamente ao paquímetro, é mostrado um trecho do


vídeo de demonstração prática do uso do micrômetro, também no
formato do Real Player. A combinação da visualização do ambiente
virtual e da experiência prática em vídeo enriquece o ambiente de sala
de aula e colabora de forma significativamente com a proposta
assíncrona.

Figura 04 – Vídeo mostrando o uso do micrômetro

Os resultados iniciais deste trabalho, além de informações teóricas


sobre o assunto, estão no site www.ipeprn.edu.br/ava, onde tem-se
como proposta apresentar os instrumentos da Metrologia,
acompanhado de vídeos e questionamentos sobre técnicas de medida
para serem respondidas pelos alunos. A figura 05 mostra um vídeo
prático de uma atividade relacionada ao uso dos instrumentos de
medida: descobrir o número aproximado de bolinhas (com diâmetro d)
que deverão caber dentro de um copo de formato cilíndrico (com
diâmetro D e altura H), sem ter esses objetos em mãos. Esta atividade
serve para despertar ainda mais o interesse do aluno no que se refere
ao estudo da metrologia.
Figura 05 – Vídeo mostrando uma atividade prática

As sistemáticas de uso dos ambientes para efeito do estudo das


estratégicas metacognitivas foram avaliadas através de um questionário
aplicado aos estudantes do curso de Física Geral e Experimental do
curso de Biologia da UnP (Universidade Potiguar). Neste sentido, foram
observados os fatores que afetam o indivíduo quando o mesmo interage
com os conteúdos via Web, através das simulações e demonstração das
experiências em vídeo, comparando os resultados com dinâmicas de
leitura e aula expositiva do professor. Conhecido estes fatores, a nossa
proposta em seguida consiste em identificar de que maneira conhecer
estes fatores influencia no conhecimento do assunto abordado. Para
este trabalho ser executado foram ministradas aulas relacionadas a
ferramentas de navegação pela Web (e-mail, chat, sites de buscas).
Neste sentido, as condições de uso do ambiente foram trabalhadas e
todos os estudantes tiveram acesso aos conteúdos conforme o
planejamento do curso.

Conclusões

Observamos que o ambiente virtual tem colaborado para assimilação da


sistemática de uso dos instrumentos de medidas, comparado com
outras ferramentas de auxílio para o ensino presencial e a distância. A
alta interatividade dos ambientes em Java e VRML com uso de vídeos
digitais proporcionou uma grande motivação para estudo do assunto,
sendo constado em aulas de laboratório, se comparada às aulas
tradicionais com uso dos instrumentos de medidas. Dos questionários
aplicados, constatamos que os estudantes optaram pelo uso do
ambiente virtual de educação, por acharem que os mesmos apresentam
maior facilidade de acesso às informações estruturadas e detalhadas,
bem como facilidade de participação e maior rapidez na obtenção da
informação, no que diz respeito ao uso dos equipamentos de medida. As
observações do trabalho se somam a outros ambientes desenvolvidos,
onde se constata um amadurecimento do usuário na interação do novo
suporte (Web) com relação aos tradicionais, como por exemplo, o texto
do livro didático.10
Pode-se concluir que quanto mais a informação contida num sistema
hipermídia estiver estruturada, ou organizada, existirá menos
desorientação cognitiva e, neste sentido, mais aprendizagem. Os
resultados preliminares do trabalho ainda são insuficientes para uma
avaliação das estratégias metacognitivas com base nos ambientes
virtuais de educação, o pouco tempo de uso dos suportes digitais por
parte dos aprendizes, não favorecem a um diagnóstico conclusivo do
assunto, neste sentido esta pesquisa tende a continuar, criando novos
ambientes virtuais de educação em outras áreas do conhecimento e
aplicando em diferentes faixas etárias. Esperamos neste sentido
responder questões como: Como o ambiente auxilia e propicia que ocorra
uma aprendizagem significativa?; De que forma ocorrem os processos
cognitivos relacionados ao processo de aprender mediados por recursos
de Informática?; Que ferramentas, que recursos tecnológicos e que
estratégias pedagógicas podem ser úteis na programação de ambientes
de aprendizagem, de maneira a possibilitar que ocorram interações
capazes de promover a aprendizagem?.

Referências Bibliográficas
___________________________
1
FLAVELL, J. N.:Metacognitive aspects of problem solving, em resnick, L.B. (Ed). The
nature of inteligence, Hillsdade, New jersey, Laurence Erlbam, 1976.
2
AUSUBEL, D.; Novak, Hanesian: Psicologia Educativa: um ponto de vista cogoscitivo.
Mexico, Ed. Trillas. 1968.
3
VYGOTSKY, L.S.: Pensamiento y Lenguaje. Buenos Aires, Lautaro, 1964.
4
LOMAS, C.: Como Enseñar a Hacer Cosas con Palabras (Vol. I y II). Barcelona, Paidós,
1999.
5 GIMENO S. J.: Pérez G. A.: Comprender y Transformar la Enseñanza.Madrid, Morata,

1999.
6
LEVY, P.: As Tecnologias da Inteligência: O futuro do pensamento na Era da
Informática. Porto Alegre, Artes médicas, 1998.
7
MAYOR, J., Suengas, A. y González Marqués, J.: Estrategias metacognitivas. Madrid.
Ed. Síntesis, 1993.
8
MORAN, J. Manuel: Mudanças na Comunicação Pessoal. São Paulo, ed. Paulinas,
1998.
9 FIOLHAIS, Carlos, et. Al.: FÍSICA - Manual de Actividades. 10 ano. Portugal,

Didáctica Editora, 1998.


10
FREIRE, J.: Valério, I.; Rocha, G.; Barros, M.: Determinação da aceleração
gravitacional via Web usando VRML e Java/EAI. Anais, VIII Workshop de Informática
na Escola – Evento Integrante do XXII Congresso da SBC. Florianópolis, Santa
Catarina, 2002.
FREIRE, J.; Rocha, G.; Barros, M.: Laboratório de Simulação Física via Web. Anais, I
Seminário Internacional de Educação. Cianorte, Paraná, 2001.
FREIRE, J.; Barros, A.; Lima, C.; Barros, M.: Simulação do Pêndulo Físico: Discussão e
Implementação. Anais, 2o Educativa SIIE. Cidade Real, Espanha. Simpósio
Internacional de Informática, 2000.
LA PROSPECTIVA: ¿UN NUEVO PARADIGMA EN LAS
POLÍTICAS PÚBLICAS?

Paola Aceituno O.*

Desde un punto de vista social, la política es un espacio de


construcción de compromisos, a partir de la interpretación de
necesidades colectivas y de la toma de decisiones en orden a
satisfacerlas. La política y las políticas públicas, son figuras diferentes,
pero que se influyen de manera reciproca, pues como dice Lahera,
“ambas se buscan en la opacidad del sistema político”.1
En este sentido, las políticas públicas contribuyen a la operatividad de
la política, mediante la ejecución de los programas y de la puesta en
marcha de la agenda de gobierno. De esta manera, la política a pesar de
estar fuertemente relacionada al poder y a la retórica, puede y debe
contribuir al desarrollo y gestión de las políticas públicas, reconociendo
su importancia dentro del sistema.
Lo anterior, no significa, en todo caso, que las políticas públicas de
calidad, estén siempre influenciadas por la tendencia política
imperante o por grupos de presión, toda vez que una política pública
debe, en sí misma, tener independencia y fuerza propia, sin perjuicio de
la necesidad de contar con la participación y aceptación ciudadana, a
fin de ser representativa, respondiendo a necesidades públicas
concretas.
En este orden de ideas, la propuesta que hace la Prospectiva como
herramienta activa, en cualquier proceso de planificación, es entregar
para la toma de decisiones, una visión de futuro o de largo plazo,
fomentada en la participación y la cohesión social.
En efecto, la Prospectiva es una herramienta relativa a la visión del
futuro en el cual queremos estar, sustentada en la planificación y
desarrollo de un ideario; además, plantea críticas a la forma en que, por

*
Magister en Ciencia Política, Universidad Tecnológica Metropolitana, Santiago, Chile.
regla general, se toman decisiones, esto es, de forma apresurada y
mirando únicamente al pasado.
Por otro lado, esta disciplina, también apunta a dejar de manifiesto la
tradicional falta de universalidad en el desarrollo de una idea, o de la
planificación estimulada bajo algún tipo de presión, sobre un campo
determinado; sea esta de índole ideológica, coyuntural, o simplemente
al diseño de un plan cualesquiera con información fragmentada. Pero,
ante todo, es una crítica a las decisiones que dejan de lado el largo
plazo, a las planificaciones creadas sólo bajo la luz de la historia y
excluyente de aquellos que son el objetivo o fin último de la
planificación; esto es la sociedad civil.
En este sentido, la Prospectiva proporciona -más allá de las decisiones o
cambios en las políticas públicas impuestas por los gobiernos de turno,
sobre todo a nivel local- un vinculo comunitario, un punto de referencia
hacia el cual caminar, permitiendo el desarrollo continuo de una
comunidad para que ésta pueda sortear de mejor forma la contingencia
y la agenda de lo político emergente, e ir perfeccionando a través de
nuevos análisis, el logro del objetivo establecido en común.
La crítica que hace la Prospectiva hacia la planificación en general, se
cierne sobre dos variables: la crisis de la previsión y la necesidad de
contemplar la aparición de nuevas tendencias de futuro; esto es, tener
una visión global, y no concentrarse en tratar de explicar el futuro,
meramente por el pasado.
En este entendido, la previsión visualiza el futuro, como una línea única
y predeterminada que se centra en modelos econométricos y de
extrapolación de tendencias, lo que supone dentro de este razonamiento
que “en el fondo, todo sigue igual”.2 En otras palabras, que el mañana
será muy parecido a nuestro ayer.
A la hora de desarrollar o idear políticas públicas mirando sólo al
pasado, necesariamente, proyectará en el futuro de esa política,
caminos erráticos y llegará a presentarse de forma desordenada y sin
control.
Por estas razones, la prospectiva, como herramienta de anticipación, ha
tomado lentamente fuerza en distintos lugares del mundo, en el bien
entendido de que “La riqueza de un ejercicio prospectivo reside en la
detección y diseño de los escenarios alternos, por la razón siguiente: El
escenario probable nos indica para dónde vamos. Pero para donde
vamos no es necesariamente para donde queremos ir. Los escenarios
alternos nos señalan que existen además otros rumbos y caminos, cuyo
análisis nos facilita escoger el mejor”.3
En este sentido, podríamos decir que el escenario probable es aquel que
nos entrega la visión previsora, pero dicha visión se perfecciona al
incluir métodos prospectivos, ejercicio mediante el cual, también se
obtienen los escenarios alternos.

Concepto de paradigma

Conforme a la definición de Tomás Kuhn, un paradigma es un “modelo


o patrón aceptado”.4 Así entendido, constituye un conjunto de prácticas
que definen una disciplina científica durante un período específico de
tiempo. Cuando un paradigma ya no puede satisfacer las necesidades
de una ciencia, es sucedido por otro, cuestión que, generalmente,
resulta dramática para la ciencia, ya que éstas tradicionalmente
aparecen como estables y maduras.
No obstante lo anterior, se puede señalar que un paradigma no es sólo
un patrón o modelo, sino que, específicamente, en el campo de las
ciencias sociales, el paradigma permite describir el conjunto de
experiencias, creencias y valores que inciden en la forma en que un
sujeto recibe o ve la realidad y en su forma de respuesta. Esto quiere
decir que un paradigma también es equivalente a la forma en que es
percibido el mundo y como actuamos conforme a ello.
Es importante considerar que, en un mundo dinámico como el actual,
los paradigmas –salvo excepciones globales – van cambiando de manera
constante, lo que exige, por cierto, dentro de la comunidad científica, la
adaptación y la asimilación de un nuevo tipo de fenómeno o de una
nueva teoría científica.
Al respecto, Kuhn señala que para que surja una nueva teoría, deben
existir anomalías que no son asimiladas en los paradigmas existentes.
“El descubrimiento surge tomando conciencia de una anomalía, es
decir, reconociendo que la naturaleza ha violado de algún modo las
expectativas inducidas por el paradigma que gobierna la ciencia
normal”.5
Cabe señalar, además, que el surgimiento de un paradigma viene
acompañado también de nuevas metodologías, las que se utilizarán,
hasta el surgimiento de otras.
Por otro lado, es importante considerar que sin la aceptación de un
paradigma no habría ciencia normal. Esto quiere decir que los
paradigmas poseen una doble función; la primera que consiste en
establecer las direcciones en las que se desarrollará la ciencia normal, y
la segunda, que es la de establecer los límites de lo que ha de
considerarse ciencia durante el tiempo de su hegemonía.6
Dada las revoluciones que conllevan la muerte o el perfeccionamiento
de un paradigma, lo cierto es que siempre éste debe pasar desde el
conocimiento disponible a un estado mejorado. Cada paradigma nuevo
es un instrumento para disipar anomalías o enigmas no resueltos
anteriormente.
Conforme a las características exitosas del modelo de paradigmas de
Kuhn, en la actualidad dicha noción es aplicada como eje interpretativo
del desarrollo de las distintas ciencias, y en este sentido, la prospectiva
actuaría como un nuevo paradigma explicativo para los cometidos
probabilísticas a futuro, en campos acotados.
Las políticas públicas en la actualidad

En un mundo globalizado como el nuestro, el concepto de política


pública - aun cuando se reconoce como relativamente nuevo - resulta
natural para los ciudadanos, como forma de acción del Estado.
Conforme a la definición de Lahera, las políticas públicas son “cursos
de acción y flujos de información relacionados con un objetivo público
definido en forma democrática; los que son desarrollados por el sector
público y, frecuentemente, con la participación de la comunidad y el
sector privado”.7
Por su parte, la autora Bárbara Nelson en el Nuevo Manual de Ciencia
Política, señala que una política pública “es una secuencia intencionada
de acción seguida por un actor o un conjunto de actores a la hora de
tratar con un asunto que los afecta y éstas serían desarrollados por
cuerpos gubernamentales o por los funcionarios”.
Por otro lado, Lahera también plantea que para estar en presencia de
una política pública de calidad, es necesaria la presencia de los
siguientes elementos: “orientaciones o contenidos, pero también
instrumentos o mecanismos, definiciones o modificaciones
institucionales, así como la previsión de sus resultados”.8
El último de los elementos mencionados propio de la política pública;
esto es la previsión, generalmente es cuantificable y medible en
cualquier planificación. En este sentido, se planifica previendo, por
regla general, un escenario o tendencia con resultado positivo, o en su
defecto que la tendencia se mantenga como resultado final de una
operación.
Pero no siempre estos resultados positivos, son efectivamente el paso
final y natural en una planificación, muy por el contrario, es posible que
lejos de lo esperado, ocurra lo imprevisto, y se hagan visibles aquellas
variables no visitadas o no consideradas, con lo cual se puede llegar al
fracaso de una política pública.
Entonces, para tratar de corregir dichos escenarios adversos, se acude
al Modelo Incremental de Lindblom, es decir, se busca que a través de
la inyección de nuevos recursos, el programa o el plan, se corrija o se
mantenga operativo, y en definitiva, se produzca una mejora en su
resultado.
Las mayores críticas a las políticas públicas, se centran en el hecho de
que no siempre fortalecen la participación ciudadana, y también en la
falta de previsión frente a algunos escenarios, e incluso en la no
inclusión de actores sociales relevantes para el desarrollo de la política.
En relación con la falta de participación ciudadana, actualmente se
apunta a repensar las políticas públicas, mirando hacia la
descentralización, la democracia y la participación de la sociedad civil.
Autores como Gavenda, plantean propuestas en lo local, bajo la
reconceptualización de la participación ciudadana y la construcción de
nuevas relaciones entre la gente y las instituciones, cuestión que
apunta precisamente al fortalecimiento de la participación ciudadana
en la gestión de los asuntos públicos.9
Por su parte, De la Maza indica que “A pesar de la vigencia democrática,
del crecimiento económico y del aumento de ingresos, no se ha
fortalecido la sociedad civil. Un factor es la falta de políticas públicas en
la materia, la falta de voluntad política “desde arriba” para fortalecer a
la sociedad civil y construir al mismo tiempo una democracia
participativa”.10
Asimismo, este último autor, plantea que se debe emancipar a la
política social de su sujeción al modelo de gobernabilidad y que “En
primer término la propia sociedad civil sea reconocida como esfera de
acción necesaria para el futuro. Esta florece allí donde los sujetos
sociales encuentran un espacio de comunicación deliberativa acerca de
cómo quieren vivir o no, como en nuestro país, donde el rumbo de la
sociedad se considera cada vez más un campo de especialistas, cuya
misión se limita a interpretar los signos de los tiempos que provienen de
la dinámica globalizadora y buscar la adaptación a dichos procesos”.11
Ante esta situación, el análisis prospectivo, la planificación prospectiva
y el futuro, se instalan como una nueva herramienta en la planificación
y desarrollo de las políticas públicas.
La Prospectiva como nuevo paradigma en la planificación

La Prospectiva, tiene su génesis en los años cincuenta, en USA, donde


fue utilizada para prever escenarios militares y nuevas tecnologías, sus
bases epistemológicas y metodológicas de los estudios del futuro fueron
fundados tanto en Europa, por los filósofos Gaston Berger y Bertrand
de Jouvenel, y en Estados Unidos e Inglaterra, por Herman Kahn,
Dennis Gabor y Eric Jantsch.12
Actualmente, el Francés Michel Godet discípulo de los mencionados
filósofos Berger y de Jouvenel, es una de las figuras más importantes de
esta insipiente ciencia, la cual ha tomado vuelo propio en América
Latina y distintos lugares del mundo, tanto en su forma como en su
modelo de estudio.
En cuanto a concepto, la “Prospectiva” fue definida por Gastón Berger
como “la ciencia que estudia el futuro para comprenderlo y poder influir
en él”.
Lo anterior, quiere decir que la Prospectiva consiste en generar modelos
de futuros posibles y delinear estrategias para alcanzarlos. No se trata
de una herramienta de ciencia ficción o que pueda predecir la totalidad
de los eventos a futuro, tampoco se puede tomar como una herramienta
capaz de transformarse en oráculo o en un instrumento astrológico, o
como un corpus que posea alguna característica mística que sirva para
la adivinación. Muy por el contrario, es una disciplina que cuenta con
una serie de metodologías y corrientes epistémicas que se basan en la
anticipación y previsión de resultados.
En todo caso, la Prospectiva, no debe ser confundida con la
planificación estratégica, aun cuando ambas están íntimamente
ligadas, pues como explica Michel Godet, “los métodos de planificación
estratégica se basan en el análisis de un pasado más o menos
extrapolado y en general no integran bien los riesgos de rupturas de
tendencias (políticas, tecnológicas, económicas y sociales), que son
fundamentales en un análisis prospectivo”.13
Es por tal motivo que, al combinarlas, podemos lograr mejores
resultados, ya que ambas se complementan y ayudan. Entonces, “la
esencia de la relación entre planificación estratégica y prospectiva
radica en que esta última provee del insumo futuro para decidir hoy
acerca del mañana (planificar). Un plan es un proceso decisional por
adelantado, es la asignación de medios para el futuro”.14
La Prospectiva, en consecuencia, es una herramienta de cambio e
innovación en los distintos procesos de planificación. De ahí la
importancia de incluirla en ellos, en este caso, en la planificación de
políticas públicas.

Prospectiva y Políticas Públicas, un aporte a su calidad

En cuanto a la planificación de políticas públicas de calidad, Eugenio


Lahera, en su texto Introducción a las Políticas Públicas, menciona una
serie de elementos que debe incluir una política superior, en los cuales
la prospectiva se relaciona directamente con al menos 4 de ellos:
En primer lugar, admitir una multiplicidad de actores, con lo cual se
pretende disminuir la centralidad tradicional que tiene el Estado,
estimulando la participación y diversidad en la política pública. Este
punto es de real importancia, pues como se ha explicado, la prospectiva
incluye una multiplicidad de actores, lo que permite sobre todo que los
mismos actores sociales, se conviertan en hacedores de su futuro,
concertando de manera consciente, los plazos e incluso los esfuerzos
físicos y económicos de las acciones que tornarán realidad ese futuro
deseado.
Segundo, y que se encuentra estrechamente ligado al primero, que
exista una definición de manera democrática. Lahera propone, al igual
que la Prospectiva, la inclusión de distintos actores en el diseño de la
política pública.
En efecto, esta herramienta metodológica generalmente acude a la
visión de agentes relevantes que tienen directa relación con la política a
implementar y no solo al tecnócrata o funcionarios de la
administración del Estado, si no que a la sociedad civil organizada, que
será parte de esta política. Aquí claramente se miden distintas fuerzas e
intereses que pueden de alguna manera ser neutralizados al elegir una
metodología adecuada para esta etapa, la cual ayuda a que se pueda
alcanzar el desarrollo pleno de la herramienta.
En cuanto a la previsión, en la Prospectiva, no sólo se aborda desde lo
cuantificable, sino más bien se utiliza para mirar más allá y adelantar
probables escenarios, los cuales incluyen, por cierto, la posibilidad de
anticiparnos ante un escenario negativo, y esto no significa aceptarlo o
tener una actitud pasiva frente a ello, sino que, por el contrario,
podemos beneficiarnos de este conocimiento previo, para corregir y
planificar en busca de un mejor resultado. Por eso este tercer elemento:
su aplicación en las políticas públicas, en conjunto con la medición de
sus resultados, es de gran importancia. La previsión (léase pre-visión)
“es la apreciación, con un cierto grado de confianza (probabilidad), de la
evolución de una tendencia hacia un horizonte dado. En general se
trata de una apreciación numérica efectuada a partir de datos del
pasado y con base en algunas hipótesis”.15
Es en este punto donde la Prospectiva permite dar un gran salto
cualitativo y epistémico, fortaleciendo así a la previsión como elemento
indispensable en la planificación. De todas maneras, es importante
aclarar que Prospectiva no es igual a previsión, lo cual se puede ver
claramente en el siguiente cuadro comparativo:

CRITERIOS CAUSAS DE ERROR CARACTERÍSTICAS


DE PREVISIÓN DE LA PROSPECTIVA
Parcial. “En el fondo, Global. “En el fondo,
VISIÓN todo sigue igual” nada sigue igual”
Cuantitativas, Cualitativas,
VARIABLES objetivas y conocidas cuantificables o no,
subjetivas, conocidas
u ocultas
Estáticas, estructuras Dinámicas,
RELACIONES constantes. estructuras evolutivas.
El pasado explica el El futuro es la razón
EXPLICACIÓN futuro. del presente.
FUTURO Único y cierto Múltiple e incierto.
Modelos deterministas Análisis intencional
MÉTODO y cuantitativos Modelos cualitativos
(econométricos, (análisis estructural) y
matemáticos) estocásticos (impactos
cruzados).
ACTITUD FRENTE Pasiva o adaptable Activa y creativa
AL FUTURO (futuro que hay que (futuro deseado).
soportar)
Tomado de “Crise de la prévision, essor de la prospective”. M. Godet. 1977.

Godet plantea que “Los frecuentes errores que se cometen en materia de


previsión y, en especial, la ausencia de previsión de las crisis, denotan
que la previsión misma atraviesa un periodo de crisis. La imposibilidad
de prever el futuro en función únicamente de los datos del pasado
explica la impotencia de los modelos econométricos clásicos, que no
integran parámetros cualitativos y no cuantificables, tales como los
proyectos y comportamientos de los actores. Hay que mirar el futuro
para esclarecer el presente, y ese es el móvil que anima la
prospectiva”.16
Y como cuarto elemento esencial de la Prospectiva, gobierno y políticas
públicas deben estar unidos por una visión de futuro. En estos últimos
dos elementos se puede encontrar claramente el espíritu de la
prospectiva, y el aporte de ella.
Con la implementación de esta forma de planificar, asentada en la
prospectiva, las políticas públicas avanzarán a un nuevo estadio
superior.
En síntesis, la utilización de la Prospectiva en la elaboración de políticas
públicas de calidad deviene en esencial, pues esta herramienta
metodológica contiene, precisamente, elementos epistémicos que en el
concepto de la previsión anterior, resultan precarios e incompletos. Esto
quiere decir que la Prospectiva, pasa a constituirse un elemento
sustantivo para el cumplimiento del objetivo de la res pública.
Ahora bien - y a pesar de que tenemos a la vista políticas producidas
sin los contenidos anteriormente mencionados - es probable que frente
al surgimiento de un nuevo paradigma, como lo es la prospectiva,
“existan personas que se aferran a uno u otro de los viejos puntos de
vista”17 del paradigma anterior, negando hasta el final de sus días, la
nueva visión o el nuevo descubrimiento.
De hecho, la historia de las ciencias está compuesto por antagonismos
paradigmáticos de verdades que siempre son relativas y acotadas a su
tiempo histórico y cultural; por lo cual, aun cuando la Prospectiva se
incorpore al proceso de elaboración de políticas públicas, podrá
encontrarse con escépticos y cuestionadores de ella, y por su puesto
exponerse a su perfeccionamiento.
No obstante lo anterior, es preciso recordar y aceptar que la ciencia es,
en sí, una superposición de paradigmas que van mejorando el anterior.
Así, “Es también un fenómeno debidamente demostrado, que los
paradigmas vigentes dentro de una comunidad de especialistas,
contribuyen a incrementar la adquisición cognitiva dentro de un campo
disciplinario específico, siempre y cuando dicho modelo no muestre
visos de alguna crisis teórica significativa o tenga notorias falencias en
el ámbito de la comprobación empírica”.18

Hacia una conclusión

La misión fundamental de la Prospectiva por tanto, no es otra que la de


ayudarnos a descubrir los diferentes futuros posibles —futuribles— que
nos aguardan. Específicamente, en el ámbito de las políticas públicas,
la Prospectiva nos ayuda a construir el futuro por el cual apostamos,
anticipándonos a los acontecimientos y, previniendo, para así, no tener
que lamentar los resultados.
Dado lo anterior, no podemos dejar de pensar, que la serie de
metodologías así como las distintas corrientes (determinista –
voluntarista- complementarias) que existen dentro de esta ciencia,
pueden efectivamente mejorar la toma de decisiones, en orden a
cumplir los objetivos de un Estado en relación a sus políticas públicas,
precisamente ayuda a que no se continúen construyendo políticas
basadas en opiniones aisladas o presiones, utilizando sólo modelos
econométricos para la fase de previsión, y por supuesto sin la
construcción de escenarios alternos. (Puede ocurrir que de la
conformación de un escenario, se desprendan varias políticas públicas).
Por ello, es posible afirmar que la prospectiva es una herramienta que
cuenta con métodos secuenciales que respaldan su aplicación,
permitiendo mejorar y construir el futuro deseado a través de una
visión compartida que considere distintas variables analíticas. Este
futuro es el resultado de considerar la probabilidad de que ocurra o se
haga presente, una variable sobre otra, lo que permite con anticipación,
modelar, construir o prevenir resultados, tanto deseables como no
deseables.
Por cierto, además de permitir e impulsar el diseño del futuro, aporta
elementos muy importantes al proceso de planificación y a la toma de
decisiones.
Con esto se apuesta a que una política cumpla su objetivo y no se
transforme como se observa a menudo, en una interminable inyección
de recursos para poder mantenerla y sustentarla en el tiempo.
Es por eso que una política pública prospectiva, mira más allá del
acontecimiento que la originó, y se avoca en la realización de un
análisis y estudio de forma holística, antes de acometer su tarea.
La Prospectiva viene a completar los procesos de la planificación, como
lo son la Previsión y la Visión de futuro, la anticipación de los
escenarios: probables, posibles y/o deseables. Lo cual, es sobre todo,
una nueva forma de agregar calidad al diseño sobre el futuro, pero
además, es una herramienta que debe ser instalada en el proceso
analítico de las políticas públicas, tal como ya se utiliza en otros
Estados,19 incluyendo el nivel militar,20 ayudando a prevenir
consecuencias indeseables y a orientar los procesos en la toma de
decisiones.
Como se ha planteado, la prospectiva es una herramienta que permite
disminuir los errores en la planificación, crear consenso, otorgar una
visión a largo plazo, entregar información adicional que permita
clarificar los objetivos, considerar variables emergentes en la
implementación y analizar la pertinencia o no de la política pública;
permitiendo así, realizar un diseño acorde a las necesidades, pero
también acorde con el presupuesto existente en un momento
determinado.
El modelo de análisis epistemológico basado en la Prospectiva como
medio de anticipación y previsión, claramente ayuda a disminuir los
errores y a mirar el largo plazo, actuando así como el paso natural en la
racionalidad de las políticas públicas hacia su calidad.
Por tanto, la Prospectiva puede traer una corrección y una mejora
sustantiva en el proceso de formulación de las políticas públicas,
convirtiéndose así, en un nuevo paradigma para la planificación de un
desarrollo social del futuro, filosóficamente más humano y más
amigable con el medio.

Citas y notas
___________________
1 LAHERA, Eugenio P.: Política y Políticas Públicas, Santiago, Cepal, 2004, p. 7.
2 GODET, Michel: Prospectiva y Planificación Estratégica, S.G. Editores, 1991, p. 28.
3 MOJICA, Francisco: Determinismo y Construcción del Futuro, Rio de Janeiro. 1999, p.

12.
4 KUHN, Thomas S.: La Estructura de las Revoluciones Científicas, Fondo de Cultura

Económica, México, 2007, p. 88.


5 Ibídem., p. 130.
6 Cfr. KUHN, Thomas S.: Op.Cit., Cap. II y III.
7 LAHERA, E.: Introducción a las Políticas Públicas, Fondo de Cultura Económica Chile

S.A. Santiago, Chile, 2008, p. 28.


8 Ibídem.
9 Cfr. GAVENDA, John: Hacia una gestión participativa de los asuntos Públicos Locales:

Seis propuestas para la discusión. Instituto de Estudios para el Desarrollo Universidad


de Sussex.
10 DE LA MAZA, Gonzalo: Sociedad Civil, Iniciativas Locales y Desafíos para las
Políticas Públicas, Corporación Innovación y Ciudadanía, Santiago de Chile, Mayo
2005.
11 Ibídem.
12 BAS, Enric.: Megatendencias para el Siglo XXI, Un Estudio Delfos, Fondo de Cultura

económica, México, 2004, p. 34.


13 GODET, Michel: Prospectiva y Planificación Estratégica, S.G. Editores, 1991, p. 16
14 GALLARDO, Aquiles: Manual de Métodos de Prospectiva, Uso Práctico para Analistas,

Centro de Estudios e Investigaciones Militares (CESIM), Santiago, Chile, 2010, p. 25


15 Ibídem., p. 31.
16 Ibídem., p. 25.
17 KUHN, Thomas S.: Op. Cit., p. 83
18 SALDIVIA, Zenobio: en: Principales paradigmas que han marcado la evolución de las

ciencias; ttp://www.eleutheria.ufm.edu/Articulos/079818_principales_paradigmas.htm
19 En nuestro país, los estudios Prospectivos se han utilizado de forma intermitente, se

tienen registros de literatura desde los años 80.


20 “La prospectiva es considerada por muchos especialistas la ciencia fundamental del

siglo XXI en un universo creciente de informaciones disponibles”. Exposición sobre


“Los Escenarios Prospectivos en su relación con la Planificación”, Coronel Fernando
Marques de Freitas, Analista del Proyecto de Fuerza y del Proceso de Transformación
del Ejército Brasileño-EME. ANEPE, 25 de Octubre 2011.
LA CIENCIA SEGÚN IMRE LAKATOS Y THOMAS KUHN

Juan Carlos Medina*

Introducción

“La palabra ciencia se deriva del Latín scientia, que significa


conocimiento, la forma nominal del verbo scire, “saber”. Desde finales
del Medioevo la ciencia o scientia significó cualquier conocimiento
registrado sistemático.1 Y en la actualidad dicha noción alude a un
sistema organizado de conocimientos con claros procesos de verificación
y una metodología rigurosa y objetiva.
La filosofía de la ciencia se ocupa de saber cómo se desarrollan, evalúan
y cambian las teorías científicas, y si la ciencia es capaz de revelar la
verdad de las entidades ocultas y los procesos de la naturaleza. Su
objeto es tan antiguo y se halla tan extendido como la ciencia misma.2
La ciencia forma parte inseparable de la cultura actual y la concepción
del mundo que tienen los hombres y mujeres de hoy está, en gran
medida, determinada por el conocimiento científico y sus aplicaciones
tecnológicas. Sin embargo, la imagen de la ciencia se ha visto a menudo
simplificada y distorsionada al no considerarse los aspectos históricos y
filosóficos de la misma. Esta comunicación pretende mostrar uno de los
problemas propios de la evolución histórica que ha tenido la ciencia,
como es el caso de la clasificación de las ciencias y finalmente comparar
las posturas epistémicas que sustentan Imre Lakatos y Thomas Kuhn.

Clasificación de las ciencias.

¿Qué clasificación escogeremos para las ciencias? Varias han sido


propuestas alguna vez; otras pueden ser imaginadas ahora: ciencias del

* Magister en Ciencias de la Ingeniería Informática, Universidad de Playa Ancha de


Ciencias de la Educación, Valparaíso, Chile.
hombre y de la naturaleza, ciencias sagradas y profanas, ciencias
exactas e inexactas; ciencias complicadas y sencillas, peligrosas e
inofensivas, avanzadas e incipientes. Pero epistemológicamente la
clasificación de las ciencias ha sufrido modificaciones a medida que el
desarrollo de los saberes se ha ido ampliando. Es así que a principios
del siglo XII, la clasificación de las ciencias fue uno de los temas
centrales que preocupó a filósofos y científicos. La clasificación de las
ciencias no es un problema cuantitativo del saber, un problema
epistemológico que apunta a la obtención de ciertos ejes cognitivos, que
actúen como elementos ordenadores de lo conocido.3
Alan F. Chalmers,4 nos entrega una descripción bastante detallada de
las primeras clasificaciones de las ciencias que se remontan desde la
división que hizo Pitágoras (de las Matemáticas, la ciencia por
excelencia según él y sus seguidores; así, habla de: Aritmética,
Geometría, Música y Astronomía, clasificación que se mantuvo durante
más de dos milenios. Pero la primera clasificación seria es quizás la de
Aristóteles que afirmaba que “toda ciencia es o práctica, o productiva o
teórica”. Ciencias prácticas son aquellas cuyo fin es conocer las
acciones humanas para orientarlas rectamente (filosofía práctica), y
ciencias productivas o fácticas, son aquellas cuya finalidad es la
producción u obtención de un objeto cualquiera (filosofía artística, como
retórica, poética) y las técnicas) Y las ciencias teóricas cuyo fin es
simplemente conocer la verdad (filosofía teorética). Ciencia y filosofía
abarcaban todo el saber existente. El filósofo era el físico, el
matemático, el astrónomo, el psicólogo, el sociólogo, el teórico y el
supra-científico.5
Más adelante, Francis Bacon, propuso en De dignitate et augmentis
scientiarum (1623), una clasificación de las ciencias que puede llamarse
“subjetiva”; pues las ciencias se agrupan aquí según la facultad
humana que predomina en su estudio: ciencias de la memoria o
historia que se limitan a registrar hechos o datos (historia natural,
historia humana, historia sagrada), ciencias de la imaginación o poesía
que no se ocupan de lo real sino de lo ideal (narrativa, dramática,
parabólica), y ciencias de la razón o filosofía que estudian las cosas de
modo racional (teología física o filosofía natural -ésta comprende física
general, metafísica, y las matemáticas como apéndice-, y filosofía del
hombre individual y social). En esta clasificación de Bacon las ciencias
son consideradas como constructos que están en un mismo nivel
cognitivo.6
Es de notar que aunque los métodos llamados experimentales empiezan
a desarrollarse ya a partir de Bacon, Galileo, y otros, sin embargo, la
mayoría de los filósofos y científicos no tienen conciencia clara de las
diferencias profundas entre los métodos empíricos experimentales y los
métodos filosóficos especulativos.
Con Bacon puede decirse que se alcanza ya un momento de transición
mediante el método experimental, que se acentúa luego con La Grande
Encyclopédie (1751), donde las disciplinas se establecen en tres grandes
bloques; ciencias de la historia, ciencias del hombre y ciencias de la
naturaleza. La diferencia entre ciencias experimentales y ciencias
filosóficas es más clara todavía en el enfoque de Christian Wolff,
representante del racionalismo en Alemania, que hereda de Descartes el
ideal de la “claridad metodológica”: el método matemático aplicado a la
filosofía. Wolff divide el conjunto del saber en: ciencias racionales
teóricas o metafísica (ontología, cosmología, psicología racional, teología
natural) y ciencias racionales prácticas (filosofía práctica, gramática y
derecho natural: ética, política, economía), y además ciencias empíricas
teóricas (psicología experimental, teleología o teología empírica, física
dogmática) y ciencias empíricas prácticas (tecnología y física
experimental).
En el siglo XIX, Auguste Comte creador de la corriente positivista que
tiene como características diferenciadoras la defensa de un monismo
metodológico (Teoría que afirma que hay un solo método aplicable en
todas las ciencias), presentó una nueva clasificación de las ciencias al
comienzo de su Curso de Filosofía Positiva (1830), radicalmente
diferente de todas las anteriores, a partir del desmembramiento de un
tronco metafísico común, en la que distingue primeramente las ciencias
abstractas o fundamentales (podría decirse también teóricas) de las
ciencias concretas o derivadas de las anteriores (podrían llamarse
prácticas); lo esencial de su clasificación es la división y ordenación,
muy personales, de las ciencias abstractas o fundamentales en:
matemáticas, astronomía, física, química, fisiología y sociología (palabra
esta última acuñada por él, y entendida como física del cuerpo social); a
éstas se añadiría posteriormente una séptima y última de la serie de
ciencias, la ética. En este sistema la filosofía tradicional es excluida.
A. Ampére, el creador de los estudios electromagnéticos, introdujo una
clasificación dicotómica que incluía hasta un total de 128 ciencias
(Essai sur la philosophie des sciences, 1834), consistente en la
distinción entre ciencia del cosmos o universo, ciencias cosmológicas, y
ciencias del nous o pensamiento, ciencias noológicas; cada uno de estos
grupos se subdivide en otros dos, y así sucesivamente.
Por su parte, H. Spencer, formuló otra clasificación, que divide las
ciencias en tres grupos:7 ciencias abstractas (lógica y matemática), que
se ocupan de las formas generales de los fenómenos y de meras
relaciones; ciencias abstracto-concretas (mecánica, física, química) que
consideran los fenómenos, pero al margen de los seres que los realizan;
y ciencias concretas astronomía, geología, biología, psicología que
estudian los seres concretos en su complejidad.
Jean Piaget, por su parte, en el siglo XX, también hace un aporte a la
clasificación de las ciencias que en términos generales, corresponde a
un círculo evolutivo de relaciones mutuas entre las ciencias
particulares, que en gran parte coincide con el desenvolvimiento
histórico del conocimiento científico. Así, en el esquema piagetano, las
ciencias formarían una estructura circular que partiría de la lógica y de
las matemáticas, y desde las matemáticas se pasaría a las ciencias
físicas y luego a las ciencias biológicas, y de éstas, a las ciencias psico-
sociales, para arribar nuevamente a las ciencias formales; pero esta vez,
tales disciplinas estarían en un nivel de mayor validez cognoscitivo.8
Mario Bunge, a su vez, clasifica la ciencia en función del enfoque que
se da al conocimiento científico sobre el estudio de los procesos
naturales o sociales (estudio de hechos), o bien, al estudio de procesos
puramente lógicos y matemáticos (estudio de ideas); es decir, ciencia
factual y ciencia formal. La ciencia factual se encarga de estudiar
hechos auxiliándose de la observación y la experimentación. Por
ejemplo la física y la psicología son ciencias factuales por que se
refieren a hechos que se supone ocurren en la realidad y, por
consiguiente, tienen que apelar al examen de la evidencia empírica para
comprobarlos. El objeto de estudio de la ciencia formal no son las cosas
ni los procesos, sino las relaciones abstractas entre signos, es decir, se
estudian ideas. Son ciencias formales la lógica y las matemáticas.
Entre los tratadistas que se ocupan del tema de la clasificación de las
ciencias, es común observar que toda clasificación será siempre
incompleta y provisional. Son evidentes los defectos, incoherencias o
lagunas de las clasificaciones propuestas; además continuamente
aparecen ciencias nuevas en campos límites de otras existentes, o
tomando elementos de varias con una finalidad concreta. El lado
práctico de la clasificación se visualiza en las enciclopedias, diccionarios
y en instituciones internacionales (ONU, OEA, UNICEF entre otras) que
requieren una ordenación de las disciplinas. Desde el punto de vista
epistemológico es analizar los principios teóricos en que se sustentan
las disciplinas.9
Hoy día existe en la conciencia de muchos investigadores, filósofos y
científicos, una gran prevención contra la misma idea de clasificación
de las ciencias, pues parece imposible reducir las ciencias a la unidad
de un sistema y encerrar en un orden la realidad universal.10

La ciencia según Kuhn

Thomas Samuel Kuhn, se ha interesado profundamente en el problema


del cambio científico. Sus tesis hablan de una revolución en la marcha
de la ciencia, la ciencia no progresa por simple acumulación de
conocimientos, sino por las revoluciones científicas que son momentos
del desarrollo científico en los que la explicación entregada por un viejo
paradigma es sustituido por otro distinto e incompatible con él.
Se puede resumir la idea de Kuhn referente al progreso de la ciencia
como una secuencia de etapas que se van generando para asociar el
progreso a la idea de ciencia como una relación intrínseca. Estas etapas
son: preciencia, ciencia normal, crisis, revolución, nueva ciencia, nueva
crisis…Y así sucesivamente. Así entonces, Kuhn va señalando las
etapas en que está sometida las ciencias, desde una etapa más o
menos prolongada llamada “preciencia” o “periodo-paradigmático”
donde la ciencia recolecta datos de sus observaciones sin un plan
definido, hasta etapas de nuevos paradigmas. Kuhn nos muestra con el
ejemplo del paradigma por ejemplo en la óptica física, en que existieron
varias escuelas en torno a la teoría epicúrea, aristotélica o platónica las
cuales tenían distintos puntos de vista para la explicación de la luz.
Las escuelas según Kuhn dan a lugar a crear un cuerpo o formación de
teorías “al cuerpo de conceptos, fenómenos y técnicas del que Newton
extrajo el primer paradigma la óptica aceptada casi uniformemente”.11
Un paradigma según Kuhn está constituido por supuestos teóricos,
leyes, aplicación de técnicas e instrumentación, que adoptan los
miembros de una determinada comunidad científica para resolver
problemas planteados. Los que adoptan un paradigma que permita
resolver los enigmas, lo practican dentro de lo que Kuhn denomina
“ciencia normal”. Esto permite articular y desarrollar el paradigma para
explicar y acomodar el comportamiento de algunos aspectos
importantes del mundo real, tal y como se revela a través de los
resultados de la experimentación.
Así, la crisis se pondrá de manifiesto cuando comienza a surgir un
nuevo paradigma que de poco a poco va ganando adeptos (generalmente
los más jóvenes) hasta que se abandona el antiguo paradigma porque
algunos de sus adeptos comienzan a fallecer, tal como lo ha expresado
Kuhn. En este preciso instante ocurre lo que Kuhn llama la revolución
científica. Así el nuevo paradigma guiará la nueva actividad científica
normal hasta aparecer una nueva crisis seguida por una nueva
revolución en que se va constituyendo un marco teórico que recoge la
realización de los científicos y agrupa a un número importante de
partidarios, a pesar de que la teoría no es capaz de resolver todos los
problemas planteados, entonces nace lo que Kuhn denomina
paradigma. El paradigma es un modelo o patrón explicativo de la
naturaleza de las cosas y la ciencia normal no es más que la realización
de esa promesa. Kuhn lo señala así: “Según su uso estableciendo, un
paradigma es un modelo o patrón aceptado y este aspecto de su
significado me ha permitido apropiarme aquí del término 'paradigma' a
falta de otro término mejor”.12
La ciencia normal, según Kuhn, debe abocarse a la reunión de un
conjunto de hechos bajo tres enfoques:
• Identificación de hechos “particularmente relevantes de la
naturaleza de las cosas”. Esto consiste en ubicar hechos que sean
concordantes entre la teoría representada por el paradigma y la
naturaleza de las cosas

• La determinación de hechos que muestran el carácter predictivo


de la teoría del paradigma “al descubrimiento de nuevos campos
en los que el acuerdo (entre teoría y naturaleza) pueda
mostrarse”. Los científicos tratan de acercar la naturaleza y la
teoría, tratando de lograrlo mediante la creación de instrumentos
que puedan probar la teoría.13

• La articulación de la teoría del paradigma “resolviendo algunas de


sus ambigüedades residuales y permitiendo resolución de
problemas sobre los que anteriormente se había limitado a llamar
la atención”.14 es cuando se generan las contantes universales de
la ciencia, la determinación de leyes cuánticas, y la determinación
de aspectos cualitativos.

Esta exigencia predictiva de la teoría en algunos casos lleva a los


científicos a la reformulación del paradigma y en otros a cambios
sustanciales dentro del paradigma.
El objetivo que persiguen los científicos en el marco de la ciencia
normal, es “lograr lo previsto de un modo nuevo”.15 Para ello se requiere
solucionar enigmas “instrumentales, conceptuales y matemáticos”.
El aliciente del científico es resolver un problema que represente un reto
o un desafío para su propio ingenio, en la medida en que nadie lo ha
logrado resolver aún o al menos nadie lo ha hecho tan eficiente y
elegantemente.
Un paralelismo entre enigma y problema científico estaría representado
por la existencia de un conjunto de reglas definidas por compromisos de
distintos órdenes conceptuales, teóricas instrumentales y
metodológicas. Estas proporcionan un marco de reglas que apuestan
por una determinad comprensión del mundo y de la naturaleza,
extienden la premisa y el alcance del paradigma que permite analizar
toda clase de detalles empíricos “sobre los que pueden utilizar
legítimamente los instrumentos utilizados”.16
Los paradigmas determinan a la ciencia normal sin que se logre un
acuerdo respecto a las reglas concernientes a la interpretación plena o
racionalización del paradigma. La razón que da Kuhn son que existen
dificultades para determinar las reglas, no existe un cuerpo básico de
reglas que orienten la investigación sino que existe una red de
semejanzas que los científicos intuitivamente reconocen adquirirla a
través de la práctica.17 El aprendizaje práctico de leyes, conceptos y
teorías que han adquirido los científicos en sus aprendizajes, es a través
de aplicaciones concretas de problemas científicos. La búsqueda de
nuevas reglas no adquiere ninguna importancia ya que los científicos se
sienten seguros de que los paradigmas les permiten resolver los
problemas en su área o en su disciplina. Las reglas cobran importancia
para la comunidad científica antes de concretarse el paradigma.
El surgimiento de las anomalías y sus asimilaciones en el seno de la
ciencia normal, precede y propicia el advenimiento del descubrimiento
científico, que hace de la ciencia un cuerpo teórico con un nuevo
conjunto de reglas. La “ciencia normal no es una actividad paralela
dirigida hacia las novedades, sino que al contrario ofrece resistencia y
hasta tiende a suprimirlos”.18
El hecho de que las anomalías surjan simultáneamente en diversos
laboratorios de científicos no comunicados entre sí, indica que “es un
indicio de la naturaleza tradicional frecuentemente de la ciencia normal
como de la perfección con que esta tarea tradicional prepara el camino
para su propio cambio”.19
El surgimiento de anomalías es la ocasión que induce en todo caso a los
descubrimientos científicos, hitos que se constituyen en el avance de la
ciencia normal. Este avance no sólo está constituido por los
descubrimientos sino también por el cambio de paradigma.
Toda formulación de una nueva teoría científica va precedida siempre
de la percepción de anomalías, y de una crisis correlativa a lo largo de
un proceso de sustantiva duración y alcance profundo, que se traduce
como un período de inseguridad profesional profundo. Donde los
científicos se niegan a renunciar al paradigma y solo aceptan la
invalidez de la teoría cuando se dispone de un candidato alternativo
para que ocupe su lugar, es decir, cuando surja un nuevo paradigma.
No hay investigación en ausencia de paradigmas. De este modo
“rechazar un paradigma sin sustituirlo a la vez por otro es rechazar la
ciencia misma”.20
Según Kuhn los efectos que parecen ser universales con respecto a las
crisis son:
• Todas las crisis se inician con la confusión creciente de un
paradigma y el relajamiento consecuente de sus reglas.

• Todas las crisis concluyen con la aparición de un nuevo


paradigma y los esfuerzos por imponer su aceptación.

“La transición de un paradigma en crisis a un nuevo del que pueda


surgir una nueva tradición de ciencia normal, está lejos de ser un
procedimiento de acumulación , logrado mediante la articulación o una
extensión del paradigma viejo”.21
La crisis constituye la antesala para el surgimiento de nuevas teorías
científicas. Esta nueva teoría surge cuando “se percibe que una primera
tradición ha errado el camino de una manera notable”, en algunos
casos el nuevo paradigma surge, al menos en forma primaria en los
momentos mismos en que la crisis aún no ha cobrado cuerpo definido
ni ha sido reconocida totalmente por los científicos del área.
Kuhn define las revoluciones científicas como “aquellos episodios de
desarrollo no acumulativo en los que un paradigma antiguo se ve
sustituido completamente o en parte, por otro nuevo incompatible con
él”.22
Las revoluciones científicas se inician con un sentimiento de mal
funcionamiento de los paradigmas. Este sentimiento es registrado por
un sector de los miembros de la comunidad científica al detectar las
anomalías existentes. De esta forma los científicos se comienzan a
dividir entre los apegados al viejo paradigma mientras que otros
comienzan a defender el nuevo paradigma. Para esto no existe ningún
criterio que sirva como base para que los científicos se pongan de
acuerdo. Toda lógica y experimentación comienza a debilitarse ya que el
desarrollo científico no ocurre por acumulación, tal como lo han creído
los historiadores y estudiosos de las ciencias tradicional. Kuhn dice que
las novedades en el desarrollo científico raramente ocurren por
acumulación y afirma “la adquisición acumulativa de novedades no solo
es en realidad rara, sino también en principio improbable”.23 Esta
improbabilidad se debe a que la novedad solo puede surgir de afuera del
paradigma es decir “en la medida en que las anticipaciones sobre la
naturaleza y sus instrumentos resulten erróneos”. Cuando el paradigma
no alcanza a explicar ciertos hechos de tal forma que entra en conflicto
“entre el paradigma que descubre una anomalía y el que, más tarde,
hace que la anomalía resulte normal dentro de nuevas reglas”.24
Las anomalías se caracterizan por su resistencia a ser interpretadas
dentro de los paradigmas existentes, y por su impulso a la invención de
nuevas teorías.
Kuhn sostiene que los descubrimientos científicos y las nuevas teorías
no surgen por medio de un proceso acumulativo, sino por el
surgimiento de novedades o anomalías que ponen en crisis y generan la
ruptura del poder explicativo del paradigma vigente. Así, el desarrollo
científico se da por medio de revoluciones, mediante crisis donde los
antiguos paradigmas son reemplazados por otros nuevos, a través de
transformaciones teóricas y aplicaciones profundas que redimensionan
tanto la naturaleza de los problemas como las soluciones pertinentes.
Kuhn señala que al surgir un nuevo paradigma también trae con sigo
un cambio de interpretación de las percepciones, hay un cambio de
concepto de mundo. Lo plantea mediante ejemplos históricos como la
teoría del oxigeno entre Priestley y Lavoisier o entre Aristóteles y Galileo
con la teoría del péndulo. Lo que sucede cuando hay una revolución
científica no es simplemente un cambio de interpretación de los datos
percibido, ni surge un ingreso a un modo diferente. Porque los datos
que manejan los científicos “no son inequívocamente estable”,25 sino
que son objetos diferentes y además el científico frente a estos datos no
desarrolla meramente un ejercicio de interpretación, es decir los
científicos interpretan los datos presuponiendo un paradigma.
Kuhn también crítica la forma en cómo los textos registran la historia
de la ciencia. En ellos, dice, se registran los resultados ya aceptados de
revoluciones pasadas, nos dice que los científicos como profanos
recurren a “los libros de texto científicos junto con divulgaciones y a las
obras filosóficas moldeadas sobre ellos”.26
Kuhn acepta la idea de la teoría de falsación de Popper, quien niega
toda posibilidad de verificación, y señala que la única prueba posible es
la que invalida una teoría al encontrar una prueba cuyo resultado es
negativo. O sea para Popper “contrastar una teoría significa intentar
refutarla mediante un contra ejemplo. Si no es posible refutarla, dicha
teoría queda corroborada, pudiendo ser aceptada provisionalmente,
pero nunca verificado”. La falsación no se da con el surgimiento de una
anomalía, es un proceso posterior y además totalmente separado. Kuhn
asegura que dos paradigmas son inconmensurables: no tienen como
supuestos un mismo conjunto de problemas, ni una visión idéntica del
mundo, ni un conjunto compartido de normas y ni un lenguaje teórico.
La inconmensurabilidad entre paradigmas determina que sus
respectivos miembros hablen distintos “idiomas”, o sea que los mismos
términos tengan diferentes significados, los que dificulta o imposibilita
la comunicación entre ellos. Otra diferencia significativa entre los
científicos que defienden dos paradigmas en conflicto, es la edad
promedio de cada grupo, mucho de los partidarios del paradigma
antiguo son de edad avanzada, mientras que los que apoyan al
paradigma entrante son jóvenes. Esta diferencia generacional
contribuye a la irracionalidad del cambio, que generalmente termina
cuando los del paradigma antiguo fallecen y se inicia una nueva fase de
ciencia normal.
La forma en que un paradigma es aceptado por la comunidad científica
es porque ofrece una precisión cuantitativa sorprendente mayor que la
de su competidor más antiguo. Otra elemento que también contribuye a
la aceptación, es la capacidad que este tiene para la predicción de
problemas. Otras veces el paradigma antiguo es desplazado por el
nuevo por razones en que la nueva teoría es más apropiada o más
sencilla que la antigua para resolver los problemas predictivos.27
Para Kuhn, el desarrollo científico, a través de las revoluciones es visto
como una forma de progreso científico, “sólo durante los períodos de
ciencia normal el progreso parece obvio y seguro no obstante, durante
dichos períodos, la comunidad científica no podría ver de otro modo los
frutos de su trabajo”,28 es decir el progreso se percibe con mayor
facilidad cuando no hay lucha de competencias entre distintos
paradigmas en el seno de una ciencia.
Kuhn adopta un enfoque de la Historia de la Ciencia y de la Filosofía de
la ciencia centrado en cuestiones conceptuales, como qué tipo de ideas
eran concebibles en un determinado momento, de qué tipo de
estrategias y opciones intelectuales disponían las personas durante
cierto período, así como la importancia de no atribuir modelos de
pensamiento modernos a autores históricos. Desde esta posición,
argumenta que la evolución de la teoría científica no proviene de la
mera acumulación de hechos, sino de un grupo de circunstancias y
posibilidades intelectuales sujetas al cambio.
Kuhn distingue cronológicamente tres etapas en las fases del progreso
de ciencia. En la primera, que es la fase precientífica, y que se da una
sola vez, no existe consenso sobre ninguna teoría en particular. Se
caracteriza por presentar numerosas teorías incompatibles e
incompletas. Si los individuos de una comunidad precientífica logran
un amplio consenso sobre métodos, terminología, y la clase de
experimentos que pueden contribuir a mayores descubrimientos, da
comienzo la segunda fase, o ciencia normal. Toda ciencia puede
atravesar luego, varias fases de ciencia revolucionaria.
Según Kuhn, el paradigma que precede un cambio de paradigma, es tan
diferente del que lo sigue, que sus teorías no son comparables. El
cambio de paradigma no es una mera revisión o transformación de una
teoría aislada, sino que cambia la manera en que se define la
terminología, la manera en que los científicos encaran su objeto de
estudio, y acaso más importante aún, el tipo de preguntas consideradas
válidas, así como las reglas utilizadas para determinar la verdad de una
teoría particular. Plantea así la inconmensurabilidad de los paradigmas,
la imposibilidad de traducir las ideas de uno en las de otro, y por lo
tanto de compararlos entre sí.

La ciencia según Lakatos

Imre Lakatos, matemático y filósofo de la ciencia, recoge ciertos


aspectos de la teoría de Thomas Kuhn, entre esos la importancia de la
historia de la ciencia. Cuestiona a Popper, pues la historia de la ciencia
muestra que la falsación no es una acción cotidiana de los científicos
como Popper defendía.
Lakatos tiene una posición crítica tanto frente a Kuhn como a Popper,
intenta unir la interpretación metodológica de Popper con la necesidad
planteada por Kuhn de conocer la historia y el desarrollo de una
ciencia. Lakatos critica el tipo de falsacionismo que él denomina
ingenuo, sin embargo su propósito no es atacarlo sino recoger y
profundizar la heurística positiva de aquel, generando una nueva
versión del falsacionismo que denomina “sofisticado”, haciéndose cargo
–en su reconstrucción– de las refutaciones historiográficas que Kuhn
opuso al programa de investigación falsacionista.
Lakatos propone como unidad de análisis epistemológico: el programa
de investigación científica. Postula que "...la unidad descriptiva típica de
los grandes logros científicos no es una hipótesis aislada sino más bien
un programa de investigación".29 Que forman el concepto fundamental
de la aportación metodológica de Lakatos. El concepto de programa de
investigación de Lakatos “surge como consecuencia de una respuesta a
las críticas que Popper formuló, a las ideas sobre los paradigmas de
Kuhn”.
Para Lakatos hay diferentes clases de conocimiento – mítico, dogmático,
técnico, empírico, artístico, pero “¿qué distingue al conocimiento de la
superstición, la ideología o la pseudo-ciencia?”. Para Lakatos esta no es
una respuesta simple de contestar. “Muchos filósofos han intentado
solucionar el problema de la demarcación en los términos siguientes:
un enunciado constituye conocimiento si cree en él, con suficiente
convicción, un número suficientemente elevado de personas. Pero la
historia del pensamiento muestra que muchas personas han sido
convencidos creyentes de nociones absurdas”.30
“Realmente lo que caracteriza a la conducta científica es un cierto
escepticismo incluso con relación a nuestras teorías más estimadas. La
profesión de fe ciega en una teoría no es una virtud intelectual, sino un
crimen intelectual”.31
“Karl Popper en 1934 defendió que la probabilidad matemática de todas
las teorías científicas o pseudo-científicas, para cualquier magnitud de
evidencia es cero”.32
Popper propuso un nuevo criterio de demarcación “una teoría puede ser
científica si no cuenta con la sombra de una evidencia favorable y
puede ser pseudo-científica aunque toda la evidencia disponible le sea
favorable”.33 es decir el carácter científico o no científico es
independiente de los hechos.
“Una teoría es científica si podemos especificar por adelantado un
experimento crucial (o una observación) que puede falsarla, y es
pseudo-científica si nos negamos a especificar tal falsador potencial”.34
“¿Es el criterio de falsabilidad de Popper la solución del problema de la
demarcación entre la ciencia y la pseudo-ciencia?”, Lakatos responde
que no. Popper “ignora” la notable tenacidad de las teorías científicas,
los científicos tienen la piel gruesa, no abandonan una teoría
simplemente porque los hechos la contradigan.
“¿Tenemos que capitular y convenir que una revolución científica sólo
es un cambio irracional de convicciones, una conversión religiosa?”.35
Ésta es la conclusión que llega Kuhn, según Lakatos, tras descubrir la
ingenuidad del falsacionismo popperiano.
En los últimos años –dice Lakatos- “he defendido la metodología de los
Programas de Investigación Científica que soluciona algunos de los
problemas que ni Popper, ni Kuhn consiguieron solucionar”.36
La ciencia newtoniana, no es sólo un conjunto de cuatro conjeturas
(tres leyes de la mecánica y la ley de la gravitación). Esas cuatro leyes
sólo constituyen el “núcleo firme” del programa newtoniano. Pero este
núcleo firme está tenazmente protegido contra las refutaciones
mediante un gran “cinturón protector” de hipótesis auxiliares y lo más
importante, el programa de investigación tiene también una heurística,
esto es, una poderosa maquinaria para la solución de problemas, que,
con la ayuda de técnicas matemáticas sofisticadas, asimila las
anomalías e incluso las convierte en evidencia positiva.
Lakatos distingue un programa científico o progresivo de otro regresivo
o pseudo-científico. Los programas científicos son aquellos que predicen
hechos nuevos, hechos que previamente ni siquiera habían sido
soñados o que incluso habían sido contradichos por programas previos
rivales.
En un programa de investigación progresivo, la teoría conduce a
descubrir hechos nuevos, que hasta entonces eran desconocidos, en
cambio los programas regresivos las teorías son fabricadas sólo para
acomodar los hechos ya conocidos. “Lo que realmente importa son las
predicciones dramáticas, inesperadas, grandiosas, unas pocas de éstas
son suficientes para decidir el desenlace; si la teoría se retrasa con
relación a los hechos, ello significa que estamos en presencia de
programas de investigación científica pobres y regresivos”.37
Lakatos trata de probar primeramente que en la lógica de la
investigación científica de Popper confluyen dos puntos de vista
distintos, en donde Kuhn sólo percibe uno de ellos, el “falsacionismo
metodológico ingenuo” probando que su crítica a Popper es correcta
incluso la refuerza, pero no perdona que Kuhn no visualiza que las
revoluciones científicas son racionales.
Para demostrar lo anterior Lakatos nos recuerda que el conocimiento no
hace referencia al conocimiento probado ya que fue puesto en duda
varios años atrás, incluso con newton se creó nuevamente la confusión
de la certeza probatoria. “El poder probatorio del intelecto o de los
sentidos fue puesto en duda por los escépticos hace más de dos mil
años, pero la gloria de la física newtoniana los sumió en la
confusión....no es posible atenuar simplemente el ideal de verdad
probada llegando al ideal de “verdad probable” (como hacen algunos
empiristas lógicos) o al de “verdad por consenso (cambiante)” (como
hacen algunos sociólogos del conocimiento).38
Lakatos reconoce que Kuhn y Popper comparten que la ciencia no crece
por “acumulación de verdades eternas”, ambos se inspiran en la
destrucción de la física newtoniana realizada por Einstein. Pero la
diferencia entre ambos es la idea de la revoluciones. Para “Popper la
ciencia es “revolución permanente”, mientras que para “Kuhn las
revoluciones son excepcionales y, en realidad, extra científicas”.39
Otra de las criticas que realiza Lakatos es que para Kuhn al reconocer
el fracaso tanto del justificacionismo como del falsacionismo, parece
retroceder al irracionalismo; pues para Popper el cambio científico es
racional o al menos reconstruible racionalmente, y pertenece al campo
de la Lógica de la investigación, para Kuhn el cambio científico
pertenece a la psicología (social) de la investigación, es una clase de
cambio religioso.
Para mostrar Lakatos su punto de vista referente a que Kuhn solo
percibe un punto de vista con Popper, trata de exponer y de fortalecer
el enfoque popperiano que se basa en el falsacionismo para proponer
su tesis sobre lo que él llama el falsacionismo sofisticado.
Lakatos reconstruye la situación histórica de la filosofía de la ciencia
tras el hundimiento del “justificacionismo”, que consiste en el
conocimiento de proposiciones probadas si se tiene la pretensión de ser
científico.
El justificacionismo, esto es, la identificación del conocimiento con el
conocimiento probado, fue la tradición dominante durante siglos en el
pensamiento racional. Pero para los intelectuales clásicos (racionalistas)
hay varias clases de pruebas: la revelación, la intuición intelectua y la
experiencia, éstas con la ayuda de la lógica, probaban cualquier
proposición científica. En cambio los “empiristas clásicos” sólo aceptan
un conjunto pequeño de axiomas que responden a “hechos sólidos”, la
experiencia constituye para ellos el valor de verdad, y es la “base
empírica” de la ciencia, y proponen la “lógica inductiva”; así, todos los
justificacionistas fueron o empiristas o intelectualistas y estaban de
acuerdo en que un enunciado singular que exprese un “hecho sólido”
puede refutar a una teoría universal, pero pocos de entre ellos
entendían que una conjunción finita de proposiciones fácticas, puede
ser suficiente para probar “inductivamente” una teoría universal.
Lakatos continua diciendo “el escepticismo no negó el justificacionismo:
sólo afirmó que no había ni podía haber conocimiento probado ni, por
ello, conocimiento de ninguna clase. De este modo, el escepticismo
justificacionista ridiculizó el pensamiento objetivo y abrió la puerta al
irracionalismo, al misticismo y a la superstición”.40
Como consecuencia, surge el probabilismo, la honestidad científica
requiere menos de lo que se pensaba: consiste en expresar solamente
teorías muy probables, o incluso, en especificar para cada teoría
científica, la evidencia y la probabilidad de la teoría a la luz de la
evidencia. La sustitución de la prueba por la probabilidad constituyó un
retroceso fundamental para el pensamiento justificacionista. Pero
incluso este retroceso resultó ser insuficiente. Hasta que Popper criticó
el probabilismo “que en condiciones muy generales todas las teorías
tienen probabilidad cero, sea cual sea la evidencia: no sólo todas las
teorías son igualmente imposibles de probar sino que también son
igualmente improbables”.41
Lakatos analiza el falsacionismo dogmático “que admite la falibilidad de
todas las teorías científicas sin cualificaciones, pero retiene una clase
de base empírica infalible”.42 Para el falsacionista dogmático la contra-
evidencia empírica es el único árbitro posible de una teoría. Reconoce
que todas las teorías son igualmente conjeturales. La ciencia no puede
probar ninguna teoría, pero sí que puede “refutar; “puede realizar con
certeza lógica completa (el acto de) repudiar lo que es falso”.
Según Lakatos la lógica del falsacionismo dogmático, la ciencia crece
mediante reiteradas eliminaciones de teorías con la ayuda de los hechos
sólidos, éste falsacionismo dogmático es insostenible porque descansa
en dos supuestos falsos y un criterio de demarcación entre la ciencia y
la no-ciencia muy restringido.

• El primer supuesto: es que existe una frontera natural,


psicológica, entre proposiciones teóricas y especulativas, por una
parte y las proposiciones fácticas u observacionales o básicas por
la otra.- parte del enfoque naturalista del método científico-.

• El segundo supuesto: es que si una proposición satisface el


criterio psicológico de ser fáctica u observacional, entonces es
cierta, se puede decir que ha sido probada por los hechos. – tesis
de la doctrina de la prueba observacional-.

Para Lakatos ambos supuestos son falsos; la psicología testimonia


contra el primero y la lógica contra el segundo, y la opinión
metodológica testifica contra el criterio de demarcación, argumentando:

1.- No fueron las observaciones puras y ateóricas de Galileo las que se


enfrentaban con la teoría de Aristóteles, sino que las observaciones de
Galileo, interpretadas mediante su teoría óptica, se enfrentaban con las
observaciones de los aristotélicos, interpretadas según su teoría de los
cielos.

2.- La lógica destruye el segundo supuesto, ninguna proposición fáctica


puede nunca ser probada mediante un experimento; las proposiciones
sólo pueden ser derivadas a partir de otras proposiciones y no a partir
de los hechos, esto lleva a que los conflictos entre las teorías y las
proposiciones fácticas no son falsaciones, sino simples inconsistencias.

3.- Las teorías más admiradas no prohíben ningún acontecimiento


observable, si aceptamos que los hechos pueden probar las
proposiciones fácticas, debemos aceptar que las teorías más
importantes en la historia de la física, son entonces metafísicas.

Por lo tanto, para Lakatos, los justificacionistas clásicos sólo admiten


teorías probadas, los neoclásicos teorías probables y los falsacionistas
dogmáticos las refutables. Pero Lakatos asegura que, no sólo son las
teorías científicas igualmente incapaces de ser probadas e igualmente
improbables, sino que también son igualmente irrefutables. Pero el
reconocimiento de que no sólo las proposiciones teóricas sino todas las
proposiciones de la ciencia son falibles, implica el colapso total de todas
las formas del justificacionismo dogmático como teorías de la
racionalidad científica.
Lakatos sostiene que el falsacionismo metodológico que es una clase de
convencionalismo puede dar respuesta a que es posible contar con una
teoría falibilista del progreso científico, ya que si las teorías científicas
no pueden ser probadas ni se les puede atribuir una probabilidad, así
como tampoco pueden ser refutadas entonces puede ser falible, de
manera de eliminar tal teoría.
El falsacionismo metodológico de Popper trató de encontrar un criterio
que fuera más objetivo y más demoledor, que comprende que en las
“técnicas experimentales” del científico, hay implicadas teorías falibles
con las que interpreta los hechos. A pesar de ello, aplica tales teorías;
en el contexto dado, las considera no como teorías bajo contrastación,
sino como conocimiento fundamental carente de problemas, que
aceptamos como no problemático mientras estamos contrastando la
teoría. También señalan que, de hecho, estas convenciones son
institucionalizadas y aceptadas por la comunidad científica: el veredicto
de los científicos experimentales suministra la lista de falsadores
aceptados.43
De este modo establece su “base empírica” el falsacionismo
metodológico, base que difícilmente puede ser llamada “base” de
acuerdo con criterios justificacionistas; en ella no hay nada probado: se
trata de unos “cimientos de arena”. Ciertamente si esta “base empírica”
entra en conflicto con una teoría, puede decirse que la teoría está
“falsada”, pero no en el sentido de haberse probado su falsedad. La
“falsación” metodológica, es muy diferente de la falsación dogmática.
El es falibilista, pero su falibilismo no debilita su actitud crítica:
convierte a las proposiciones falibles en una “base” para una política
dura. Desde esta perspectiva propone un nuevo criterio de demarcación:
una teoría es “científica” (o “aceptable”) si tiene una “base empírica”.44
Según Lakatos hay tres decisiones que debe asumir el falsacionismo
metodológico:
1.- Selección de enunciado “básico” u “observacional”, no sólo por
carácter psicológico.

2.- Separación del conjunto de enunciados aceptados de los otros.

3.- Especificar ciertas reglas para el rechazo que convierten a la


evidencia, estadística interpretada, en “inconsistente” con la teoría
probabilística.

Pero estas tres decisiones no son suficientes para falsar una teoría
incapaz de explicar nada “observable” sin la ayuda de una cláusula
ceteris- paribus.45 El falsacionista metodológico soluciona el problema
adoptando una decisión ulterior (cuarta clase); cuando contrasta una
teoría junto con una cláusula ceteris-paribus y descubre que esta
conjunción ha sido refutada, debe decidir si interpreta la refutación
como una refutación de la teoría específica, o como una refutación de
la cláusula, la conjunción, o mediante una quinta clase de decisión,
eliminar incluso teorías “sintácticamente metafísicas”, esto es, teorías
que, como los enunciados “todos-algunos” o los puramente existenciales
no pueden tener falsadores potenciales, espacio temporalmente
singulares, debido a su forma lógica
Para Lakatos el falsacionismo metodológico representa un avance
considerable con relación al falsacionismo dogmático y al
convencionalismo conservador. Recomienda las decisiones arriesgadas.
Pero los riesgos son tan grandes que se convierten en temerarios.
Lakatos aprecia al menos dos características cruciales, que son
comunes al falsacionista dogmático y al falsacionista metodológico, y
que claramente están en contradicción con la historia real de la ciencia:

1.- Una contrastación es, o se debe hacer que sea, una confrontación
bilateral entre teoría y experimento, de modo que en el enfrentamiento
final ellos son los únicos actores.

2.- Que el único resultado interesante de tal confrontación es la falsación


(concluyente): (los únicos) descubrimientos (auténticos) son refutaciones
de hipótesis científica. Sin embargo, la historia de la ciencia sugiere que
a) las contrastaciones son, como mínimo, enfrentamientos trilaterales
entre teorías rivales y experimentos, y b) algunos de los experimentos
más interesantes originan, prima facie, una confirmación en lugar de
una falsación.

Para Lakatos el falsacionismo sofisticado difiere del ingenuo (del que


Lakatos critica a Popper) tanto en sus reglas de aceptación (o “criterio
de demarcación”) como en sus reglas de falsación o eliminación.

Para el falsacionismo sofisticado una teoría es “aceptable” o “científica”,


sólo si tiene un exceso de contenido empírico corroborado con relación a
su predecesora (o rival); esto es, sólo si conduce al descubrimiento de
hechos nuevos. Condición que puede descomponerse en dos apartados;
que la nueva teoría tenga exceso de contenido empírico, y que una parte
de ese exceso de contenido resulte verificado.
Según Lakatos,46 el falsacionismo ingenuo corresponde a una teoría que
es falsada por un enunciado observacional que entra en conflicto con
ella. En cambio para el falsacionismo sofisticado una teoría científica T,
queda falsada si y sólo si otra teoría T' ha sido propuesta; y tiene las
siguientes características: a) T' tiene un exceso de contenido empírico
con relación a T; esto es, predice hechos nuevos, improbables o incluso
excluidos por T; b) T' explica el éxito previo de T; esto es, todo el
contenido no refutado de T está incluido (dentro de los límites del error
observacional) en el contenido de T', y c) una parte del exceso de
contenido de T' resulta corroborado.
Según Lakatos, Popper conviene con los convencionalistas en que las
teorías y las proposiciones fácticas, siempre pueden ser reconciliadas
con la ayuda de hipótesis auxiliares; conviene que el problema es cómo
diferenciar los ajustes científicos de los pseudocientíficos, los cambios
de teoría racionales de los irracionales. El salvar a una teoría con
ayuda de hipótesis auxiliares que satisfagan ciertas condiciones bien
definidas, representa un progreso científico; pero hacerlo con hipótesis
que no las satisfacen, representan una degeneración. Estas últimas
hipótesis son denominadas las inadmisibles “hipótesis ad hoc”
“estratagemas convencionalistas”.47 Cualquier teoría debe ser evaluada
en conjunción con sus hipótesis auxiliares, así lo que evaluamos no son
las teorías aisladas, sino una serie de teorías.
La ciencia puede crecer sin que ninguna refutación indique el camino,
lo que suscita la actividad científica febril es la proliferación de teorías
en lugar de los contraejemplos o anomalías; la consigna “proliferación
de teorías”48 es mucho más importante para el falsacionista sofisticado
que para el ingenuo. El falsacionismo sofisticado ofrece nuevos criterios
de honestidad intelectual, en comparación con el falsacionismo ingenuo
y con los jusficacionistas así:
1.- Los justificacionistas exigían la aceptación exclusiva de lo que había
sido probado y el rechazo de todo aquello carente de pruebas.

2.- Los neojustificacionistas pedían que se especificara la probabilidad


de cualquier hipótesis teniendo en cuenta la evidencia empírica
disponible.

3.- El falsacionismo ingenuo requería la contrastación de lo falsable y el


rechazo de lo no falsable o lo falseado.

4.- El falsacionismo sofisticado pide que se vean las cosas desde


diferentes puntos de vista y que se rechacen teorías que han sido
superadas por otras teorías más poderosas.

Para el falsacionismo sofisticado aprender acerca de una teoría es


fundamentalmente aprender qué nuevos hechos anticipó; la única
evidencia relevante es la evidencia anticipada de una teoría, donde el
carácter empírico y el progreso teórico están inseparablemente
relacionados.
Este falsacionismo sofisticado a diferencia del ingenuo (metodológico),
requiere un número menor de decisiones metodológicas; la cuarta
decisión del falsacionismo ingenuo ahora se hace redundante. Por tanto
el sofisticado es un falsacionismo con un procedimiento más lento pero
más seguro; la quinta decisión tampoco es necesaria, la solución
sofisticada es obvia, retenemos una teoría sintácticamente metafísica
mientras los casos problemáticos puedan explicarse mediante cambios
acrecentadores de contenido en las hipótesis auxiliares.
Para Lakatos uno de los aspectos cruciales del falsacionismo sofisticado
es que sustituye el concepto de teoría, como concepto básico de la lógica
de la investigación, por el concepto de serie de teorías. Lo que ha de ser
evaluado como científico o pseudocientífico es una sucesión de teorías y
no una teoría dada. Pero los miembros de tales series de teorías
normalmente están relacionados por una notable continuidad que las
agrupa en programas de investigación. Esta continuidad (reminiscente
de la “ciencia normal” de Kuhn) juega un papel vital en la historia de la
ciencia; los principales problemas de la lógica de la investigación sólo
pueden analizarse de forma satisfactoria en el marco suministrado por
una metodología de los programas de investigación.49
Para Lakatos la ciencia se caracterizan por cierta continuidad que
relaciona a sus miembros. Esta continuidad se origina en un programa
de investigación genuino concebido en el comienzo. El programa
consiste en reglas metodológicas, pueden ser formuladas como
principios metafísicos, según Popper: algunas nos dicen las rutas de
investigación que deben ser evitadas (heurística negativa), y otras, los
caminos que deben seguirse (heurística positiva).
El núcleo está formado por un conjunto de elementos de la teoría tales
que, cualquiera que sea la formulación del programa que se adopte,
siempre están presentes. Podemos decir que el núcleo es el elemento
diferenciador de un programa. Está referido al conjunto de teorías
centrales que reúnen los logros más notables en ese campo de
conocimiento.
La heurística negativa de un programa hace referencia a ciertas
recomendaciones dirigidas a la comunidad científica, indicándole
aquellas líneas de actuación que no debe seguir. En concreto, las
prohibiciones hacen referencia a que cualquiera que sea la dificultad
con la que se encuentre un programa, el investigador no puede
modificar nunca un elemento del núcleo. La heurística negativa del
programa impide que apliquemos el modus tollens al “núcleo firme”. Se
debe utilizar la inteligencia para incorporar e incluso inventar las
hipótesis auxiliares, que formen un cinturón protector en torno a ese
centro, y contra estas se debe dirigir el Modus Tollens.
El cinturón protector se refiere a todos aquellos elementos del programa
que pueden alterarse sin afectar sustancialmente a la esencia del
programa. Ante cualquier contradicción del programa con la evidencia
empírica disponible, cualquiera de los elementos del cinturón protector
puede modificarse de forma que dicho programa puede continuar sin
verse afectado en lo esencial.

La heurística positiva indica las vías o caminos a seguir cuando se va a


modificar los elementos del cinturón protector. Lakatos se refiere a la
heurística positiva en los siguientes términos: “La heurística positiva
consiste en un conjunto parcialmente articulado de sugerencias o
indicaciones sobre como cambiar las variantes refutables del programa
de investigación, como modificar, refinar el cinturón protector
refutable”. Las modificaciones del cinturón pueden venir sugeridas por
las contradicciones que le surjan a las versiones del programa sujetas a
contraste empírico. La heurística positiva del programa impide que el
científico se pierda en el océano de anomalías. La heurística positiva
establece un programa que enumera una secuencia de modelos
crecientemente complicados simuladores de la realidad.
Mediante estos conceptos, Lakatos logra dar cuenta de un fenómeno
observado insistentemente en la práctica científica y que los otros
enfoques habían manifestado su incapacidad para hacerlo: la vigencia
del Principio de Tenacidad. Los científicos ante cualquier contradicción
entre los hechos y las teorías tratan de salvar a estas mediante todo
tipo de artilugios; con la distinción entre el núcleo y el cinturón
protector la tenacidad persistente recibe un tratamiento sistematizado.
Hay que destacar que de los cuatro elementos que configuran el
programa, dos de ellos: el Núcleo y el Cinturón Protector, tienen un
carácter estático descriptivo, mientras que los otros dos -la heurística
positiva y la heurística negativa- tienen un carácter dinámico
prescriptivo, aprobando y rechazando pautas de comportamiento que
los componentes de la comunidad científica deben respetar. Estos dos
tipos de elementos interaccionan entre sí de forma que son las reglas de
la heurística las que determinan los cambios a introducir en el cinturón
protector dejando intacto el núcleo central. Esto nos lleva al estudio no
solo de los elementos estructurales del programa sino también a la
descripción de la trayectoria temporal seguida por un programa en su
evolución.
Lakatos distingue dos tipos de programas de investigación: progresivos
y degenerativos. Un programa de investigación científico será calificado
de progresivo si las sucesivas formulaciones del programa suponen un
aumento de su contenido empírico con respecto a la formulación
anterior y además este aumento de contenido resulta contrastado con la
realidad. La característica fundamental de los programas degenerativos
es que brindan soluciones “a posteriori”, tratando de acomodarse a
cualquier hecho ya observado. De acuerdo con el criterio comentado, un
programa de investigación no se considera científico de forma perpetua,
sino que es provisional y puede pasar, a medida que se descubren
nuevos hechos, de la fase progresiva a la degenerativa y viceversa.
Lakatos presenta dos ejemplos de programas de investigación científica
el programa de Prout basado en la idea de que todos los átomos son
compuestos de átomos de hidrógeno, y el programa de Bohr, basado en
la idea de que la emisión de luz se debe a los saltos de los electrones
entre unas órbitas y otras, en el seno de los átomos. Donde el programa
de investigación de Prout que progresa a través de un océano de
anomalías y el programa de Bohr que progresa sobre fundamentos
inconsistentes.
Probando históricamente que algunos de los programas de investigación
científica más importantes de la historia de la ciencia estaban
injertados en programas más antiguos con relación a los cuales eran
claramente inconsistentes. Pero la consistencia debe continuar siendo
un principio regulador importante, si la ciencia busca la verdad, debe
buscar la consistencia; si renuncia a la consistencia, renuncia a la
verdad. Pretender que se debe ser modesto en las exigencias, que se
debe resignar a las inconsistencias continuas sigue siendo un vicio
metodológico. Esto no significa que el descubrimiento de una
inconsistencia debe frenar inmediatamente el programa, puede ser
racional poner en programa en una “cuarentena temporal”.
Con relación a un programa existen dos posiciones extremas e
irracionales:
La posición conservadora: consiste en frenar el nuevo programa hasta
que se solucione de algún modo la inconsistencia básica con relación al
programa antiguo: pues es irracional trabajar sobre fundamentos
inconsistentes.
La posición anarquista: con respecto a los programas injertados
consiste en exaltar la anarquía de los fundamentos como una virtud y
en considerar la inconsistencia débil, bien como una propiedad básica
de la naturaleza o como una limitación última del conocimiento
humano.
Pero Lakatos alaba una posición racional al respecto del tratamiento
que debe darse a un programa injertado, para el caso expone el ejemplo
de Newton:
“La mejor caracterización de la posición racional es la actitud de
Newton, la posición racional es explorar su poder heurístico sin
resignarse al caos fundamental sobre el que se está construyendo” se
muestra así que el cambio progresivo puede suministrar credibilidad y
una racionalidad a un programa inconsistente.
La dialéctica de los programas de investigación científica no es
necesariamente una serie alternante de conjeturas especulativas y
refutaciones empíricas. La interacción entre el desarrollo del programa y
los frenos empíricos puede ser muy diversa; la pauta que se cumpla en
la realidad sólo depende de accidentes históricos.
Para Lakatos La historia de la ciencia ha sido y debe ser una historia de
programas de investigación que compiten, Los programas compiten
entre sí y sobreviven aquellos que son progresivos y desaparecen los
que son degenerativos. Lakatos establece que un programa es mejor
que otro bien porque el primero es progresivo y el segundo degenerativo,
o bien porque siendo los dos progresivos el primero proporciona
versiones más informativas. Además, proporciona una especie de
fórmula lógica para medir la calidad de la representación: un programa
es progresivo respecto a otro programa cuando el primero tiene un
contenido informativo adicional respecto al segundo que está
corroborado. Lakatos afirma “nuestra respuesta es que tal razón
objetiva la suministra un programa de investigación rival que explica el
éxito previo de su rival y le supera mediante un despliegue adicional de
poder heurístico”.

Se ve como la aportación de Lakatos en torno al concepto de programa


de investigación, persigue solucionar algunos problemas que el
falsacionismo había dejado sin resolver. Por ejemplo, el hecho de
mantener una teoría cuando tiene dificultades con la evidencia
disponible no tenía una cabida satisfactoria en el falsacionismo y, sin
embargo, recibe un tratamiento natural dentro del esquema conceptual
de los programas de investigación. Otra cuestión que tampoco ha
recibido un tratamiento satisfactorio en otros enfoque y en el de los
programas ya se perfila un tratamiento satisfactorio es el de comparar
teorías diferentes planteándolo como un proceso temporal y no como
decisiones puntuales y considerando a la teoría como totalidades
estructuradas y no como enunciados aislados.
Lakatos proporciona un tratamiento unitario de todas estas cuestiones
más allá de la consideración individualizada y, en cierto modo, a
remolque que parecían tener en los enfoques previamente estudiados.
Además, ese tratamiento unitario incorpora un principio-guía que sólo
muy tímidamente aparecía esbozado en esos otros enfoques. Este
principio-guía podía formularse así. Una teoría A es mejor que una
teoría B cuando la primera tiene un contenido informativo adicional
corroborado respecto a la segunda. Este principio es muy importante
porque orienta al investigador tanto cuando actúa dentro de un
programa previamente aceptado como cuando tiene que decidir cambiar
de un programa de investigación a otro. La persecución de una teoría
que tenga un contenido adicional corroborado, ahuyentará la
propensión a incorporar modificaciones ad hoc y a embarcarse en un
programa de investigación degenerativo.
Para Lakatos la falsación consiste en un triple enfrentamiento entre dos
teorías rivales y la experiencia. Las teorías rivales se confrontan con la
experiencia; una es aceptada y la otra es refutada. La refutación de una
teoría depende del éxito total de la teoría rival. De esta forma plantea
una nueva teoría: el programa de investigación científica que se basa en
el falsacionismo sofisticado que consiste en una sucesión de teorías
relacionadas entre sí, de manera que unas se generan partiendo de las
anteriores. Estas teorías que están dentro de un programa de
investigación científica comparten un núcleo firme o duro. El núcleo
firme está protegido por un Cinturón protector. Consistiendo en un
conjunto de hipótesis auxiliares que pueden ser modificadas,
eliminadas o reemplazadas por otras nuevas con el objetivo de impedir
que se pueda falsar el núcleo firme. Dentro de un programa de
investigación científica hay una heurística negativa y una heurística
positiva. La positiva sirve de guía e indica como continuar el programa,
mientras que la negativa prohíbe la refutación del núcleo firme. Cuando
un programa de investigación científica, se enfrenta a anomalías
empíricas que teóricamente no ha podido predecir se reemplaza por un
programa rival. En el caso de que no haya un programa rival que
conserve los elementos no refutados del anterior, y a la vez tenga
soluciones para las nuevas anomalías, el programa se queda en etapa
regresiva hasta que se recupera. Los programas de investigación
científica pueden ser degenerativos, cuando el programa no predice
fenómenos nuevos por mucho tiempo; o progresivos, cuando el
programa tiene éxito.

Comparación

A continuación se presenta una comparación de los aspectos más


relevantes de las teorías de Kuhn y Lakatos.

Thomas Kuhn Imre Lakatos

La historia de las ciencias es producto La historia de las ciencias es un


histórico revolucionario no proceso histórico evolutivo y
acumulativo y social racional

Utiliza un esquema histórico- Utiliza un esquema histórico-


sociológico para exponer su teoría sociológico para exponer su
teoría

Su concepto fundamental para el La ciencia es un gran programa


soporte de ciencia normal es el de investigación científica que
paradigma que consiste en un consiste en una estructura
supuesto de teorías, leyes y técnicas compuesta por un núcleo
para su aplicación mediante central, un cinturón protector y
instrumentación de una maquinaria heurística
que sirven de guía a las futuras
investigaciones tanto de modo
positivo y negativo.

Las revoluciones científicas son Los programas de investigación


productos de crisis generadas por científica se desvanecen
acumulación de anomalías al interior conforme los científicos y los
del seno de la teoría científica recursos los abandonan
producto de la degeneración del
programa ocurrida por la
heurística negativa.

Su teoría está basada en el Su teoría se apoya en el


falsacionismo ingenuo de Popper falsacionismo de Popper pero
agrega el ingrediente extra que
el falsacionismo sofisticado el
cual prueba que las teorías son
irrefutables.

Los paradigmas son Los programas de investigación


inconmensurables no existe forma de científica son modelos que
poder compararlos están en estado de evolución
positiva o negativa

El crecimiento de la ciencia es no El crecimiento de la ciencia es


inductiva pero irracional no inductivo pero racional.

Los paradigmas no explican La metodología de los


completamente los problemas programas de investigación
planteados dentro de una práctica científica se basa en la
científica (limita la visión científica) comparación de una serie de
teorías interrelacionadas que se
dan en el interior del programa
Conclusión

El estudio de la epistemología contemporánea acerca del conocimiento


científico, ha dado pasos muy importantes, así lo evidencian los
planteamientos de Thomas Kuhn y de Imre Lakatos; quienes con sus
aportes han enriquecido los estudios epistemológicos con
planteamientos que permiten una mejor comprensión de la historia y
teoría de la ciencia, dando mayores luces al estudio del proceso de
construcción y crisis de las teorías científicas. Por un lado, Kuhn nos
plantea los Conceptos de Revolución Científica y Paradigma, y por otro,
Imre Lakatos propone la Teoría de los Programas de Investigación
Científica.
Kuhn, a su vez, replantea la concepción de ciencia, vigente en su
momento, y la define no como simple acumulación de conocimientos,
sino como una actividad histórico social; la ciencia y el conocimiento
científico es una creación social producto de individuos y grupos que
actúan en un determinado contexto con sus respectivas concepciones,
determinadas actitudes, preferencias y condiciones sociales.
Kuhn utiliza el concepto de paradigma para referirse a aquellas
realizaciones científicas reconocidas, que durante cierto tiempo
proporcionaron modelos de problemas y soluciones a una comunidad
científica; es decir, los paradigmas que orientan a una comunidad
científica y sirven de guía en sus investigaciones y por lo tanto
impulsan el desarrollo de las ciencias.
La historia de las ciencias muestra la existencia y coexistencia de
paradigmas, unos que han dejado de estar vigentes y otros todavía en
curso, pero que en algún momento, dejarán de ser producto de la
curiosidad innata del hombre por seguir perfeccionando su entorno, la
naturaleza y el mundo.
Lakatos, a diferencia de Kuhn no habla de superación de teorías, de
paradigmas, sino de una sustitución de Programas de Investigación
Científica, por otros programas que permiten nuevos descubrimientos,
asimismo, subraya que las Revoluciones Científicas ocurren al rivalizar
dos programas de investigación; es decir, cuando uno de los programas
progresa mientras que el otro degenera.
Para Lakatos el proceso de sustitución de programas puede darse en un
tiempo que suele ser amplio, como por ejemplo equivalente a lo que
puede tardar una Revolución Científica, y afirma que Kuhn se equivoca
al pensar que las Revoluciones Científicas son un cambio repentino e
irracional, pues para él, el cambio es lento y racional.

Citas y notas
______________________
1
MACMORRIS, Neville: Las naturalezas de la ciencia. Nueva York: Prensa de la
universidad de Fairleigh Dickinson, 1989, pp. 31–33. ISBN 0838633218.
2
Enciclopedia GER http://www.canalsocial.net/ GER/ficha_GER.asp ?id=4223&
cat=ciencia
3
SALDIVIA, Zenobio: “La Antigua Tarea de Ordenar y Clasificar a las Ciencias”.
Revista Universum, U. de Talca, Talca, N°24 Vol. 1, 2009.
4
Cfr. ALAN F. Chalmers: “¿Qué es esa cosa llamada Ciencia? Siglo XXI Editores,
Argentina, 1988.
5
Cfr. SALDIVIA, Zenobio: “La Antigua Tarea de Ordenar y Clasificar a las Ciencias”.
Revista Universum, U. de Talca, Talca, N°24 Vol. 1, 2009.
6
Ibídem.
7
Cfr. SPENCER, H.: “The Classification of the Sciences”, 1864
8 Ibídem., p. 7
9 Ibídem.
10 Ibídem.
11 KUHN, Thomas: La estructura de las revoluciones Científicas. Fondo de Cultura
Económica. Edición 2007, p. 74.
12 Ibídem., p. 88.
13 Ibídem., p. 90.
14 Ibídem., p. 94.
15 Ibídem., p. 107.
16 Ibídem., p. 113.
17 Ibídem., p. 119.
18 Ibídem., p. 146.
19 Ibídem., p. 148.
20 Ibídem., p. 168.
21 Ibídem., p. 176.
22 Ibídem., p. 186.
23 Ibídem., p. 192.
24 Ibídem., p. 193.
25 Ibídem., p. 227.
26 Ibídem., p. 250.
27 Ibídem., p. 257.
28 Ibídem., p. 286.
29 LAKATOS, Imre: La Metodología de los Programas de Investigación Científica.
Alianza Editorial. Edición 1989, p. 13.
30 Ibídem., p. 9.
31 Ibídem., p. 10.
32 Ibídem, p. 12.
33 Ibídem.
34 Ibídem.
35 Ibídem., p. 13.
36 Ibídem.
37 Ibídem., p. 14.
38 Ibídem., p. 17.
39 Ibídem., p. 18.
40 Ibídem., p. 21.
41 Ibídem.
42 Ibídem., p. 22.
43 Ibídem., p. 34.
44 Ibídem., p. 37.
45 Ibídem., p. 39.
46 Ibídem., p. 49.
47 Ibidem., p. 48.
48 Ibídem.
49 Ibídem., p. 65.
COMETIDO DE LOS VALORES ECONÓMICOS EN LAS TECNOLOGÍAS DE
LA INFORMACIÓN Y LA COMUNICACIÓN: REFLEXIONES SOBRE EL
CASO DE INTERNET

Paula Neira P. *

Actualmente se acepta que la Tecnología, en general, y las Tecnologías


de la Información y Comunicación (TICs), en particular, están cargadas
de valores (value-laden). Entre esos valores están los económicos, que
afectan tanto al plano interno de la Tecnología (aquellos valores propios
de este quehacer en sí mismo considerado) como al externo (los ámbitos
cultural, social, ecológico, político, etc.). En este sentido el presente
artículo busca analizar la contribución de los valores económicos en la
configuración de Internet,1 con especial atención a la World Wide Web.
Se apoya en Tecnologías de la Información y la Comunicación que han
hecho de Internet un producto masivo.
El análisis de Internet en cuanto Tecnología relacionada con valores se
inscribe en un entorno social globalizado, un mundo de intercambios
genuinamente internacional, y en donde la Economía —como Ciencia y
como actividad— tiene una importancia vital. Hay aquí una dualidad
inicial en Internet. Por un lado, es un producto tecnológico novedoso. Se
caracteriza por facilitar las comunicaciones entre individuos, grupos,
países. Mediante estas relaciones activas, Internet ha dinamizado y
estimula de manera intensa procesos microeconómicos y
macroeconómicos con indudables repercusiones sociales. Por otro lado,
ese marco económico con proyección social le afecta de lleno, de modo
que los procesos económicos han modificado e influyen en la
configuración de Internet como realidad social.
Se asume, por tanto, que entre Internet, como Tecnología, y el ámbito
de la Economía hay un nexo estrecho de relaciones recíprocas. Así,
cada avance en el producto tecnológico acontece debido al impacto

*
Universidad de Santiago de Compostela, España.
económico, que se constata en tres etapas sucesivas: en el diseño
tecnológico, en los procesos que desarrolla la Tecnología, y en el propio
resultado obtenido. De este modo, hay valores económicos que aparecen
al principio —diseño— hacia la mitad del quehacer tecnológico —los
procesos— y al final —en el producto de mercado—.
Porque la Tecnología, como se aprecia con nitidez en Internet, es
netamente teleológica: trabaja en función de fines deliberadamente
buscados, entre ellos los económicos. En efecto, la Tecnología es “el
intento de dirigir la actividad humana para el logro de un dominio
creativo y transformador de la realidad (natural o humana y social)
sobre la que verse. Es un quehacer que, para transformar la realidad,
cuenta con artefactos que han sido diseñados y elaborados al efecto,
pues la Tecnología no busca primariamente el conocer y describir una
realidad, sino que parte de una realidad descubierta —y, en gran parte,
ya conocida— sobre la que desea actuar”.2
La Tecnología, al ser una actividad humana transformadora de lo real
según objetivos libremente elegidos, se relaciona con valores. Esta tarea
requiere una racionalidad evaluativa, que ha de dictaminar acerca de lo
buscado. Por un lado, hay una serie de valores que están asumidos por
los tecnólogos (eficacia, eficiencia, rentabilidad, etc.), valores que son
los que permiten determinar la meta buscada, esto es, hacen inteligible
qué tipo de realidad se desea a través del uso de la Tecnología. Pero, por
otro lado, está el dictamen mismo por el que se evalúa el fin tecnológico
buscado por los tecnólogos, un dictamen se lleva a cabo mediante
valores (éticos, sociales, económicos, ecológicos, etc.). En esos valores
que emplea la racionalidad evaluativa hay una cierta jerarquía, esto es,
se da más importancia a unos valores que a otros a la hora de evaluar
los fines buscados.
Hay así una Axiología de la Tecnología. Constata que los objetivos,
procesos y resultados de la Tecnología están influidos por un conjunto
de valores.3 Son de muy diverso tipo: científicos, estrictamente
tecnológicos, económicos, ecológicos, culturales, políticos, sociales,
éticos.… Dentro del conjunto de los valores que influyen en la
Tecnología, los económicos tienen un papel especialmente destacado.4
Cuando se trata la incidencia de los valores económicos en la
Tecnología se han de abordar dos vertientes: a) el plano interno
(conocimiento y proceso) y, b) el impacto en la vertiente externa de la
Tecnología (como actividad social y como realidad condicionada por la
componente política).
En la vertiente interna y externa de la Tecnología caben distinguir
cuatro dimensiones de los valores económicos.5 Dos de ellos son
internos (epistemológico y metodológico) y otros dos son externos (social
y político). El primero de los factores internos es el epistemológico: los
valores económicos influyen en el conocimiento tecnológico que sustenta
la Tecnología. En el segundo, los criterios económicos intervienen en las
reglas metodológicas que fomentan el progreso tecnológico. En lo que
atañe al plano externo: por un lado están los factores económicos que
repercuten en la dimensión social —el tercer elemento en liza dentro del
conjunto total— y, por otro lado, se encuentra la faceta política —el
cuarto elemento que tiene relevancia económica—. A este respecto, la
actuación pública (policy) —e, incluso, la propiamente política
(politics)— tiene también un peso específico en la innovación
tecnológica, pues los poderes públicos y las corporaciones privadas
influyen en la Tecnología.6
Esta articulación externa-interna de los valores económicos en cuatro
vertientes distintas es más elaborada que la propuesta de Miguel Ángel
Quintanilla, pues —a su juicio— los valores económicos afectan
básicamente a la dimensión externa de la Tecnología. Más aún, piensa
que la utilización de la racionalidad económica oculta “las
peculiaridades de la racionalidad tecnológica”.7
Respecto a esta postura cabe dos apreciaciones: la primera es que
Quintanilla concibe a la racionalidad económica de una manera
netamente instrumental, de modo que atañe a los medios eficaces (o, en
su caso, eficientes) para conseguir fines ya dados. Pero, dentro de la
vertiente interna de la Tecnología, los valores económicos cumplen de
hecho un papel mucho más complejo: por un lado, es un factor que
incide en el conocimiento utilizado para realizar diseños (por ej., al
pensar en la rentabilidad de lo diseñado); y por otro lado, el componente
económico repercute en el modo de plantear las reglas metodológicas
(por ej., en la elección del menor número posible de medios). En cuanto
a los diseños, en la medida que han de sopesar los objetivos buscados,
la presencia de la vertiente evaluativa de la racionalidad es clara.
Otra apreciación relevante acerca del análisis de Quintanilla es que la
racionalidad tecnológica atiende a diversos tipos de valores, entre los
que se encuentran los valores económicos. Esto se aprecia bien en las
Tecnologías de la Información y la Comunicación, que ciertamente no se
rigen sólo por valores estrictamente tecnológicos, de búsqueda de pura
eficiencia en su funcionamiento. A mi juicio, ni la racionalidad
económica, en general, ni los valores económicos, en particular, ocultan
en modo alguno las peculiaridades de la racionalidad tecnológica. La
racionalidad económica incide en el diseño —en la determinación de los
objetivos preferibles entre aquellos que son posibles— y en el modo de
atender los procesos (economía de medios). Así, la racionalidad ha de
evaluar la relación entre el coste y el beneficio, la eficacia, la eficiencia,
estos valores económicos están relacionados con la rentabilidad, la
utilidad, la productividad, la prosperidad, etc.,8 que son criterios
tecnológicos habituales.

Valores económicos que influyen en el conocimiento tecnológico:


Incidencia en las TICs

Analizada desde una perspectiva de conjunto, la Tecnología tiene


respecto de la Economía una cuádruple relación:9 incide en las facetas
cognitiva, metodológica, social y pública (policy). En el caso de la
Tecnología de la Información y Comunicación, como se aprecia en
Internet, esto es particularmente destacado. Tanto Internet, en general,
como la Red, en particular, incluyen valores económicos en el plano
interno (para establecer los diseños o hacer más eficientes los procesos)
y en el plano externo (para ampliar la repercusión social y para sortear
las dificultades de los derechos de propiedad establecidos por los
poderes públicos).
Desde la vertiente interna de la Tecnología, Rescher señala que existen
dos clases diferentes de valores cognitivos: los genéricos y los
específicos (que denomina “valores de autopromoción”). Como valores
genéricos, entiende aquellos “que se emplean en la indagación racional:
verdad, precisión, cuidado debido, verificabilidad, economía racional”.10
En cuanto a los valores de auto-promoción son aquellos “que influyen
en los individuos y grupos: influencia, poder, prestigio, enriquecimiento
personal”.11
Dentro de la vertiente interna de la Tecnología hay en efecto valores
económicos que inciden en el conocimiento utilizado a la hora de hacer
diseños.12 Son criterios económicos del diseño tecnológico, tales como
rentabilidad, competitividad, productividad, cuota de mercado. Según
González, “se trata de elementos de índole económica que afectan a la
componente cognitiva de la Tecnología: tiene como base criterios de
racionalidad económica y la propia Ciencia de la Economía, y
contribuyen a determinar qué objetivos tecnológicos son preferibles,
dentro de aquellos que son alcanzables. Esto supone la existencia en la
Tecnología de una racionalidad evaluativa o de fines, que es afectada
por las valoraciones de tipo económico, de manera que la decisión
respecto del tipo de artefacto a diseñar cuenta con factores de carácter
económico”.13
Los valores económicos como rentabilidad o competitividad han estado
siempre presentes en el diseño de Internet y en su posterior evolución.
Son elementos de intermediación y se aprecia en el desarrollo de la
World Wide Web como alternativa a otras formas de comunicación. Esos
valores inciden en el diseño de los objetivos tecnológicos también en el
plano cognitivo. Dentro de una escala de valores, el rendimiento (la
rentabilidad) es quizá el valor más relevante en el diseño de Internet y
de la Red.
Esto es debido a que Internet fue una innovación para producir un
mayor rendimiento dentro de la Informática, ya que amplía las
posibilidades de conexión segura y rápida. Desde 1969 —momento en
que se empezó a funcionar ARPANET14— hasta la actualidad, uno de los
principales objetivos en la investigación y desarrollo de Internet ha sido
el obtener un mayor rendimiento de los sistemas informáticos. Más
tarde —en 1996— se crea “Internet2”.15 Es un consorcio donde
participan principalmente entidades de Estados Unidos: Universidades,
algunas grandes empresas y algunas instituciones gubernamentales.
Tiene como objetivo el obtener un mayor rendimiento de Internet
mediante la creación de una red telemática basada en conexiones más
eficaces. Esto no sólo supone una mayor capacidad y rapidez en la
transmisión de datos, sino también un aumento en la seguridad en esta
infraestructura tecnológica.
Junto a Internet —una infraestructura directamente vinculada a la
innovación tecnológica— está la Web, que pertenece al plano del
software y que fue un desarrollo elaborado con el fin de obtener un
mayor rendimiento de Internet. La Red es una aplicación informática
que tiene como objetivo solucionar problemas existentes en Internet, no
tanto la transformación de la misma. En este sentido, la Red conecta
con las Ciencias de lo Artificial, de modo que entre Internet, entendida
como infraestructura tecnológica, y la Web existen diferencias de fondo.
Atañen a los planos lógico, epistemológico, metodológico, ontológico y
axiológico.16
En su origen, la World Wide Web aparece dentro de un centro
tecnológico de apoyo a la investigación científica, como es el CERN de
Ginebra. Ahí Tim Berners-Lee percibió la necesidad de aumentar el
rendimiento de los sistemas informáticos, de manera que se tuviera un
acceso global a la información. Este investigador se propuso como
objetivo principal de diseño hacer más rentable el uso del ordenador,
para hacer más accesible la información. De facto, como advierte
Luciano Floridi, “Internet ha hecho posible que la administración del
conocimiento sea más rápida, tenga un alcance más amplio y más
completo, en cuanto a tipos de información, y sea más fácil de utilizar
que antes”.17
Conviene resaltar que la rentabilidad financiera no era un objetivo
fundamental en el diseño de Internet. Tampoco lo fue en el inicio de la
Red, en su configuración en el CERN. En efecto, Internet se origina en
ARPA (Advanced Research Projects Agency), una agencia del
Departamento de Defensa de los Estados Unidos que buscaba un
sistema de comunicaciones invulnerable a un ataque nuclear. Así, la
racionalidad tecnológica en el diseño de Internet atendió principalmente
a un valor de seguridad.
Tampoco la Web tenía al principio como objeto primero obtener de ella
un beneficio económico directo. Tras 20 años de desarrollo, la Red se
encuentra hoy en un contexto histórico muy diferente. En gran medida,
su finalidad es ser útil a la humanidad. Sin embargo, la Web ha
resultado ser un entramado informático —un software— rentable desde
el punto de vista financiero. De hecho, lo percibieron enseguida
numerosas empresas, que vieron en la World Wide Web un negocio.18
Berners-Lee admite que la finalidad inicial sufrió modificaciones. Pronto
se hizo evidente que “‘la Web podía dividirse en varias secciones:
algunas comerciales, algunas académicas; algunas gratuitas y algunas
no. Esto iría en contra de la finalidad primera de la Red: ser un medio
de hipertexto universal y accesible para compartir información”.19
La rentabilidad financiera de la Red no se debe tanto a factores internos
(el tipo de diseño o los procesos de elaboración) cuanto a su creciente
vertiente externa: su proyección social y pública. Ahí destaca sobre todo
su competitividad con respecto al resto de los medios de comunicación,
lo que propicia la introducción de elementos típicamente comerciales (la
publicidad de muy diversa índole). Según Berners-Lee, la ventaja de la
Red frente al resto de los medios consistía en que “la Web no era un
“cosa” física que existiese en determinado “lugar”. Era un “espacio” en
el que la información podía existir”.20 Un usuario de la Red puede
acceder a toda la información independientemente del lugar en donde
esté situado (requiere el equipo necesario, como cualquier otra
Tecnología) y del momento en que realice su consulta.
Pero hay un factor interno de tipo conceptual señalado por María
González Bonome: “la revolución conceptual introducida por la Web se
relaciona con la accesibilidad de la información, la capacidad de
recuperación de la información, el intercambio interactivo de
información, etc. A su vez, todas estas tareas se pueden ver desde el
ángulo de su contenido —el contenido conceptual propiamente dicho—
y desde la perspectiva de los usuarios que demandan nuevos avances
en los planos: accesibilidad, capacidad de recuperación, interactividad,
etc.. Este segundo punto de vista supone un conjunto de elementos
contextuales, tales como un componente social, un factor económico o
un ingrediente de cambio cultural”.21
Ni Internet ni la World Wide Web se diseñaron inicialmente para fines
domésticos. El cometido de la Red estaba orientado principalmente
hacia el mercado profesional y académico. Sin embargo, esta Tecnología
ha tenido un enorme éxito dentro de los hogares.22 Debido a su
contenido enormemente variado y polivalente, su uso general aumentó
de manera continua por parte de empresas, instituciones y hogares.23
Esto provocó que el rendimiento de la Web aumentara
exponencialmente, puesto que el valor de Internet depende tanto de la
cantidad de información a la que se puede acceder con este
instrumento tecnológico como de la cantidad de usuarios que
interconecta entre sí.

Valores económicos que inciden en las reglas metodológicas

Junto al ámbito cognitivo del diseño tecnológico están los valores


económicos que atañen al plano metodológico, la segunda vertiente
interna de la Tecnología.24 Los valores económicos influyen
decisivamente en el modo de desarrollar los métodos, debido a que el
diseño tecnológico está relacionado con la consecución de objetivos con
procedimientos que emplean el menor posible de pasos (esto es
economía de medios). Así, “el quehacer tecnológico no mira sólo a la
eficacia en el resultado —la obtención del objetivo buscado— sino que
atiende también a la eficiencia en el proceso para alcanzarlo. Los
criterios económicos influyen así en el procedimiento seguido para la
realización del artefacto en cuestión, de modo que los sistemas
tecnológicos descansan en una economía de medios para alcanzar las
metas propuestas. Esto supone la existencia de una racionalidad
instrumental en la Tecnología”.25
Toda confirmación metodológica de la Tecnología incorpora esta
“economía de medios” lo que se aprecia en las TICs. El desarrollo de
Internet se apoyó en la técnica de “conmutación de paquetes” con la
finalidad de establecer un sistema de comunicación segura. Mediante la
técnica de “conmutación de paquetes”, el sistema independizó “la red de
los centros de mando y control, de modo que las unidades del mensaje
encontraban su propia ruta a través de la red, reensamblándose con un
significado coherente en cualquiera de sus puntos”.26 Estas condiciones
tecnológicas crearon un sistema reticular de conexiones que permitía
alcanzar la eficiencia mediante una “economía de medios”.27
La centralización también suponía problemas para conseguir la
eficiencia dentro de la World Wide Web. Berners-Lee señala que “el
sistema (…) tenía que estar completamente descentralizado. Ése sería el
único modo en que una nueva persona pudiera empezar a usarlo en
cualquier parte sin tener que pedir acceso a otro. Y sería el único modo
para que el sistema pudiera adaptarse de modo que, aunque lo usara
cada vez más gente, no se atascase. Esto era auténtica Ingeniería al
estilo de Internet (…). Yo quería que el hecho de añadir un nuevo
vínculo fuese trivial; si lo era, entonces se podía extender regularmente
una Web de vínculos por todo el globo”.28
Desde el punto de vista metodológico, la evolución de Internet también
se apoyó en la búsqueda de la eficiencia en el procedimiento de conectar
dos o más ordenadores entre sí. Ese desarrollo requería que la
capacidad de interconexión aumentara exponencialmente, de manera
que su valor residiera en la capacidad de adquisición y transmisión de
información por parte de cualquier persona de una manera económica
—bajo coste— y rápida. La innovación en este campo se basó en la
optoelectrónica, junto con avanzadas arquitecturas de conmutación y
selección de rutas. Estos avances tecnológicos permitieron aumentar
progresivamente la velocidad y la cantidad de información transmitida a
través de Internet. De este modo, incrementaron de facto la eficiencia
del proceso.
Otro de los pilares en los que se fundamentó el desarrollo metodológico
de Internet fueron los cambios en el modus operandi de los ordenadores
(el hardware que permite acceder a la Red). Concebidos desde unas
reglas claras, la innovación en los ordenadores se basó en tres
problemas de diseño fundamentales: a) la cantidad de información
gestionada, b) la rapidez en la gestión de la información, y c) el tamaño
de los ordenadores. Estas tres prioridades están vinculadas a la
necesidad de generar diseños y procesos que atiendan a una “economía
de medios”.
El modo de elaboración de ordenadores buscó accesibilidad y
versatilidad. Tanto los equipos mismos como los programas utilizados
se orientaron hacia la economía de medios. Appel fue la primera
empresa que lanzó al mercado el ordenador de mesa y pronto le seguiría
IBM.29 Fue la arquitectura abierta de los ordenadores IBM (es decir, que
eran susceptibles de ser modificados total o parcialmente), y la
clonación del software30 por empresas —la mayor parte de ellas,
asiáticas— lo que permitió la difusión a gran escala del uso del
ordenador de mesa (desktop).
Para el desarrollo de Internet como infraestructura tecnológica y para la
ampliación de la World Wide Web fue necesario el impulso a la
interconectividad. Esto supuso crear el software que permitiera el
acceso simultáneo a la información entre diversos ordenadores. En la
elaboración de estos programas tuvieron un papel fundamental los
estudiantes de Informática de Tercer Ciclo, que diseñaron de manera
altruista un gran número de navegadores.31 El proceso de creación de
los programas debería haberse desarrollado elaborando navegadores
que permitieran acceder a la información y software que permitiera
incluir contenidos de manera sencilla. Sin embargo, esto no sucedió así,
ya que se crearon una gran cantidad de navegadores pero no de
editores de páginas web, lo que suponía una descompensación del
sistema y, por lo tanto, una paralización en su desarrollo.

Criterios económicos que repercuten en la dimensión social

En todas las Tecnologías —lo que incluye obviamente a las TICs— los
valores económicos no sólo influyen en el plano interno de la Tecnología
sino que también intervienen en el entorno externo.32 La vertiente
externa de la Tecnología puede dividirse, a la vez, en dos dimensiones
distintas: la faceta social y la componente política. Dentro de la
orientación externa de la Tecnología, como señala González,33 los
valores económicos de la dimensión social se dan “en cuanto que es un
operar humano inserto dentro de un conjunto de actividades humanas.
Es, en efecto, una acción social en un contexto histórico. Por un lado,
está dotada de una específica intencionalidad —en principio, al servicio
de la Sociedad— que está orientada a la modificación creativa de la
realidad, según el diseño previsto, de modo que tiene un peso económico
en cuanto tal y se interrelaciona con otros procesos económicos dentro
de la vida social (que le afectan de manera directa: el precio en el
mercado de un artefacto repercute en la innovación tecnológica). Por
otro lado, como quehacer humano que se entrecruza con otras
actividades humanas, la Tecnología se ve surcada por la historicidad”.34
Como Tecnología de la Información y Comunicación, Internet surge de
acciones sociales y sus consecuencias son también sociales. Asimismo
la Web como elemento de una Ciencia Aplicada de Diseño35 —Computer
Sciences— tiene un entorno social de origen. Tanto Internet como la Red
surgen dentro de un contexto histórico cambiante. Internet surge en el
año 1969, en plena Guerra Fría, vinculada al Departamento de Defensa
de los Estados Unidos de América;36 mientras que la Web se desarrolla
en los años 90, en plena Perestroika y tras la caída del Muro de Berlín,
dentro de una institución europea dedicada a la investigación nuclear,
el CERN.37
Berners-Lee afirma que “la Web es una creación más social que técnica.
Yo la diseñé por su efecto social —para ayudar a que la gente trabajase
junta— y no como un juguete técnico (…). Tenemos que asegurar que la
Sociedad que construimos con la Web es la que pretendemos construir.
Cuando la Tecnología evoluciona rápidamente, la Sociedad puede
descubrir que se está quedando atrás, tratando de ponerse al día en
temas éticos, legales y sociales. Esto ha sido el caso sin duda con la
Word Wide Web”.38
Debido a su complejidad tecnológica, existe un coste social que produce
un impacto económico como consecuencia. Así, Internet al facilitar las
comunicaciones han dinamizado los procesos económicos y sociales.
Pero a la vez, los procesos económicos y sociales modifican e influyen en
la configuración de Internet. Manuel Castells señala que “el cambio
tecnológico tan sólo puede ser comprendido en el contexto de la
estructura social dentro de la cual ocurre”,39 de manera que su uso
“está determinado por el proceso de reestructuración socioeconómica
del capitalismo”.40 El progreso de Internet depende del desarrollo social
y económico de la Sociedad en la que se introduzca, pues es una
innovación tecnológica que requiere un entorno socioeconómico
adecuado. La Tecnología de Internet precisa unas ciertas
infraestructuras: terminales (ordenadores), líneas telefónicas… y éstas a
su vez requieren unas ciertas condiciones económicas: condiciones
socio-económicas de la población, precio de los ordenadores en una
determinada área, precio de las llamadas telefónicas.
A tenor de estos factores, la implantación de la Tecnología de Internet se
ha desarrollado de una manera desigual a lo largo y ancho del orbe.
Países como Estados Unidos, Canadá, el norte de Europa, Japón,
Corea, Nueva Zelanda y Australia gozan de una amplia implantación y
uso de Internet por parte de la mayor parte de su población.41 En
cambio, en los países del Tercer Mundo sólo disfrutan de este servicio
una escasísima minoría adinerada que tiene acceso a las
comunicaciones vía satélite. Entre ambos extremos, la implantación de
Internet en el resto de los países depende de su nivel económico. Para
evaluar el porcentaje de uso de la Red “se ha implantado como medida
el Índice de Acceso Digital (IAD). Este indicador se basa en cinco
factores: infraestructuras, asequibilidad, conocimiento, calidad y
utilización real, y permite clasificar a los países, en una escala de 0 al
1”.42
Hay así un condicionante económico en la vertiente social. En este
sentido, Manuel Castells señala que “el acceso a la comunicación
mediante ordenador es restrictivo cultural, educacional y
económicamente”.43 Este factor económico es muy visible, pues “las
diferencias son considerables, no sólo entre los países industrializados y
los menos desarrollados, sino en el seno de aquellos, entre distintos
grupos sociales. Además de la distinción geográfica, el acceso efectivo
diferencial a las Tecnologías de la Información y las Comunicaciones se
encuentra condicionado por barreras de naturaleza material, financiera,
cognitiva y política”.44
La noción de “brecha digital” se refiere a esta desigualdad que no sólo
está vinculada a los aspectos tecnológicos propiamente dichos —los
equipos mismos— sino también a componentes socioeconómicos y
culturales.45 El papel de Internet para reducir o aumentar estas
desigualdades ha suscitado una fuerte controversia entre aquellos que
consideran que puede ser una oportunidad para disminuir estas
diferencias sociales;46 y aquellos que, por el contrario, consideran que
mantendrá o incluso aumentará estas desigualdades.47

Valores económicos que influyen en la política tecnológica


relacionada con Internet

También las TICs se ven surcadas por los factores externos relacionados
con la actuación pública. En efecto, en la vertiente externa de la
Tecnología, además del plano social, se encuentra la vertiente política.
La faceta política tecnológica es complementaria la dimensión social,
“en cuanto que es externa, pero presenta rasgos propios: asume que la
Tecnología incorpora una dependencia respecto de prioridades
extrínsecas al proceso productivo mismo. No mira entonces al operar
tecnológico como acción social, entrecruzada con otras actividades
humanas, y encaminada a transformar creativamente la realidad, sino
que ve los valores económicos en cuanto imbricados en la política
tecnológica escogida. Hay entonces una dimensión prescriptiva: la
componente económica de la Tecnología se subordina así de manera
activa a unos fines así considerados como prioritarios por las
Instituciones (públicas o privadas), de acuerdo con una política
tecnológica”.48
La política tecnológica está claramente influida por criterios
económicos.49 Las inversiones en Tecnología por parte de los Estados o
de los organismos privados condicionan su desarrollo o lo frenan; en
algunos casos los macroordenadores, las infraestructuras y los
materiales resultan tan caros que es muy difícil que un particular
afronte dichos gastos, o son literalmente inviables para la mayoría de
las entidades sociales. Hoy en día, mediante la financiación I+D+i se
busca conseguir una Política tecnológica que facilite a los investigadores
y tecnólogos desarrollar su actividad al sufragar sueldos,
infraestructuras y materiales, con el fin de potenciar el desarrollo
tecnológico.
Junto a los países, los acuerdos internacionales hacen posible las
infraestructuras tecnológicas. Los Estados y las comunidades cumplen
un rol fundamental a la hora de regular el proceso tecnológico: de ellos
depende la existencia, características y límites de ciertos proyectos
tecnológicos, en especial aquellos vinculados a las TICs. Según
Fernando Broncano, el Estado puede jugar un doble papel en el proceso
de desarrollo de las Tecnologías: por un lado “puede entrar en el
proceso como una parte, como financiadora de innovación, es decir,
como empresario que toma una decisión que afecta a su ámbito de
competencia, pero también puede entrar como un nuevo marco
constituyente del proceso de acuerdo y desarrollo tecnológico”.50
Durante los años sesenta, la innovación tecnológica se fue imponiendo
como criterio que, en una primera etapa, “pretende ser un elemento
clave para capear la llamada crisis del petróleo de principios de la
década, para seguir luego como un elemento de actuación que se
impone y sigue hacia los ochenta”.51 En la década de los noventa, las
políticas de apoyo a la Ciencia y a la Tecnología estaban impuestas en
la totalidad de los países desarrollados —y también en la mayoría de los
países en vías de desarrollo— con el fin de aumentar la competitividad
industrial mediante el uso de Tecnologías fundamentadas en la Ciencia.
Que hay una componente política en Internet se aprecia desde 1968.52
La Advance Research Projects Agency (ARPA), una agencia vinculada al
Departamento de Defensa de los Estados Unidos fue la impulsora del
proyecto inicial. Desde entonces se han desarrollado políticas
tecnológicas encaminadas al progreso de la Tecnología de Internet,
debido sobre todo a su utilización gubernamental y su proyección para
la innovación industrial. En el caso de la Word Wide Web ha habido tres
tipos de instituciones interesadas en este esfuerzo público: los Estados,
las empresas y las instituciones sin ánimo de lucro. Esto se aprecia en
casos como “Internet2”,53 “Internet Society”,54 o el “w3 Consorcio”.55
Las empresas también tuvieron un papel importante en la configuración
de Internet. Algunos inversores se arriesgaron a invertir en empresas de
alta Tecnología de la Información y Comunicación instaladas en Silicon
Valley cuya apariencia no tenía mucho sentido comercial. Por otra
parte, las inversiones de particulares de alto riesgo,56 que apostaban
por la creación de nuevas empresas con alta Tecnología, fueron las
encargadas de hacer despegar este sector; y no las corporaciones
consolidadas que no supieron ver la potencialidad de este mercado.
En el ámbito ajeno al ánimo de lucro —“Internet2”, “Internet Society”, o
el “w3 Consorcio”— hay una variedad de situaciones. Las
características de cada una de estas iniciativas es distinta. Así, en
“Internet2” participan principalmente Universidades;57 en “Internet
Society” lo hacen empresas; y en el “w3 Consorcio” están asociadas de
manera mixta tanto Universidades, empresas e instituciones
gubernamentales. El objetivo común de estas tres instituciones es
incrementar las potencialidades de Internet mediante la colaboración.
Así, a través de la convergencia de recursos financieros, técnicos y
humanos se cubren las necesidades que precisa este tipo de
investigaciones. Es una confluencia justificada, pues las metas serían
mucho más difíciles de alcanzar para cada una de estas instituciones
de manera aislada.

Consideraciones finales

Parece claro, que los valores económicos influyen en la configuración y


en la dinámica de cada uno de los aspectos de Internet y de la World
Wide Web. Inciden tanto en el plano interno como en la vertiente
externa. En cuanto a los primeros, los valores económicos son
relevantes para la elaboración del diseño de la Tecnología de Internet y
acompañan a una racionalidad evaluativa que permite la selección de
unos determinados objetivos en las Tecnologías de la Información y
Comunicación, en lugar de otros.
La racionalidad instrumental no permite determinar qué valores son los
propios del diseño tecnológico, pues la racionalidad instrumental se
mueve en el campo que atiende los medios con los fines: elige los
medios adecuados para los fines ya seleccionados. En este sentido, los
valores económicos pueden ser un límite tecnológico, desde el punto de
vista cognitivo, ya que en ciertas ocasiones lleva a descartar objetivos
tecnológicos posibles. A su vez, los valores económicos pueden ser
también un límite desde la perspectiva metodológica: descarta reglas
por no ser eficaces o bien eficientes.
Al analizar la Tecnología de Internet, como soporte de la Red, cabe
señalar que, dentro del plano cognitivo, los valores económicos no
parece que hayan sido un límite a su diseño. Los diseñadores de la Web
pudieron incluir valores económicos al hacer su diseño tecnológico
pensando las virtualidades del futuro. Si bien —como se ha reconocido
en el 20 aniversario de la Red— no se llegaba a sospechar que la World
Wide Web fuese a llegar tan lejos en tan poco tiempo.
En el plano metodológico, los valores económicos sí que fueron un claro
condicionante a la hora de desarrollar el proceso tecnológico. En efecto,
los valores económicos ralentizaron el progreso de dicha Tecnología,
debido a la necesidad de contar con infraestructuras baratas y recursos
para contratar al personal cualificado para desarrollar el hardware
necesario como soporte de la Red.
Respecto de la incidencia de los valores económicos en el ámbito
externo de Internet y la Web, varía en cada uno de los dos planos
mencionados: el social y el político. En la dimensión social, los valores
económicos son una fuerte limitación para la implantación de Internet
en numerosos países, puesto que carecen de infraestructuras
adecuadas (empezando por la propia red eléctrica). En cuanto a la
vertiente de actividad pública sucede que, tanto las instituciones
políticas —en sus diversos niveles: internacional, nacional, 58— como
las empresas han sido relevantes para el impulso de Internet.
Apreciaron que, por diversos factores asociados a esta Tecnología
(imagen pública, credibilidad), podía ser un negocio rentable, no sólo en
términos monetarios o financieros.
A tenor de estas consideraciones sociales y políticas a cerca de las TICs,
los valores económicos son —a mi juicio— un condicionante fuerte —o
incluso un límite terminal— para la implantación de Internet en
aquellos países de precaria situación socio-económica. Por el contrario,
en los países que gozan de una economía desarrollada, Internet ha sido
y es una Tecnología potenciada por esos factores sociales y políticos.
Más aún, para procesos públicos (la relación con la Administración
Central o Autonómica) es a veces una conditio sine qua non: determina
la viabilidad de un proceso, pues supone el valor económico para el
agente afectado.
Se ha de tener en cuenta una faceta relevante, que señala W. J.
González: “aun cuando los valores económicos internos y externos
contribuyen a configurar la Tecnología, también los desarrollos
tecnológicos sirven para modificar los valores económicos aceptados.
Pero, tanto en un caso como en el otro, los valores económicos son sólo
una parte del todo: hay también valores culturales, éticos, sociales,
ecológicos, etc., que influyen en la Tecnología. Esa dimensión
pragmática de la Tecnología, de base antropológica, resulta muy
conveniente, tanto en la Tecnología basada en las aportaciones de las
Ciencias de la Naturaleza como cuando se trata de un tipo de
Tecnología Social. Insistir sólo en la dimensión económica del proceso
tecnológico sería empequeñecer este quehacer humano, creativo y
operativo, pues los valores económicos sólo reflejan un segmento del
conjunto total de valores que pueden intervenir en el diseño y la
realización de la Tecnología”.59

Citas y Notas
_____________________________

1 Para analizar Internet como Tecnología hay que partir de algo clave: Luciano Floridi
señala que “con la palabra Internet nos referimos al sistema de comunicación digital,
que emerge de la aglomeración de cientos de redes (networks) que interactúan a través
de un número de protocolos comunes alrededor del mundo”, en FLORIDI, L.: “Internet:
Which Future for Organized Knowledge, Frankenstein or Pygmalion?”, International
Journal of Human-Computer Studies, v. 43, (1995), p. 263.
2 GONZALEZ, W. J.: “Progreso científico e innovación tecnológica: La “Tecnociencia” y el

problema de las relaciones entre Filosofía de la Ciencia y Filosofía de la Tecnología”,


Arbor, v. 157, (1997), p. 266. Sobre este tema véase GONZÁLEZ, W. J.: “The
Philosophical Approach to Science, Technology and Society”, en GONZÁLEZ, W. J. (ed.):
Science, Technology and Society: A Philosophical Perspective, Netbiblo, A Coruña, 2005,
pp. 3-49, en especial, pp. 11-13.
3 Cfr. ECHEVERRÍA, J.: “Axiología de la tecnociencia”, en ECHEVERRÍA, J.: La revolución

tecnocientífica, Fondo de Cultura Económica, Madrid, 2003, pp. 229-272. No se


analiza aquí la adecuación del término “Tecnociencia”. A los presentes efectos, lo
expuesto en el capítulo 5 sirve para las Tecnologías de la Información y Comunicación.
4 Cfr. GONZÁLEZ, W. F.: “Valores económicos en la configuración de la Tecnología”,

Argumentos de Razón técnica, v. 2, (1999), p. 70.


5 GONZÁLEZ W. J.: explica —apoyándose Nicholas Rescher— que también existe una

presencia de la racionalidad económica en la Ciencia que conecta con las siguientes


facetas: a) una Economía cognitiva, b) una Economía metodológica, c) una Economía
en el quehacer de la acción social y d) una Economía como pauta para los usos y
aplicaciones; Cfr. GONZÁLEZ, W. J.: “Racionalidad y Economía: de la racionalidad de la
Economía como Ciencia a la racionalidad de los Agentes económicos”, en GONZÁLEZ, W.
J. (ed.): Racionalidad, historicidad y predicción en Herbert A. Simon, Netbiblo, A
Coruña, 2003, p. 74.
6 Cfr. GONZÁLEZ, W. F.: “Valores económicos en la configuración de la Tecnología”, p.

73.
7 QUINTANILLA, M. A.: Tecnología: un enfoque filosófico, Fundesco, Madrid, 1989, p. 101.
8 Cfr. GONZÁLEZ, W. J.: “Economic Values in the Configuration of Science”, en AGAZZI,

E., ECHEVERRÍA, J. y GÓMEZ, A. (eds.): Epistemology and the Social, Poznan Studies in
the Philosophy of the Sciences and the Humanities, Rodopi, Amsterdam, 2008, p. 88.
9 Cfr. GONZÁLEZ, W. F.: “Valores económicos en la configuración de la Tecnología”, p.

73.
10 RESCHER, N.: Razón y valores en la Era científico-tecnológica, Paidós, Barcelona,
1999, p. 76.
11 Ibídem.
12 Cfr. GONZÁLEZ, W. J.: “Racionalidad científica y racionalidad tecnológica: La

mediación de la racionalidad económica”, pp. 103-104.


13 GONZÁLEZ, W. J.: “Valores económicos en la configuración de la Tecnología”, p. 74.
14 “Los orígenes de Internet hay que situarlos en ARPANET, una red de ordenadores

establecida por ARPA en septiembre de 1969 (…) Los primeros nodos de la red se
encontraban en la Universidad de California en los Ángeles, el SRI (Standford
Research Institute), La Universidad de California en Santa Bárbara y la Universidad de
Utah", CASTELLS, M.: The Internet Galaxy: Reflections on the Internet, Business, and
Society, Oxford University Press, New York, 2001, Vers. cast. de R. Quintana, revisada
por el autor: La Galaxia Internet: reflexiones sobre Internet, empresa y sociedad, Areté,
Madrid, 2001, pp. 23-24.
15 Cfr. INTERNET2, en “http://www.internet2.edu/” (acceso el 4/08/2009).
16 Sobre este tema véase GONZÁLEZ, W. J.: “The Philosophical Approach to Science,

Technology and Society”, pp. 8-13.


17 FLORIDI, L.: “Internet: Which Future for Organized Knowledge, Frankenstein or

Pygmalion?”, p. 267.
18 Mientras que el desarrollo de la World Wide Web tuvo efectivamente un rápido apoyo

por parte del sector empresarial; no fue así con Internet. Manuel Castells señala que
“no se originó en el mundo empresarial. Era una Tecnología demasiado osada, un
proyecto demasiado caro y una iniciativa demasiado arriesgada como para ser
asumida por la empresa privada (…) La ilustración más clara de esta afirmación la
ofrece el hecho de que en 1972, Larry Roberts, director de la IPTO, tratase de
privatizar ARPANET, cuando esta ya era operativa (…) Después de considerar la
propuesta de Bell Labs, (ATT) rehusó la propuesta”, en CASTELLS, M.: La Galaxia
Internet: reflexiones sobre Internet, empresa y sociedad, pp. 36-37.
19 BERNERS-LEE, T.: Weaving the Web: The Past, Present and Future of the World Wide

Web by its Inventor, HarperCollins Publisher, New York, 1999. Ver. cast de M. Rubio
Fernández: Tejiendo la Red. El inventor del World Wide Web nos descubre su origen,
Siglo XXI Editores, Madrid, 2000, p. 71.
20 BERNERS-LEE, T.: Op. Cit., p. 34.
21 GONZÁLEZ BONOME, M.: “Revoluciones conceptuales en Ciencias de la
Documentación: El caso de la Web”, Comunicación presentada en las Jornadas sobre
revoluciones conceptuales: De las Ciencias Cognitivas a la Medicina, Universidad de A
Coruña, Campus de Ferrol, marzo de 2009, p. 4. El texto se inscribe dentro del
Proyecto de Investigación FFI2008-05948, dedicado a “las Ciencias de Diseño en
cuanto a Ciencias de la Complejidad”.
22 Cfr. BERNERS-LEE, T.: Tejiendo la Red. El inventor del World Wide Web nos descubre

su origen, p. 76.
23 Cfr. FUNDACIÓN TELEFÓNICA, La Sociedad de la Información en España 2008 siE[08,

en http://info.telefonica.es/sociedaddelainformacion/html/informes_home.shtml,
(acceso 28/07/2009).
24 GONZÁLEZ, W. J.: “Racionalidad científica y racionalidad tecnológica: La mediación de

la racionalidad económica”, p. 104.


25 GONZÁLEZ, W. J.: “Valores económicos en la configuración de la Tecnología”, p. 74.
26 CASTELLS, M.: The Information Age: Economy, Society and Culture. Volume I: The Rise

of the Network Society, Blackwell, Cambridge, 1996. Vers. cast. de C. Martínez Gimeno
y J. Alborés: La era de la Información. La Sociedad en red, Alianza Editorial, Madrid,
2005, 3ª ed., p. 74.
27 Otra red que en Francia se llegó a popularizar alrededor de los años 80 fue Minitel.

Este sistema de video-texto, al contrario que Internet, se caracterizó por tener una
estructura muy jerárquica, lo que se podía provocar bloqueo del sistema cuando
accedían muchos usuarios.
28 BERNERS-LEE, T.: Tejiendo la Red. El inventor del World Wide Web nos descubre su

origen, p. 15.
29 Cfr. CASTELLS, M.: La era de la Información. La Sociedad en red, p. 74.
30 Como ya se ha citado previamente, el software conecta con el ámbito de las Ciencias
de lo Artificial.
31 Estos jóvenes también tuvieron un papel activo en el desarrollo de ARPANET.

CASTELLS, M.: La Galaxia Internet: reflexiones sobre Internet, empresa y sociedad, p. 39.
32 Ibídem., p. 17.
33 GONZÁLEZ, W. J.: “Racionalidad científica y racionalidad tecnológica: La mediación de

la racionalidad económica”, p. 104.


34 GONZÁLEZ, W. J.: “Valores económicos en la configuración de la Tecnología”, pp. 74-

75.
35 Sobre la caracterización de las Ciencias Aplicadas de Diseño y, en concreto, de la

Inteligencia Artificial, cfr. GONZALEZ, W. J.: “Configuración de las Ciencias de Diseño


como Ciencias de lo Artificial: Papel de la Inteligencia Artificial y de la racionalidad
limitada”, en GONZALEZ, W. J. (ed): Las Ciencias de Diseño: Racionalidad limitada,
predicción y prescripción, Netbiblo, A Coruña, 2007, pp. 41-69.
36 Cfr. DARPA. En http://www.darpa.mil/, (acceso el 5/08/2009).
37 Cfr. CERN. En http://public.web.cern.ch/public/Welcome.html, (acceso el
5/8/2009).
38 BERNERS-LEE, T.: Tejiendo la Red. El inventor del World Wide Web nos descubre su

origen, p. 115.
39 CASTELLS, M.: The Informational City. Information Technology, Economic Restructuring,

and the Urban-Regional Process, Basil Blackwell, New York, 1989. Vers. cast. de R.
Quintana Muñoz, La ciudad informacional. Tecnologías de la información,
reestructuración económica y el proceso urbano-regional, Alianza Ed., Madrid, 1995, p.
29.
40 CASTELLS, M.: Op Cit., p. 484.
41 Cfr. FUNDACIÓN TELEFÓNICA, La Sociedad de la Información en España 2008 siE[08,

en http://info.telefonica.es/sociedaddelainformacion/html/informes_home.shtml,
(acceso 28/07/2009).
42 MORENO GARCERÁN, A.: “En la era de la interdependencia: Salvar la brecha digital”,

Nueva revista de Política, Cultura y Arte, n. 92, (2004), p. 140.


43 CASTELLS, M.: La era de la Información. La Sociedad en red, p. 438.
44 ONTIVEROS, E.: La Economía en la Red. Nueva Economía, nuevas finanzas, Taurus,

Madrid, 2001, p. 168.


45 Cfr. MORENO GARCERÁN, A.: “En la era de la interdependencia: Salvar la brecha

digital”, p. 133. También en CASTELLS, M.: La Galaxia Internet: reflexiones sobre


Internet, empresa y sociedad, p. 276.
46 Cfr. ANDERSON, R. H., BIKSON T. K., LAW, S. A. y MITCHELL, B. M.: Universal Access to

E-mail. Feasability and Societal Implications, Rand Corporation, Santa Mónica, 1995.
47 Cfr. DIMAGGIO, P., HARGITTAI, E., NEUMAN, W. R. y ROBINSON, J. P.:“Social implications

of the Internet”, Annual Review of Sociology, v. 27, (2001), p. 310.


48 GONZÁLEZ, W. J.: “Valores económicos en la configuración de la Tecnología”, pp. 75-

76.
49 Cfr. GONZÁLEZ, W. J.: “Racionalidad científica y racionalidad tecnológica: La

mediación de la racionalidad económica”, p. 105.


50 BRONCANO, F.: Mundos artificiales. Filosofía del cambio tecnológico, Paidós, México D.

F., 2000, p. 253.


51 BELLAVISTA, I. J.: “Políticas para la Ciencia, la Tecnología y la innovación: Reflexiones

de actualidad para el cambio del milenio”, en MEDINA, M. y KWIATKOWSKA, T. (eds.),


Ciencia, tecnología/naturaleza, cultura en el siglo XXI, Anthropos, Barcelona, 2000, p.
113.
52 Momento en el que ARPA contrata a BBN Technologies —compuesta originalmente

por Bolt, Beranek and Newman— para desarrollar la red.


53 Cfr. INTERNET2, en http://www.internet2.edu/›, (acceso el 4/08/2009).
54 Cfr. ISOC. En http://www.isoc.org/isoc/›, (acceso el 5/08/2009).
55 “La misión del W3C es: Guiar la Web hacia su máximo potencial a través del

desarrollo de protocolos y pautas que aseguren el crecimiento futuro de la Web”, en


W3 CONSORCIO, en http://www.w3c.es/Consorcio›, (acceso el 28/07/2009).
56 CASTELLS, M.: La Galaxia Internet: reflexiones sobre Internet, empresa y sociedad, p.

74 y también en la p. 95.
57 En “Interne2” también está asociadas empresas e instituciones gubernamentales,
pero en mucha menor medida.
58 Cabe señalar que han existido, y se dan actualmente, intentos para limitar o

controlar la Web, desde el ámbito gubernamental. Uno de esos primeros proyectos fue
el Acta de Decencia de la Comunicación “Communications Decency Act” en Estados
Unidos —1996—, que debido a motivos morales tenía como objetivo censurar ciertos
contenidos —en 1997, fue considerada anticonstitucional—. Cfr. BERNERS-LEE, T.:
Tejiendo la Red. El inventor del World Wide Web nos descubre su origen, p. 75. Hoy en
día, China ejerce un control claro y expreso de la Red de una manera pública y
notoria. Además, existen distintas iniciativas —Francia, España, Reino Unido— que
pretenden evitar el que se comparta archivos a través de la Red, con la principal
finalidad de salvaguardar los derechos de propiedad de intelectual, pero tras este
motivo se enmascara la meta de obtener un mayor control de la Red por parte de los
gobiernos.
59 GONZÁLEZ, W. J.: “Valores económicos en la configuración de la Tecnología”, p. 96.

Bibliografía
___________
ANDERSON, R. H., BIKSON T. K., LAW, S. A. y MITCHELL, B. M.: Universal Access to E-mail.
Feasability and Societal Implications, Rand Corporation, Santa Mónica, 1995.
BELLAVISTA, I. J.: “Políticas para la Ciencia, la Tecnología y la innovación: Reflexiones
de actualidad para el cambio del milenio”, en MEDINA, M. y KWIATKOWSKA, T. (eds.):
Ciencia, tecnología/naturaleza, cultura en el siglo XXI, Anthropos, Barcelona, 2000.
BERNERS-LEE, T.: Weaving the Web: The Past, Present and Future of the World Wide
Web by its Inventor, HarperCollins Publisher, New York, 1999. Ver. cast de M. Rubio
Fernández: Tejiendo la Red. El inventor del World Wide Web nos descubre su origen,
Siglo XXI Editores, Madrid, 2000.
BRONCANO, F.: Mundos artificiales. Filosofía del cambio tecnológico, Paidós, México D.
F., 2000.
CASTELLS, M.: The Informational City. Information Technology, Economic Restructuring,
and the Urban-Regional Process, Basil Blackwell, New York, 1989. Vers. cast. de R.
Quintana Muñoz: La ciudad informacional. Tecnologías de la información,
reestructuración económica y el proceso urbano-regional, Alianza Ed., Madrid, 1995.
CASTELLS, M.: The Information Age: Economy, Society and Culture. Volume I: The Rise of
the Network Society, Blackwell, Cambridge, 1996. Vers. cast. de C. Martínez Gimeno y
J. Alborés: La era de la Información. La Sociedad en red, Alianza Editorial, Madrid,
2005, 3ª ed.
CASTELLS, M.: The Internet Galaxy: Reflections on the Internet, Business, and Society,
Oxford University Press, New York, 2001. Vers. cast. de R. Quintana y revisada por
autor: La Galaxia Internet: Reflexiones sobre Internet, empresa y sociedad, Areté,
Madrid, 2001.
DIMAGGIO, P., HARGITTAI, E., NEUMAN, W. R. y ROBINSON, J. P.: “Social implications of the
Internet”, Annual Review of Sociology, v. 27, (2001).
ECHEVERRÍA, J.: La revolución tecnocientífica, Fondo de Cultura Económica, Madrid,
2003.
FLORIDI, L.: “Internet: Which Future for Organized Knowledge, Frankenstein or
Pygmalion?”, International Journal of Human-Computer Studies, v. 43, (1995).
FLORIDI, L.: The Philosophy and Computing. An Introduction, Routledge, Londres, 1999.
FLORIDI, L. (ed.): The Blackwell guide to the philosophy of computing and information,
Blackwell Publishing, Oxford, 2004.
GONZÁLEZ, W. J.: “Progreso científico e innovación tecnológica: La ‘Tecnociencia’ y el
problema de las relaciones entre Filosofía de la Ciencia y Filosofía de la Tecnología”,
Arbor, v. 157, (1997).
GONZÁLEZ, W. J.: “Racionalidad científica y racionalidad tecnológica: La mediación de
la racionalidad económica”, Agora, v. 17, n. 2, (1998).
GONZÁLEZ, W. F.: “Valores económicos en la configuración de la Tecnología”,
Argumentos de Razón técnica, v. 2, (1999).
GONZÁLEZ, W. J.: “Racionalidad y Economía: de la racionalidad de la Economía como
Ciencia a la racionalidad de los agentes económicos”, en W. J. GONZÁLEZ (ed.),
Racionalidad, historicidad y predicción en Herbert A. Simon, Netbiblo, A Coruña, 2003.
GONZÁLEZ, W. J.: “The Philosophical Approach to Science, Technology and Society”, en
GONZÁLEZ, W. J. (ed): Science, Technology and Society: A Philosophical Perspective,
Netbiblo, A Coruña, 2005.
GONZÁLEZ, W. J.: “Análisis de las Ciencias del Diseño desde la racionalidad limitada, la
predicción y la prescripción”, en GONZÁLEZ, W. J. (ed.): Las Ciencias de Diseño.
Racionalidad limitada, predicción y prescripción, Netbiblo, A Coruña, 2007.
GONZÁLEZ, W. J.: “Configuración de las Ciencias de Diseño como Ciencias de lo
Artificial: Papel de la Inteligencia Artificial y de la racionalidad limitada”, en GONZÁLEZ,
W. J. (ed): Las Ciencias de Diseño: Racionalidad limitada, predicción y prescripción,
Netbiblo, A Coruña, 2007.
GONZÁLEZ, W. J.: “Economic Values in the Configuration of Science”, in AGAZZI, E.,
ECHEVERRÍA, J. y GÓMEZ, A. (eds.): Epistemology and the Social, Poznan Studies in the
Philosophy of the Sciences and the Humanities, Rodopi, Amsterdam, 2008.
GONZÁLEZ BONOME, M.: “Revoluciones conceptuales en Ciencias de la Documentación:
El caso de la Web”, Comunicación presentada en las Jornadas sobre revoluciones
conceptuales: De las Ciencias Cognitivas a la Medicina, Universidad de A Coruña,
Campus de Ferrol, marzo de 2009.
MORENO GARCERÁN, A.: “En la era de la interdependencia: Salvar la brecha digital”,
Nueva Revista de Política, Cultura y Arte, n. 92, (2004).
NEIRA, P.: “La racionalidad tecnológica y los problemas de predicción de H. A. Simon”,
en GONZÁLEZ, W. J. (ed.): Las Ciencias de Diseño. Racionalidad limitada, predicción y
prescripción, Netbiblo, A Coruña, 2007.
ONTIVEROS, E.: La Economía en la Red. Nueva Economía, nuevas finanzas, Taurus,
Madrid, 2001.
QUINTANILLA, M. A.: Tecnología: un enfoque filosófico, Fundesco, Madrid, 1989.
RESCHER, N.: Razón y valores en la Era científico-tecnológica, Paidós, Barcelona, 1999.
RESCHER, N.: Complexity: A Philosophical Overview, Transaction Publishers, New
Brunswick, NJ, 1998.
CERN. En http://public.web.cern.ch/public/Welcome.html, (acceso el 5/8/2009).
DARPA: En http://www.darpa.mil/, (acceso el 5/08/2009).
FUNDACIÓN TELEFÓNICA, La Sociedad de la Información en España 2008 siE[08, en
http://info.telefonica.es/sociedaddelainformacion/html/informes_home.shtml,
(acceso 28/07/2009).
INTERNET2, en http://www.internet2.edu/, (acceso el 4/08/2009).
ISOC. En http://www.isoc.org/isoc/›, (acceso el 5/08/2009).
LA INTERDISCIPLINARIEDAD, MÉTODO HOLÍSTICO
COGNOSCITIVO

Zenobio Saldivia M.*

En nuestro medio académico y en los círculos pedagógicos y


organizacionales, así como en el ámbito de los cientistas sociales, entre
otros; es muy frecuente escuchar la noción de trabajo interdisciplinario
Empero, en cada uno de estos campos, el término compuesto “trabajo
interdisciplinario”, significa algo diferente, cuyos definendum están en
cada esfera cultural analógicamente vinculados por una parte, y
levemente distanciados por otra. El término en cuestión, apunta a la
idea de posesión de una interdisciplinariedad como instrumento de
aprehensión cognoscitiva y como variante metodológica.

En lo que sigue, se analizan las propiedades epistemológicas de la


noción de interdisciplinariedad y las proyecciones de la misma,
principalmente a partir de la práctica de adquisición de procesos
cognoscitivos propios de las ciencias de la naturaleza, de las ciencias
sociales en el dinamismo de su interacción social y de la historiografía
entre otras. Para ello, conviene tener presente que por
interdisciplinariedad, se entiende aquí la integración sistemática de
teorías, métodos, instrumentos y acciones de los miembros de las
comunidades científicas, a partir de diversas disciplinas, con el
propósito de alcanzar una visión unitaria acerca de un área del saber.
Hoy, la cooperación entre especialistas de diversas disciplinas, es una
realidad que se manifiesta tanto al interior de las propias comunidades
científicas, como en múltiples proyectos de investigación. Así por
ejemplo, los distintos estudiosos de las ciencias naturales requieren un
mayor conocimiento de las ciencias exactas, v. gr. los físicos cuentan
con una física-matemática y una físico-técnica, también sucede lo

*
Doctor en Historia de las Ciencias, Universidad Tecnológica Metropolitana, Santiago,
Chile.
mismo entre los propios científicos dedicados al estudio de algún campo
acotado de la naturaleza; v. gr.: la química ha dado paso a la química-
física y a la química farmacológica, entre tantas otras; a su vez, la
geografía a posibilitado el nacimiento de la geo-química y de la geografía
económica; la biología a generado a la biofísica y a la bioquímica, la
psicología a dado nacimiento a la psicología de la inteligencia, a la
psicología genética y a la psicolingüística, entre otras. Y lo propio
acontece entre algunas disciplinas que deslindan entre las ciencias
exactas y las ciencias naturales; piénsese por ejemplo en la astrofísica y
otras similares.
Lo anterior, indica una tendencia sino totalmente opuesta al tradicional
crecimiento de especialidades únicamente al interior de cada ciencia,
por lo menos sugiere un desenvolvimiento complementario, al que se
venía dando desde el siglo XVII en adelante, y que se caracterizaba por
una excesiva atomización y ramificación de disciplinas1 y cuya cara
visible socialmente era la aparición continua de Academias Científicas;
tales como la Academia dei Lincei (1603), en Italia; la Academia Naturae
Curiosorum (1652), en Alemania; la Royal Society of London (1660), o la
Academie des Sciences (1666), en Francia; o la Academia de Ciencias y
Artes de Viena (1692), Austria; o la Academia de Ciencias de Berlín
(1700). Por otra parte, este fenómeno contemporáneo de la ciencia que
consiste en crecer en extensión y en profundidad, como señala Bunge
en nuestra era, sugiere un desarrollo del conocimiento, con claros visos
de interdisciplinariedad; esto porque los contenidos cognitivos de una
disciplina, se “extienden” o se “introducen” –por así decirlo– en otras
ciencias de su mismo nivel; por ejemplo, esto sucede en el ámbito de las
ciencias de la vida, en el de las ciencias de la tierra, o en el de las
ciencias sociales, entre otras. En cierta manera, podríamos decir que
esto es así porque los conocimientos se buscan; o como lo señala Jean
Galard: “Los conocimientos se llaman los unos a los otros, se buscan
para ramificarse. Ellos necesitan relacionarse. Ellos suscitan la
discusión…”.2 En rigor, lo que sucede es que los modelos explicativos
actuales que utilizan los científicos, comienzan a tener un mayor
alcance en la elucidación de los fenómenos de su interés y permiten
una extensión explicativa que rebasa una ciencia determinada.
Dicha comprensión más holística del conocimiento científico, se ve
estimulada tanto por la propia concatenación universal de los
fenómenos, cuanto por la nueva organización institucional de la ciencia.
Esto significa que las comunidades científicas privilegian más la
convergencia entre especialistas diversos, en torno a problemas
emergentes derivados del estudio de la naturaleza, la sociedad o el
pensamiento; pero sin perder su capacidad de profundización y
especialización disciplinaria desde una ciencia consigo misma. Es su
motu cordis inevitable, su movimiento de sístole y diástole. Este
fenómeno es propio de la dialéctica de la propia praxis de la episteme en
el marco social. Y alude al hecho de que la ciencia en la actualidad
avanza aceleradamente, se abre a nuevas especializaciones y se acerca
a otras disciplinas cada vez más. Es la faceta visible de su naturaleza
operativa y evolutiva. En la actualidad, por tanto, prácticamente en
todas las ciencias, se encuentran investigadores que aplican los
conocimientos obtenidos en otras disciplinas, para desarrollar las
propias.
Por otro lado, puesto que las antiguas Academias Científicas, que se
remontan desde los inicios del Siglo de la Revolución Científica, como
señaláramos, actualmente están siendo desplazadas; o al menos, están
en competencia productiva con las universidades y otras entidades
interesadas en la producción del conocimiento nuevo –y en la cual
llevan las de perder por sus presupuestos e infraestructura
notoriamente menor- entonces, también resulta muy conveniente la
recuperación de estas entidades pero ahora con una perspectiva más
moderada en su especialización y más generalista en su visión,3 lo cual
nos lleva nuevamente a la busca de la interdisciplinariedad.
La idea de interdisciplinariedad en Piaget

Piaget concibe la interdisciplinariedad como una forma de cooperación y


de intercambios recíprocos entre dos o más ciencias, que
necesariamente conllevan a un enriquecimiento mutuo.
La interdisciplinariedad puede darse entonces, entre ciencias que tienen
el mismo tipo de estructuras, como la topología y el algebra; o bien
entre disciplinas que utilizan estructuras diferentes, como acontece por
ejemplo, entre la psicología y la lingüística.4 Para Piaget, la tarea
interdisciplinaria por excelencia corresponde a la búsqueda de
estructuras que se manifiestan en las distintas fases del desarrollo
cognoscitivo; ya sea en el ámbito ontogénetico o en el campo de la
filogénesis. En este sentido, la fundación que realiza Piaget en Ginebra,
en 1955, del “Centro Internacional de Epistemología Genética”, pasa a
ser una de las primeras expresiones de una nueva forma institucional y
operativa, para recabar los datos sobre los observables de interés del
científico. Dicha institucionalidad fomenta una nueva variante
metodológica que pretende aglutinar las distintas adquisiciones
cognitivas; esta es la cooperación interdisciplinaria. El objetivo del
Centro es asegurar la posibilidad de un trabajo de equipo entre
especialistas de diferentes disciplinas, quienes se reúnen en torno a
proyectos o seminarios para estudiar en común, los temas de interés de
la epistemología científica, pero centrados especialmente desde el
punto de vista de la evolución de los mismos. Así, cada año este
Centro planifica y organiza eventos para investigar nuevos problemas
epistemológicos. Esto se comprende mejor, cuando observamos que el
propio Piaget percibe su disciplina como un saber que parte cumpliendo
el requisito del trabajo en equipo. El autor suizo lo expresa en éstos
términos: “La primera regla de la epistemología genética es, pues, una
regla de colaboración…”5 y más adelante agrega que los matemáticos
aseguren las relaciones entre la lógica y el objeto de estudio del
momento, en conjunto con los cibernéticos, con los psicólogos y los
lógicos.6
A este respecto, muchos autores han comentado esta tercera vertiente
de la epistemología piagetana; así por ejemplo Frida Saal sostiene:
“Piaget es un ferviente partidario de los estudios interdisciplinarios y a
ellos se encuentra abocado, desde hace años, el Centro de
Epistemología Genética que dirige en Ginebra y al que concurren como
invitados, destacados científicos de las especialidades más diversas,
para investigar los problemas epistemológicos de cada disciplina”.7

Las citas precedentes, dejan de manifiesto la importancia de la


colaboración interdisciplinaria, como variable metodológica y como
procedimiento de inserción social para la epistemología genética. Es
una de las fortalezas operativas y neo-metodológicas de la nueva
disciplina.

Al instituirse las relaciones interdisciplinarias en el campo científico,


como una variante complementaria para la adquisición del
conocimiento; se hace posible el tratamiento explicativo para dar cuenta
de eventos específicos que acontecen en el plano biológico, físico o
social. Pero también se está en una situación de mayor riqueza
cognoscitiva. Es justamente por esto, que Piaget considera que para
instituir una “epistemología verdaderamente científica, hay que
plantear los problemas de forma tal que puedan ser resueltos de la
misma manera por equipos de investigadores diversos,
independientemente de su filosofía personal”.8
Lo anterior, se comprende mejor si se tiene presente que la idea de
interdisciplinariedad piagetana, en la práctica, pasa a ser una instancia
epistemológica y metodológica para dar cuenta de la génesis y del
dinamismo de las estructuras, de distintos tipos de conocimientos. Esto
es, que la noción de interdisciplinariedad propuesta por Piaget, sugiere
efectivamente, un nuevo modus operandis para las comunidades
científicas. Ello porque entrega un cuerpo teórico amplio (la
epistemología genética) y una variante metodológica complementaria a
los métodos en boga para el trabajo epistemológico (la cooperación
interdisciplinaria). De este modo, los miembros de las comunidades
científicas, al utilizar la variante propuesta por Piaget, adquieren
nuevos elementos teóricos y epistemológicos, para tratar tanto los
problemas de naturaleza empírica como teórica. Dentro de los
problemas teóricos, por ejemplo, se hace posible nuevamente abordar la
antigua preocupación gnoseológica acerca de la totalidad del
conocimiento científico y de los límites del conocimiento. Empero,
ahora, en virtud de la cooperación interdisciplinaria, se haría de una
manera más dinámica y operativa.
Así, la necesaria interpretación globalizante de los conocimientos
adquiridos, resulta más fluida, debido a la oportuna cohesión de las
distintas coordinaciones - que lógica y operativamente - van reportando
los datos para alcanzar la unidad de significado epistemológico. Esto
gracias a la explicación del dinamismo de las estructuras, provenientes
de las distintas ciencias particulares. La movilidad incrementante de las
estructuras se observa al estudiar el paso de un conocimiento de menor
validez a otro de mayor complejidad.
El análisis y la explicitación acerca de cómo acontece ese avance en el
individuo y en la ciencia; compromete los esfuerzos teóricos y/o
experimentales, provenientes de la psicología evolutiva, de la psicología
de la inteligencia, de la sociología general, de la sociología del
conocimiento, de la epistemología, de la metodología, de la lógica, y de
disciplinas como la física, la química, la biología, la historia de las
ciencias, la historia de las ideas, la cibernética y la pedagogía, entre
otras. Los resultados aceptados por los miembros de las comunidades
científicas, van dando cuenta del desenvolvimiento del conocimiento
desde las distintas áreas de la cultura.
La interdisciplinariedad descansa así, en una comprensión de la
necesidad de superar las particulares visiones de mundo, de las que los
representantes de las ciencias particulares coparticipan. En la práctica,
esto es equivalente, a la búsqueda de procedimientos y mecanismos que
permitan alejarse lo más posible de la metafísica que siempre está
presente, como un pequeño delta, en la mentalidad del investigador;
puesto que los cortes que estos hacen de la realidad, están impregnados
de una misma forma interpretativa, en tanto utilizan y comparten un
paradigma epistemológico común. Y justamente, dicho paradigma
imperante, ha sido seleccionado y preferido dentro del marco cultural y
social en el que le toca desenvolverse a tal o cual comunidad científica.
Al trabajar en cooperación interdisciplinaria, por tanto, se produce una
cierta descentralización de los exponentes de las ciencias particulares y
se adquieren nuevas categorías conceptuales para la elucidación de un
fenómeno, o para la formulación de un problema específico. Ello genera
de suyo, una discusión interna que corresponde a una primera fase del
acercamiento interdisciplinario y que podríamos denominar “la
búsqueda de un lenguaje común”. Tal lenguaje no tiene por qué
constituirse necesariamente en un nuevo corpus científico global; basta
que sean aceptados los principales conceptos categoriales más
relevantes, por parte de los exponentes de las distintas disciplinas
interactuantes, y con ello, arribar a un lenguaje interpretativo común.
Lo anterior, sugiere partir de una flexibilidad en el significado de los
términos empleados y permite la obtención de un consenso básico entre
los espíritus, para reconstruir el marco epistemológico en el cual se
estima está inserto el problema en cuestión.

Más allá de la perspectiva piagetana.

Situados ahora fuera de la óptica piagetana, concretamente en la


práctica e investigación en general, se observa que la
interdisciplinariedad se presenta de formas muy diversas; entre estas:
en el nivel de la formulación de los problemas, en la utilización de los
métodos de la investigación, en la determinación de criterios para
seleccionar una teoría, y en la aplicación extensiva de la misma.
En el nivel de las teorías por ejemplo, la interdisciplinariedad
usualmente se manifiesta por el hecho de que las primeras están
vinculadas a una determinada ideología. Así, la fuerza de las ideas
explicativas sobre un objeto ideal, que una teoría esté sustentando,
descansa en los cánones de la cultura imperante y en un conjunto de
relaciones sociales y humanas de las que el sujeto no puede abstraerse.
La afirmación precedente, parece afectar más notoriamente a los
exponentes de las ciencias sociales y humanas en general, que a los
representantes de las ciencias físico-químicas. Ello, porque los
cientistas sociales tratan con un objeto de estudio del cual también
forman parte; en este sentido están fuertemente vinculados con las
relaciones sociales, los tipos de organización social y con los motivos o
ideario de grupos específicos. La explicación histórica busca la
retrodicción, la inteligibilidad acerca del dinamismo y características de
la estructura social y sus conexiones, y a partir de la identificación de
tales vinculaciones, se pretende sostener hipótesis explicativas de los
acontecimientos. Y justamente las mismas, serán afirmadas o refutadas
por historiadores que necesariamente están insertos en redes de
agentes sociales, con sus peculiares características culturales. Algo
similar acontece con los cientistas sociales interesados en explicar tal o
cual fenómeno social, sólo que éstos no reconcentran en la retrodicción,
sino en explicaciones plausibles del marco contemporáneo.
En los exponentes de las ciencias físico-químicas, su objeto de estudio
no está directamente comprometido con el investigador; hay un mayor
distanciamiento para la interpretación del observable en cuestión, ya
sea un fenómeno físico como la refracción o la reflexión de la luz, o la
desexitación de un núcleo atómico por cesión de energía a los
electrones; o un fenómeno químico como la combustión, o algunos tipos
de catálisis, u otros efectos que acontecen en las reacciones químicas,
por ejemplo. Esto no significa, sin embargo, que dichos investigadores
utilicen modelos explicativos exentos de toda metafísica, pues como ya
señaláramos, están utilizando un modelo determinado en boga, que ha
nacido en un marco dinámico cultural, social e histórico; el cual tiene
sus propios ideales, tendencias, movimientos y corrientes filosóficas
imperantes.
En el ámbito de la investigación científica, la interdisciplinariedad, se
manifiesta a través de la consolidación y funcionamiento de equipos de
científicos de distintas disciplinas que trabajan en común,
principalmente orientados hacia la resolución de problemas. Al parecer
los países del Hemisferio Norte, han privilegiado notoriamente la
creación de Centros de Estudios Interdisciplinarios. Los resultados de
esta nueva forma de trabajo científico, han aumentado aceleradamente
el conocimiento y han contribuido a elevar el estándar y la calidad de
vida de los habitantes de los países desarrollados.
Desde el punto de vista de la historia de las ciencias, no hay aún un
consenso entre los estudiosos, para determinar quien fue el primer
científico que llevó a la práctica la idea de constituir un equipo con
representantes de las distintas ciencias para unir la investigación
básica y la aplicada. Algunos le atribuyen la denominación y utilización
del concepto al sociólogo Louis Wirtz, a partir de 1939; otros como
Monckeber, se inclinan por atribuirle este mérito a Edison, a fines del S.
XIX: “Tal vez Tomás Edison fue el primero en darse cuenta de ellos.
Este gran y eficiente descubridor rápidamente conoció la necesidad de
disponer de un grupo de científicos, de diferentes áreas, colaborando en
conjunto para resolver un problema práctico. Este grupo se ensambló
en Meulo Park y West Orange (New Jersey) y llegó a transformarse en el
gran Laboratorio de la General Electric Corporation.9 Y por nuestra
parte, si bien aceptamos que puede haber sido Wirtz, el primero en
utilizar la categoría de marras; no creemos que tenga el mérito de
aglutinar a científicos, en una tarea en común, con una integración
sistemática de teorías, métodos, instrumentos y acciones de los
miembros de las comunidades científicas, a partir de diversas
disciplinas, con el propósito de alcanzar una visión unitaria acerca de
un área del saber: O dicho en otros términos, estimamos que no ha
dejado una Escuela, con un perfil y una axiomática bien definida en sus
métodos y en su praxis, para continuar por sí misma, analizando desde
muchas áreas, un problema o un objeto de estudio específico. Nos
inclinamos más bien, a pensar que el científico que más mérito tiene
para atribuirse la autoría de la interdiscisciplinariedad, es Jean Piaget;
esto puesto que en 1955, en Ginebra, efectivamente logra consolidar un
vasto equipo de estudiosos de las más diversas disciplinas. Él logra tal
cometido, justamente porque incorpora la interdisciplinariedad como
parte de su estructura metodológica y axiomática para la adquisición
cognitiva, y en especial porque en la propia praxis de los análisis
histórico-críticos y psicogenéticos de su nueva disciplina: La
Epistemología Genética. Y en efecto, si uno se concentra en seguir la
pista de los colaboradores más cercanos a Piaget, podemos recordar al
menos, a los siguientes: Costa de Beauregard (Físico), Alina Szeminska
(Psicóloga), Albert Morf (Psicólogo de la Inteligencia), Leo Apostel (Lógico
Matemático) Hermine Sinclair (Psicolingüístico), Gilles Granger
(Epistemólogo de las Ciencias Humanas), Jean Blaise Grize (Lógico y
Matemático), S. Papert (Matemático y Estudioso de la Cibernética),
Rolando García (Epistemólogo), Jacques Rutschmann (Psicólogo de la
percepción), y su amiga y más persistente colaboradora: Bärbel Inhelder
(Psicóloga Infantil). Así, al observar la especialidad de los colaboradores
del epistemólogo suizo, se puede colegir que Piaget no sólo habla de
trabajo interdisciplinario, en el plano del discurso teórico -como una
nueva propuesta metodológica- sino también en la organización y
práctica de sus investigaciones.

Hacia una conclusión

Los equipos interdisciplinarios por tanto, contribuyen a la integración


de investigadores de distintas disciplinas orientados hacia problemas en
común, y en virtud de sus resultados que incrementan notoriamente el
acerbo cognitivo en las distintas áreas del saber, constituyen una
instancia de poder. Ello, puesto que un país, o una entidad académica o
una empresa transnacional, al estar en posesión de los últimos
conocimientos en un campo determinado, se transforma también en
una instancia de dominación, de superioridad sobre otros países que
no poseen ese conocimiento nuevo.
Los equipos interdisciplinarios resultan de gran importancia también en
las ciencias sociales, como se ha señalado, y en especial, en el Trabajo
Social para ejecutar la enorme cantidad de actividades que acometen
estos profesionales en su interacción con grupos diversos, y para
atender debidamente, las variables emergentes de la dinamogenia
grupal. Y en este sentido, para que el trabajo en equipo sea funcional y
efectivo en la detección y solución de problemas, se hace necesaria una
planificación previa, contar con adecuados mecanismos de control de
las tareas a ejecutar, así como también una oportuna división y
asignación de los cometidos puntuales. Pero lo más relevante debe ser
tener presente las peculiares características de los sujetos
participantes.10
Empero, independientemente de si son equipos con profesionales
provenientes de las Ciencias Sociales, de las Ciencias de la Naturaleza,
o de las Ciencias Aplicadas, por ejemplo; no basta articularlos bajo una
política científica nacional o una línea de desarrollo académico; además
de ello, para su efectividad, deben estar impregnados de un notorio
énfasis social. En este sentido y orientados en esta dirección, la
interdisciplinariedad contemporánea, cumplirá su derrotero desde la
fase operativa de la praxis de las comunidades científicas, hasta
trocarse en los logros y beneficios esperados en el marco social.

Citas y Notas
_____________
1 Cfr. DÍAZ, Esther: Metodología de las Ciencias Sociales, Ed. Biblós, Bs. Aires, 1997,
p. 71.
2 GALARD, Jean: “La communication des connaissances”, Revue des Deux Mondes,

Paris, Nº9, Septiembre, 1999, p.68. (Traduc. Personal).


3 Cfr. DE RON PEDREIRA, Antonio: “Las Sociedades científicas de finales del siglo

XX”, Rev. Política Científica, Nº45, Madrid, Marzo, 1996, p. 58.


4 Cfr. PALMADE, Guy: Interdisciplinariedad e Ideologías, Narcea S. A. Ediciones,

Madrid, 1979; p. 30.


5 PIAGET, Jean: Psicología y Epistemología, Ed. Ariel, Barcelona, Caracas, México,

1981, p. 15.
6 Ibídem.
7 SAAL, Frida: “La epistemología genética de Jean Piaget”; Braunstein, N. A. et al.:

Psicología: ideología y ciencia, Ed. Siglo XXI, México, l975; p. 289.


8 PIAGET, Jean: Psicología y Epistemología, op.cit.; pp. 124-125.
9 MONCKEBERG, Fernando: “Investigación interdisciplinaria: el caso de la Nutrición”,
Cuadernos de la U. de Chile, Nº2, Stgo., 1983; p. 260.
10 Cf. ROSALES Ortiz, Rosa: “Reflexiones sobre el Trabajo en Equipo Interdisciplinario

en la Carrera de Trabajo Social en la Sede Guanacaste”, Revista de Ciencias Sociales,


U. de Costa Rica, Nº 69, Septiembre, San José, Costa Rica; p. 102.
EPISTEMOLOGÍA DE LA CIENCIA JURÍDICA
ENFRENTADA CON EL ESPEJO

Paúl Hinojosa Carrillo*

La epistemología de las ciencias sociales

La ciencia es el pensamiento producido al interior de una sociedad. Es


el pensamiento que se afirma y que va conquistando los espacios del
conocimiento, es un pensar, algo que el hombre hace por encima de
todas las cosas, mejor que los animales. Quizá el hombre no puede
correr tan rápidamente, o no puede ver en la noche, o tener mucha
fuerza. Pero puede si generar conocimiento que no pueden hacer los
otros animales.
Pero es un conocimiento vinculado a su ser social-histórico, creemos
que no está vinculado al descubrimiento de la idea final, o de la idea
abstracta que le lleva a la verdad absoluta, a Dios, o a la manera de
Dios.
La construcción de la verdad, es para-nosotros, algo vinculado no tanto
a la especulación, sino como para saber qué es una cosa, y saber
aprovecharla para transformarla en beneficio de la comunidad.
Dentro de este esquema, la verdad es lo que el hombre consigue, el
fruto de su actividad y de su relación con el medio. Como dice Morin: “el
campo real del conocimiento no es objeto puro, sino el objeto visto,
percibido y coproducido por nosotros. El objeto del conocimiento no es el
mundo sino la comunidad nosotros-mundo (…) Dicho de otro modo, el
objeto de nuestro conocimiento es la fenomenología, y no la realidad
ontológica (…) Nuestro mundo real es el de un universo cuyo observador

*
Doctor en Ciencias Sociales, Universidad Nacional de San Agustín, Perú.
jamás podrá eliminar el desorden y del cual jamás podrá eliminarse a sí
mismo”.1
Por tanto, el conocimiento no es una cuestión sencilla, porque la
pretensión es enorme, sus límites como los del abismo son tan
profundos que no los podemos ver, y aventurarnos a ver qué hay en la
oscuridad del hoyo nos haría caer a las profundidades, o nos haría
quizá objeto de la burla como le ocurrió a Thales.

Crisis de la epistemología

La ciencia ha tratado de lograr una relación intemporal, una fuerza


poderosa que pueda todo, que sea más fuerte que el propio hombre,
una ciencia inmortal creada por el animal humano mortal.
Las posibilidades de la inteligibilidad y su capacidad exploratoria,
llevaron a la ciencia a la cúspide del pensamiento, a hegemonizar las
maneras de pensar, a la totalidad. El físico Prigogine analiza la crisis de
esta idea (desde su ámbito), para él toda la generación de Einstein
consideraba que la vocación de la física había sido “esperar más allá de
lo real observable una realidad inteligible intemporal (…) los místicos
trataban de vivir este mundo como una ilusión; Einstein, precisamente él,
intenta demostrar que este mundo no es sino una ilusión, y que la verdad
es un Universo transparente e inteligible, purificado de todo lo que afecta
a la vida de los hombres, la memoria nostálgica o dolo-rosa del pasado,
el ansia o la esperanza del porvenir”.2
La física no puede llegar a explicarlo todo y como paradigma de la
ciencia fuerte, ha de renunciar al ideal, que constituía su título de
gloria que le permitía el descubrimiento de leyes más allá de los
cambios, leyes que son eternas, que no lo son; es ahora una física que
está vinculada con el tiempo (con la historia), como dice Prigogine “Hoy
una nueva concepción de la objetividad científica está para nacer, que
pone en luz el carácter complementario y no contradictorio de las ciencias
experimentales, las cuales crean y manipulan sus objetos, con las
ciencias narrativas, que tienen como problema las historias que se
construyen creando su propio sentido”.
Las ciencias deben a esos ámbitos de la existencia humana y la
realidad, como un todo, una relación inseparable, y entrar a las arenas
movedizas que hacen tambalear el paradigma de seguridad que las
había acompañado desde la ilustración, como dice Popper “el antiguo
ideal científico de episteme -un conocimiento absolutamente cierto,
demostrable- ha probado ser un ídolo”.3
Las urgencias de la existencia, hacen que dirijan las miradas a los
reclamos en esos procesos de lucha, que no sólo se produce a nivel
estructural, sino también a los niveles de conductas e ideologías. Los
sistemas de grandes significados elaborados a la guisa de ciencias de
sentidos, que se ofrecían como capaces de asegurar la libertad de todos
los hombres, las ideologías totalizantes tendrían que dar un paso atrás,
el gran relato de la racionalidad de la ilustración que nos trajeron los
españoles, la racionalidad del derecho (y de las leyes), la ideología de la
libertad (económica) heredera de Locke, la idea de igualdad a toda costa
matizada con la libertad, y por supuesto la defensa irrestricta de la
propiedad (para satisfacer la libertad, y por supuesto para eliminar la
igualdad).
El dolor, la fatiga, la injusticia, los sentimientos humanos vinculados
con el reconocimiento de su dignidad, sus luchas postergadas, su
indignación, como dice el poema de Vallejo una réplica de jamases nos
recorre la existencia como espada que está a la espalda y casi sin verla,
conformes con sentirla recorremos el camino doloroso de la existencia, y
no hay gramática o aritmética que lo pueda conmensurar.
El proyecto literario de Scorza, explica de manera palmaria, este
encuentro, un campo de posibilidades de este conocimiento, ese algo
que lleva tras de sí el derecho a existir, una epistemología que busque
en el reflejo de la luz la existencia humana, lo que está detrás de la
lucha, lo que opone al abuso, lo que nos lleva a estar tranquilos con la
conciencia, el conocimiento que puede hacernos visibles. Y también nos
permite trabajar la verdad, difusa, y no concentrada en el poder, la
terrible verdad que no es una cuestión de descubrimiento como en el
proceso de Juan Santos Reyes.
La tercera parte se refiere a la imputación, las leyes chocan contra las
culturas, son racionales, fruto del un conocimiento de la razón y su
pretendida objetividad, terminan por constituirse en un discurso
sectario, una forma de legitimar la dominación, de sancionar por no
entender la cultura occidental. Un ejercicio prepotente del poder
coercitivo estatal.

La ciencia para Garabombo

No se puede conocer algo que no se entiende. La novela de Scorza, nos


presenta a un Garabombo (Fermín Espinoza)4 que no deja de
preguntarse cuál es la lógica del mundo de la ciudad, en qué consiste
su conocimiento y por qué no tiene equivalencia en el conocimiento que
tienen las personas de los andes.
Quizá se podría decir de la novela: No somos parte del mundo, porque
no formamos parte de ese lenguaje que la ciudad impone para existir,
esa también lisiada voluntad de pensar, por tanto no nos ven, a pesar
de que caminamos por sus calles mohosas y lúgubres, a pesar de que
abarrotamos los mercados, los juzgados, los puestos ambulantes, los
comercios, la vida fácil y la vida difícil.
Garabombo es invisible para los que están con los gamonales, pero
visible para quienes pueden ver la justicia de su causa, por tanto puede
pasar inadvertido y penetrar los espacios enemigos sin ser visto.
¡Lo veían! La multitud exaló algo tramado por el alivio, el regocijo y la
angustia. ¡Lo veían! Garabombo cumplía su promesa: era visible. ¡Nadie
los derrotaría! Ni herbolarios ni brujos me curarán. ¡El día que ustedes
sean valientes me curaré! ¡El día que comande la caballería comunal!
Una incertidumbre más poderosa que los roquedales los irguió.
La construcción de la realidad se libera del peso del tiempo, es capaz de
abolir el pasado y darle un curso al tiempo cosmogónico que da
redención. El héroe es la posibilidad redentora.
- ¡Son los ríos! – gritó - ¡Son los ríos enterrados que salen por mis ojos! Por
que cuando los blancos llegaron, los ríos se escondieron. Y dicho está que
antes que nos liberemos toda el agua guardada saldrá por nuestros ojos.
Cuatrocientos años han vivido en las tinieblas. Pero el castigo acaba.
Nuestros abuelos eran crueles: pisoteaban las naciones. Nuestras
abuelas ingresaban a los pueblos derrotados soplando en los pulmones
de los vencidos. Pariacaca, el que nació de cinco huevos, ordenó que
padeciéramos pero el castigo acaba ¡Que salga el agua!.
- Llora, Garabombo! –exclamó Cayetano- ¡Que el agua te limpie!
Lo mismo sucede con Raymundo Herrera (El insomne)5 está enfermo
desde que arrebataron las tierras a la comunidad, no puede dormir
hasta que los comuneros reclamen sus derechos, y más de 200 años
han pasado. Es un fantasma que no puede morir, está allí para
reclamar en el sueño, a cada uno, es la voz que habla en la
somnolencia, su muerte es buena, porque significa que se han
levantado las banderas de la justicia.
No sólo el antiguo Chapihuaranga se volvió rojo. Los requis me dicen que
el día del entierro de don Raymudo Herrera, las corrientes se tiñeron en
las alturas. El suegro de los Guadalupe cuenta que por su rumbo, cerca
de la Cordillera Culebra, además de teñirse, los ríos se encabritaron.
Magdaleno, yo no estaba bebido. Te juro que vi al río Culebra
arrodillarse. Se prosternó e intentó regresar a su nacimiento. ¿Ves como
corre el agua por acá? Pues durante tres días quiso correr hacia allá,
hacia el cerro Wayracóndor.
O quizá la leyenda más radical, en Agapito Robles,6 quiere ver esas
luchas coronadas con el anhelado resultado, recuperar la tierra de
manos de los usurpadores, la tierra que fue antes, y que sin razones,
por un acto de fuerza y maldad, les fue arrebatada por los gamonales,
sus matones, y las fuerzas del orden que representan a la república,
peores que las fuerzas coloniales españolas:
Agapito palideció. Las autoridades políticas de Yanahuanca, incapaces
de capturar al personero, habían acabado por admitir lo que divulgaba
Victoria de Racre: que Agapito Robles había recibido autorización para
convertirse en puma.
Un delator había revelado al Juez que, acabando una sesión, para
demostrar su poderío, Agapito Robles se había convertido en puma.
El mundo occidental es tan lejano, ir allí es ponerse en manos de la
maldad, pues ni el diablo puede ser tan malvado como la gente de la
ciudad. Se necesita un interlocutor, un abogado, que pueda comunicar
a dos mundos, y pueda traducir las expectativas de ambos, sí un
“abogado de comunidades, pero no es lo que parece. El abogado, es de
Lima, participa del mal, de manera intensa, no se interesa por los
asuntos, no trata de comprender, cobra dinero por hacer no se sabe
qué. Al final pierde el caso, al final pierde la comunidad, al final el
abogado de comuneros no sirve, al final la comunidad no existe. En la
tumba del Relámpago dice que:
“Entre los grandes hacendados y el Poder Judicial existe un
intermediario temible: el abogado. Los comuneros no sabían ya si era
mejor ganar o perder un juicio. Los juicios se eternizaban durante
generaciones”.7
Los papeles que sustentan el derecho, se guardan celosamente, nadie
los ha visto, están en una cueva, guardados como evangelios, libres de
la contaminación, fuertes e imperecederos, nadie puede verlos porque
su presencia puede cegar, existen, están allí donde se guardan también
los sueños, al lado de las esperanzas y en el mismo escondijo que los
recuerdos.
No sólo es consuelo, los indios no se rinden, a su turno se sienten
indignados por siglos de atropellos, hacen un discurso:
¡Chinchinos, hemos envejecido reclamando! Hemos gastado nuestros
años sentados en los pasadizos. ¡Años de años suplicando! ¡Nunca
obtuvimos nada! Los hacendados nunca se presentaron a los
comparendos. Tres veces los citaron para las confrontaciones. Tres veces
esperamos tres días y tres noches. No acudieron. Aunque esperáramos
tres siglos no se presentarían. Yo luché por la expropiación. Estaba
equivocado. No cabe expropiación. Estas tierras nos pertenecen desde
1705. El Rey nos dio lo que el Presidente nos quitó. ¡Caiga quien caiga
esta noche recuperaremos! Por todo Pasco las comunidades avanzan.
¡Nadie nos detendrá! El hombre muere…-vaciló-. El Hombre no queda
como papa para semilla. ¡Pero moriremos peleando y nadie escupirá
sobre nuestra memoria!
El héroe siempre fracasa, y arrastra en su fracaso a la comunidad, los
lleva por el camino de la derrota hacia la masacre. Quizá el acto heroico
no lleva sino por ese camino, la justicia no se impone por que el poder
está siempre del lado de los abusivos.
Garabombo, y los héroes de la pentalogía, se enfrentan a la ciencia.
Hacen posible aquello en lo que no creen los sabios, los que están del
otro lado, los opositores, los que enfrentan a los héroes, con ironías, con
abuso o con ciencia.
- ¿Qué haremos?
- ¿De qué viviremos este año?
- ¿Cómo mantendremos a los hijos menores?
- ¿Es posible morir sin justicia?
- ¿Y si fuéramos a reclamar a la Subprefectura?
- ¿si fueras tú, Garabombo?. Tú hablas bonito –dijo Bernardo Bustillos.
- ¡Soy transparente! No me ven, Bernardo, pero aunque me vieran nada
sacaríamos con quejarnos. El Subprefecto es de ellos. Es por de más
quejarse.
- ¿Y si fuéramos a quejarnos a Lima?
- Si. Sí vayan.
- He vivido setenta años –dijo Iván Lovatón-. No conozco a nadie que se
apellido Justicia.8
El niño Remigio, enfrenta a Garabombo, con su cultura, pero a la vez
con sus complejos, a su manera, la protesta es menos indígena y más
cercana al discurso del intelectual contaminado con el conocimiento de
la ciudad “(…) en Yanahuanca falta lo que a mí me sobra: ideas,
invenciones, limpieza pública, encarcelar a las autoridades, pedirles
rendición de cuentas y destituir a la alcaldesa, meterla presa a usted (…)
Cambiaré la tierra del Cementerio, importaré tierras donde no se fusile, ni
se encarcele, ni se persiga a los jorobados, ni le griten feo a los cojos.
Lo anterior encarna al intelectual, el que reclama en un principio, a su
manera y dice que hay que cambiar las cosas, y luego, le halagan, y
como consecuencia de ello, ya no se siente hombre, sino se siente bello,
sale de su miseria, vence su fealdad y encuentra la belleza en el halago
que siempre había esperado, el halago le hace olvidar la causa, el
reclamo y hasta el orgullo. Se deja seducir por la belleza, y termina con
su silencio, traicionando a la causa de los suyos que debía defender con
más ardor por ser intelectual.9
Por supuesto, hay que combatir su traición, es algo mas difícil que
enfrentar al gamonal, por que el enemigo está en medio de los
indígenas, tiene cultura, y ha asumido los horribles complejos que se
adquieren en la vida de la ciudad, da buenos discursos, casi convence
por que las razones de sus palabras se encuentran por algún lado. Pero
hay que aceptarlas, es la manera de contactar el indecible mundo de los
gamonales y los abusivos que viven allende los cerros.

La verdad científica en el proceso contra Juan Santos Reyes

Como explican los profesores Bonnie Glass-Coffin y Juan Castañeda


Murga,10 el caso se refiere al proceso seguido por la Inquisición de Lima
en contra de Juan Santos Reyes, campesino mestizo de la villa de San
Pablo de Cajamarca. Fue acusado de superstición y herejía en 1728,
encarcelado en 1732, torturado en 1736, y murió en las cárceles reales
del tribunal en 1747.
Como no se esperaba, no confiesa su culpa sino que sostiene que la
denuncia se debía a un enemigo suyo, como puede entenderse los
inquisidores hicieron oídos sordos de sus alegaciones, y por el contrario
lo condenaron a la hoguera luego de someterlo a tortura. Pero antes de
ejecutar el fallo, la sentencia fue suspendida, por cuando la Suprema de
España ordenó que se vuelva a investigar el caso, y Juan Santos en ese
transcurso muere encarcelado 19 años después de ser acusado y dos
años antes de ser sentenciado por segunda vez, sus restos fueron
exhumados y entregados a la hoguera en 1749 como consecuencia de la
segunda sentencia.
Fue acusado por brujo, los testigos lo sindicaban de hacer prácticas de
curaciones, de encontrar tesoros de tumbas, de rendir culto al dios Inti,
y de invocar al propio demonio, con quien tendría pacto, y al cual podía
llamar.
En su declaración ante el comisario dijo que:
(…) que porque todos los de este dho. Pueblo, dizen que es bujo venia en
busca de dho. Señor Comisario a decir que no lo era, y que porque
aplicaua algunas hierbas, que sauia teian virtud, para sanar los que
padecian de dolores, como eran la de Diego Lopez, y la poma paira, y que
estas las daua a que cocidas las veuiesen los que adolecian de ellos asi
hombres, como mugeres, por ser unos pobres, y compadecido les dauda
dhas. hierbas, y por esta causa decian que era brujo, y asi venía a
decirselo al dho. Señor Comisario, temeroso de que le imptauan, y se
voluio que no tenia otra cosa que decia, porque no sauia de brujo alguno,
ni hauia oido decir de ninsona ning, que anduviese en echizos ni
encantos (…)11
Lo anterior, nos enseña que quienes conocen el sistema pueden hacer
daño, y la justicia no se va a imponer, una cosa es lo que dicen, otra
cosa es lo que hacen: los jueces, abogados, gobernantes, y por último
cualquier persona.
La ciencia del derecho puede manipularse para satisfacer intereses
particulares, es un arma muy poderosa, puede acabar con la vida de
cualquiera, no sólo por la duración del proceso, ni por lo agotador que
es, sino porque puede llevar a la muerte. La verdad es la que queremos
escuchar, la que estamos acostumbrados a escuchar, y por supuesto, el
que no dice la verdad debe ser castigado.
El procesado tiene que responder con la verdad, no debe negar los
cargos, por que los inquisidores no lo acusan por gusto, sus razones
tienen, y eso no puede ponerse en cuestionamiento, menos aún por el
reo. El inquisidor Gaspar Ibáñez lo amonesta para que se diera cuenta
que “...en este Santo Oficio no se acostumbra prender a persona alg sin
informaz vastante de hauer dho. o echo, visto hacer o decir a otras
personas que sea o parezca ser en ofenza de Dios Nro. Señor, y contra su
Santa Católica Ley Evangélica”.12
Por supuesto su delito se hace más grave por no decir la verdad, a los
ojos del Tribunal es un delito que merece mayor reprensión “(…) dho.
reo es falso, perjuro, pertinaz, y impenitente y negativo, pues en ninguna
de las tres Audiencias ordinarias que con el se an tenido ha querido
descargar su conciencia, manifestando la atrocidad de sus delitos, antes
vien cauteloso, y simulado los a ocultado pretextando, ser obras de
misericordia, y buen christiano todas las que ha executado (…)”.13
Pero el procesado en un acto de valentía o tozudez, se reafirma en la
verdad que considera debe decir, y aunque se trate de tormento, no
puede llegar a decir otras cosas que no habían sucedido.
A la conclusión, y otro si: digo que tiene declarada la verdad, y niega el
tormento porque aunque le quiten la vida, no tiene más que decir, ni
declarar, y es la verdad lo referido por el juram que tiene fcho.; porque es
verdadero catholico xptiano, y nunca se a apartado de la fee catholica
que profeso en el bap, y que todo lo que se le a acusado es mentira y
falsedad que el lebantan en dcho. pueblo de San Pablo, y se manifiesta,
porque a mas de seis años, que no viue, sino en el pueblo de Cascar
cerca de Trujillo con su muger y suegro, y solo suele ir algunas veces a
San Pablo a la fiesta del Sant, y Virgen del Rosario, de quien es
mayordomo, y entonzes solia traer las hierbas que conocía para sus
curaciones, y atribuye a la mala voluntad, que le tienen y a envidia,
porque este se a portado siempre con estimacion, y bien tratam en su
persona; por hauerle dado Dios medios para ello, y porque le veian con
esa diferencia de todos los demas conspirauan contra este, y habrán
querido por el medio de semejantes imposturas destruirlo y abatirlo y
está dispuesto a reciuir lo que Dios le embiare, que se haga su voluntad,
y no le deje de sus manos para caer en estos delitos.14
Había sólo una verdad, que se considerara culpable, ninguna otra razón
podía valer, aunque el reo negara que había residido en el pueblo de
San Pablo de donde provenían los testigos que lo acusaban. La
sentencia tenía que extraerle la verdad, el dolor le iba a hacer
reflexionar acerca de sus delitos, le iba a llevar a confesar, poco
importaba si el reo no podía decir una verdad que les pareciera
adecuada a los inquisidores. Fue condenado al tormento:
(…) a question de tormento in caput alienum, en el qual mandamos este,
y, persevere por tanto tiempo, quanto fuera nra. Voluntad, para que en el
diaga y confiese la verdad, según que por nos ha sido amonestado con
protestación que le hacemos, que si en el dho. tormento muriese, o fuere
lisiado o se siguiere efusión de sangre o mutilacion de miembro, sea a su
culpa y cargo, y no a la nra. Por no hauer querido decir la verdad.15
Fue condenado, pero nuevamente enjuiciado, pues -entre otras cosas-
no había quedado claro el hecho afirmado por el reo que no había ido al
pueblo de San Pablo, donde había nacido, pero del cual se había
separado durante muchos años. El proceso se reanudó, duró años, se
citaron nuevamente a los testigos (6 años después), se confrontó con
sus declaraciones al acusado, el cual negó nuevamente los cargos
diciendo que estaba limpio con el agua, que todo se debía a una
venganza urdida por Miguel Basquez, que había sido su enemigo,
porque le había inferido una puñalada, por lo cual le había denunciado,
el cual había contado con el apoyo de Tomaza Basquez, hermana de
éste, y comadre del Comisario Joseph de Sabaleta.
Murió en la cárcel, afirmando en todo momento su inocencia, aún en
los autos sacramentales dijo estar “limpio como el agua, y estoi
padeciendo sin culpa y perdono a todos; limpio, limpio como el agua”.

El discurso de la normatividad: la imputación

“Don Mariano Zevallos de Condorpusa, cacique principal de la doctrina de


San Juan Bautista de la Chimba, quedó preso en la Cárcel Pública de
esta ciudad por recurrir al juzgado de las comunidades de indios de
Cayma y Yanahuara, para en común acuerdo con el Cacique Alpaca
“hicieron una nueva remuda de tierras ante el Sud delegado del cercado
para calmar los escándalos y disturbios entre los de la comunidad […]”,16
por falta de tierras, puso preso el Sub delegado autoridad española al
cacique Condorpusa de Yanahuara, sin la mayor documentación la
culpabilidad se manifestó con imposición y sometimiento.
Los imaginarios de legalidad que gozaron los caciques, mestizos y
personajes17 que de alguna forma llegaron a los centros de preparación
escolar o educativa, los indujo a preparar el futuro de las acciones
legales, por eso el Cacique Condorpusa elevó un escrito al Intendente de
Arequipa para cortar de raíz los abusos de “(…) inmunerables
vejaciones, con los indios de América y Asia, deben prevenirlos a los
virreyes, presidentes de Audiencia, gobernadores, intendentes y demás
magistrados, para que no cometan tantos abusos reprobados por la
religión prohibiendo con todo rigor que bajo ningún pretexto que por
racional que pareciera ninguna persona aflija al indio auque constituya
autoridad eclesiástica civil o militar ni les ocasionen perjuicio el más leve
en su propiedad, cuidando de ello todos los magistrados y jefes con una
vigilancia estricta y escrupulosa”.18
Lo precedente corresponde al argumento legal y su vez de reclamo al
derecho del ser humano en el periodo colonial y además plantea que
los pongan en libertad y se le entregue las llaves de la habitación de la
familia ya que el abusivo subdelegado quebrantador de las normas y
derechos del ser humano. Don Pedro Mariano Zuzunaga embargó los
bienes del mencionado cacique, sin embargo, uno de los argumentos del
subdelegado contra el cacique es acusarlo de excesos e impedir la
práctica de las diligencias encomendadas a los regidores de aquel
cabildo don Ignacio Ara y Antonio Quispe, quedó así justificada la
prepotencia y abuso sin sanción.
Las defensas ante los abusos de los Delegados y subdelegados
autoridades coloniales; Los caciques emplearon los términos indios y
tributarios, en el discurso oral y escrito, para identificar a los de su
condición, sin el perjuicio racial. Reclama no sólo por su ámbito sino
por los de América, es decir, en los caciques quedaron grabadas en sus
estructuras mentales, las escenas de vejación de los derechos del
hombre andino, y cuando atentaron contra sus propiedades asumió la
defensa de él y de los demás como líder del mundo andino.
Frente al sometimiento la identidad propia requiere siempre de una
memoria individual o colectiva, expresada entre las diversas formas
discursiva y de comunicación y significación que el común de la
población tiene que figurar el discurso comunicativo haciendo uso de la
reglamentación, redacción y lectura de los códigos penales y criminales,
que no se sujeta a la cultura local, más bien tienen que adaptar la
cultura local a la reglamentación de fuerte influencia externa; por eso
una constante posibilidad de situarse, de mantener relaciones vivas
hechas de presencia y de palabras directas, no establecidas por medios
artificiales o por los efectos de las masas en la opinión común.
Entre los discursos de culpabilidad y penalidad, encontramos a la
madre de Mariano Zevallos Condorpusa, en 1807 tiene un juicio contra
el Alcalde de Españoles Pablo Vera, por haberla acusado de provocar
escándalos públicos reñidos contra la moral y de haber aceptado las
pretensiones de los españoles solteros José Muñoz, Narciso Valdivia y
Francisco Hidalgo; sin embargo doña María Toné Esquiagola cacica
gobernadora de Yanahuara, madre de Zevallos Condorpusa, inicia
causa criminal contra el Alcalde Pablo Vera porque con las acusaciones
e imputaciones hechas a su persona, atentó contra la moralidad
individual y familiar, la causa de tal conflicto se originó al poner en
cárcel a don Antonio Díaz Soldado Granadero de esta ciudad allegado
fiel a Pablo Vera Alcalde de Españoles, porque los encontró por las
cercanía de su casa.19 (Observamos entonces que sólo haberla
observado, el código penal le permitió construir discursos de acusación
y levantamiento de información discursiva contra la integralidad moral).
Además porque el mencionado le seguía los pasos por mandato de Pablo
Vera, la razón sería aquella que la cacique estuvo por contraer
matrimonio con Antonio Díaz, sus testigos aseguraron que no hubo
escándalo alguno por ser respetuosa y que dicho matrimonio es
ejecutado y entregado al cacicazgo de Yanahuara en favor de su hijo
Mariano Lino Zevallos y Condorpusa.
Los individuos españoles, al ser rechazados por las mujeres caciques,
dadas las seducciones y pretensiones diversas, enjuiciaron y
censuraron los comportamientos contra la vida moral; las influencias
con otras autoridades, fue el móvil para hacerlos destituir del cargo
hasta aplicarle sentencia. Nótese que no se refieren a la cacique, no
como india, sino respetando el cargo el control del poder local andino.
Así mismo, asientan los autos de denuncia con el discurso
exclusivamente de la cultura dominante. Podemos deducir que es el
periodo de continuidad de imposición del aparato legal occidental en el
mundo andino, que generó brechas insalvables hasta la actualidad, no
se ha integrado a la cultura cotidiana de la sociedad peruana, es decir
el discurso de imposición continua y no hay espacio de integración o de
sincretismo en la aplicación o administración de la justicia.
Otro caso digno de utilizar como dato importante en el análisis histórico
del rol de los caciques con relación a la justicia tiene el de Tiburcio
Choque, Alcalde Vara (alcalde de indios), tributario de la Doctrina de
Torata, acusó al teniente Carlos Chipoco Alcalde de Naturales de
cometer abusos que ha originado disturbios a la población por su
descontento “ya que ha sufrido atropellos, encarcelamientos, injustos,
injurias, ultrajes y utilizado muy arbitrariamente la vara de la justicia
causando una gran represión”.20 Por ello encontramos a los hombres
lugareños reclamando justicia, en todas las formas y discursos con la
finalidad de encontrar a los culpables, pero como las mismas leyes
resultan responsable al utilizarlas los aplicadores con esas unidades de
medida, entonces los que no utilizaron tal discurso terminaron como
culpables, es decir, culpable de desarrollar una cultura diferente a la
occidental.
La solicitud hecha por Tiburcio Choque ante el Intendente para que se
haga justicia e intervenga haciendo la investigación correspondiente
para que lo depongan al mencionado Carlos Chipoco, finalmente los
testigos que pasaron de ocho, confirmaron la veracidad de las
acusaciones contra Carlos Chipoco, el Intendente dispuso retirar el
cargo de Alcalde de Indios, a don Carlos Chipoco. De los casos
presentados el único que queda con sentencia es el último, los demás
quedaron archivados, nos permite agregar una vez más que la justicia
para los blancos europeos no llegó en las dimensiones reales que la
justicia reclama, entre los hombres del periodo.
Pues bien, desde el enfoque cultural de la penalidad tiene apreciaciones
como las mencionadas, pero los recurrentes ante los administradores
de justicia y legisladores, entre los discursos se evidencia una clara
visión de la escuela positivista, y una despreocupada interpretación, es
decir, la construcción de significados de la objetividad de los hecho pero
con la presencia del conocimiento local y regional, para hacer de la
justicia un espacio de credibilidad y continuidad de los roles que exigen
las poblaciones y usuarios de espacios y tiempos diferentes.
Mientras se fueron organizando los fueros del sistema nacional de
justicia, la administración, la implementación, capacitación y
profesionalización complementarias al desarrollo nacional de la
juricidad, se instaló en el sistema expedientes, legajos, resoluciones,
decretos, sentencias, notificaciones, denuncias, y demás instrumentos
juntos a los administradores y operadores de justicia conforman el
sistema, alejado de los sistemas de comunicación social cuyo
componente es la simbólica de comportamiento.
En cuyos discursos de penalidad tienen expresiones y redacciones de
acuerdo al periodo histórico del país. Para ofertar la dinámica social del
discurso de la penalidad, transcribimos textos con símbolos de mucho
significancia judicial y penal. Así, el presbítero Emiterio Retamozo,
párroco de Pocsi, certifica que la indígena Francisca Ticona, natural de
Usuña, se presenta en la parroquia después de presentarse ante el Juez
de Pocsi, manifestando que Julián Condori su esposo, la trataba con
mucha crueldad lo mismo a sus hijos legítimos, quedó con ceguera,
desfiguración de rostro y un puño cortado “sin darle alimentos, ni
vestido, ni querer darle los terrenos de propiedad de ella, por lo que
disfruta con la mujer que vive en adulterio”,21 los testigos confirmaron
los actos cometidos contra la esposa y los hijos, Julio Tamayo (testigo),
vio cómo intentó asesinarla no una sino varias veces, él quería hacerlo,
por ello lo trasladaron a Arequipa, mientras Julián Condori detenido en
la cárcel pública de Santa Marta, presenta escritos que aduce no haber
cometido homicidio frustrado, pide que sea liberado amparándose en el
Art. 20 de C. de E. P. “es prohibido que los conyugues se acusen
recíprocamente. Aduce que su esposa quiere quedarse con sus tierras
de Polobaya, pero Pedro Valencia hizo conocimiento al Juzgado que
“Julián Condori ha dejado de existir en el hospital de San Juan de Dios el
17 de diciembre de 1900 y su cadáver es exhumado dos días después”22
del reo, el informe precisa que fue atacado por el virus de tuberculosis
pulmonar,23 después del deceso quedó registrado entre las hojas de la
historia social de la justicia, cuyo significado se asocia al juicio
inconcluso por el deceso, a pesar que Julián apeló “que tiene
obligaciones de acusar en los delitos contra el honor. Los conyugues,
siendo el delito de adulterio de los especificados por el código penal
contra la honestidad y el honor”. Sin embargo, Pedro Valencia dejo
evidenciado que Julián Condori no ha fallecido, fue confundido con el
enjuiciado de la provincia de Caylloma, Aurelio Valero,24 por eso Julián
pide se decrete la apelación por haberlo considerado muerto por el
alcaide Pedro José Valencia.
Para el periodo, al que se refieren los datos, la autoridad, sea alcalde de
españoles o de indios, los gobernadores y jueces, utilizaron estrategia
diversas en la administración de justicia, por ejemplo si es joven el
acusado, tiene propiedades, sabe trabajar, o cumple con su palabra,
pues les hicieron los escritos de defensa o acusación con la finalidad
que las pertenencias de los acusados o defendidos queden
comprometidos al salir libre o encarcelado. Por último quedaron
comprometidos y endeudados de por vida e incluyó por generaciones
trabajaron las tierras, minas, obrajes y otros solo con el derecho de
alimentación y algunas veces con vivienda entre la propiedad del
administrador o vecino comprometido en el caso (nuevo tipo de
súbditos), es el caso de Pedro Valencia, alcaide que primero certifica e
informa del fallecimiento y exhumación de Julián Condori y luego de
verificarse de la equivocación con Aureliano Valero, pide su libertad por
ser declarado difunto, el mismo alcaide hace los escritos.25
Otro argumento encontramos en doña Nazaria Delgada, denuncia los
delitos de homicidio frustrado y lesiones graves cometidos a Fernando
Pacheco su hijo menor, que le dieron un botellazo en la cabeza las
acusadas María Mollo, Emilia Mollo y Justa Mollo.26 Caso similar,
Sabino Tapia, “vecino de Pampas Nuevas de Tiabaya, domiciliada en la
calle San Francisco N° 2, denuncia a Mateo Delgado, vecino de Tiabaya
por el delito de lesiones en la pérdida de un diente, en unión con su
camayo Dámaso Valdivia, le dieron de palos causando hinchazón en los
labios y la pérdida de un diente (…) cuando se dirigía la acequia nueva
de Pampas Nuevas” el argumento legal se sustenta en el art. 02 del
código penal, por ello pide la pena de cárcel;27 Rosa Quiroz de la calle
San Francisco N° 42 – 46 denuncia a doña Agueda Pinto y Agripina
Pinto por delito de violación de domicilio, lesiones perpetrados el 21,
diciembre, 1903; en el contradiscurso Agripina y Águeda Pinto la
acusan a Rosa Quiroz de haberlas asaltado cerca a su casa, fueron
tomadas del cabello, intentó ahorcarla la calificó de ladrona28 y de otras
cualidades que atentan a su moralidad. En el comparendo junto a su
abogado argumentaron “se condenan recíprocamente las penas que
pudieron merecer las acusadas. Se da por terminado el juicio,
solicitando su archivamiento. Se restablezca la amistad
comprometiéndose a no injuriar en lo sucesivo ni causar otro delito bajo
la pena de multa de 100 pesos”.29
Es el proceso de imputar conductas que viene después del análisis de
juridicidad, el miedo que provoca el sistema, y la sensación de que
“pasa nada”, genera espacios de imposición en el que no queda cabida
para hallar la justicia, es sólo una intención, a la manera de un eco que
se disipa en las profundidades de los cerros, que se ahoga en la lluvia, o
que simplemente brama y recorre las casas de los moradores como un
hermano sin encontrar posada en el despacho del Juez. De allí, se
producen esos procesos continuos-discontinuos de desenvolvimiento de
las relaciones que llegan hasta la modernidad, el abandono y la
superación de una explicación de las relaciones de dominio propia de
las ideologías de la sociedad moderna y el primer paso y punto de
partida para lograr una explicación más acorde con la nueva sociedad a
la que parece estamos abocados.
Considero que esta concepción es acorde a una situación de tránsito, de
alteración de estructuras sociales y contiene una serie de "ingredientes"
que la convierten en imprescindible para explicar el significado de la
culpabilidad y su posible alcance en la sociedad actual y para
posibilitar una profundización en sus premisas que permita
progresivamente ir adecuando la relación estado sancionador-persona a
la progresiva complejidad de las sociedades tecnológicas.
Se trata, en realidad, de aquellas condiciones fundamentales que para
Hart constituyen el "mínimum de derecho natural" que es necesario
reconocer. Admitir un criterio opuesto, implicaría caer en un exagerado
formalismo, los cuales deben encontrarse con una realidad
sociocultural.
A la manera de Marvin Harris,30 esta sociedad y cultura forman una
unidad, de manera tal que la nueva realidad puede dividirse en tres
elementos siguiendo la tripartición que se sigue del prefacio a la Crítica
de la Economía Política que propuso Marx, que es redefinida por Harris,
cuando distinguió entre “la estructura económica de la sociedad”, las
“superestructuras legal y política” y la “conciencia social”. Nos interesa
esta última parte por que cuando habla de aspectos mentales de la
cultura se refiere al “conjunto de los pensamientos y sentimientos de los
seres humanos experimentan mentalmente” mientras que cuando habla
de aspectos conductuales se refiere a las conductas de los individuos,
es decir a todos los “movimientos corporales de todos los seres
humanos del presente y del pasado y los efectos ambientales, grandes o
pequeños, producidos por tales movimientos”. Sucede que en el
discurso jurídico se proponen estos espacios de diferencia en la
conciencia además, agregados a los procesos complejos de
continuidades-discontinuidades de opresión y abuso, la palabra no se
respeta, la ley tampoco, aunque los discursos sigan diciendo que la ley
es racional, que un espíritu objeto ha insuflado de ciencia al derecho y
le ha dotado mágicamente de cualidades y métodos científicos, que son
lo mismo que la matemática y las otras ciencias duras. Pero a la par, en
los niveles de conciencia, en la verdadera complejidad, la conducta
demuestra otra cosa, esta es una cuestión fundamental para el derecho
porque no se decide con la conciencia, ni se estudia la conciencia de
quienes están sujetos a los impulsos omnipresentes del derecho.
La opresión, deja de lado este tema, para homogeneizarlo todo, las
penas, las formas de imputar, las formas de trato y hasta las
conciencias, todos somos iguales por la voluntad de la razón, así como
por la fuerza abrumadora de la Constitución.
Y no hay espacio para verse, a solas frente al espejo, casi para escuchar
el bullicio de la gente que pretende entrar al baño a verse también al
espejo, tampoco hay tiempo, los gritos ensordecedores, no hay tiempo
para arreglarse el cabello, limpiarse el sudor y ver las arrugas en el
rostro, y las marcas profundas en el rostro, a lo lejos sólo se percibe el
hedor. Creo que taparse la nariz no es la solución.
La episteme como experiencia, tiene al hombre por conocer, como
relación sujeto-mundo, un hombre a solas que no es uno sino es
pueblo, como experiencia radical del acontecer individual desde el
acontecer de otro hombre. Una episteme que parte de las
insatisfacciones y de las demandas, una forma de conocer la
enunciación de las necesidades. Una vieja filosofía de la praxis a partir
de la experiencia que plantea a cada instante una compleja relación con
el mundo, que tiene diferentes maneras de conocimiento, que no
preexiste, sino se construye en la relación.

Para concluir

El mundo jurídico desde la episteme de la relación.


No de una relación individual, del hombre con el mundo,
Sino de una relación colectiva del hombre como comunidad.
No es el hombre quien intenta conocer lo que está fuera de él
O lo que está dentro de él,
Es el hombre que discurre, el que camina por los senderos de la vida
Tratando de entender cada obstáculo de manera diferente

El hombre que replantea a cada instante,


Por cada una nueva forma,
No sólo su manera de actuar: su conducta y su inconsciente
Sino su manera de pensar: su ideología.

Quizá el tema fuerte para el derecho,


Es que no se hace lo que se piensa,
Se dice una cosa para los discursos, suenan como el fluir
De las aguas del manantial…
Pero las conductas son muy distintas, por que intervienen
Otros factores que enturbian las intenciones
Es el como el agua violentada de las profundidades del pozo
Oscura y remolínica.
Citas y Notas
_____________
1 MORIN, Edgar: Ciencia con conciencia, Barcelona, Anthopos, 1989, p. 108-109.
2 PRIGOGINE, Ilya: Entre el tiempo y la eternidad, Alianza Editorial, p. 31.
3 POPPER, Karl.: The Logic of Scientific Discovery, New York, Harper, p. 280.
4 SCORZA, Manuel: Garabombo el invisible. Monte Avila Editores, Caracas, 1977.
5 SCORZA, Manuel: El Jinete Insomne, Plaza & Janés S.A. Editores, Barcelona, 1984.
6 SCORZA, Manuel: Cantar de Agapito Robles, Monte Avila Editores, Caracas, 1977.
7 SCORZA, Manuel: La Tumba del Relámpago, Peisa, Lima, 1987.
8 Son las novelas: Redoble por Rancas, Garabombo el Insibile, el Jinete Insomne,

Cantar de Agapito Robles y la Tumba del Relámpago, que conforman una saga de
cinco episodios, intitulada: la guerra silenciosa.
9 Maca, personaje del Cantar de Agapito Robles, es la belleza también que seduce
hasta la perdición:
Esa hembra es capaz de pararle la pinga a los héroes que huevean en los monumentos,
desembarcó seguida de su corte de idiotas. Porque, predicando que ´los imbéciles y los
locos son los únicos hombres dignos de confianza. Maca recogía a todos los que
encontraba en los puertos, caseríos o caminos, y blasfematoriamente los bautizaba con
los apellidos de nuestros próceres. Así, a un enano que padecía la incurable costumbre
de robar caramelos, lo motejo General Prado. Un barrilito de grasa que arrastraba una
pierna resultó el General Balta. Dos cretinos de Chacayán ascendieron a General La
Mar y General Gamarra. Un retaco de cuello arbolado por el bocio acabó en el Mariscal
Ureta. Y no obstante mis súplicas, no hubo manera de cambiarle el apellido a un
estúpido que ella juramentó como el Presidente Piérola.
10 La inquisición y el proceso contra Juan Santos Reyes (1728-1750): Descifrando el

por qué de los hechos. En Pasiones y desencuentros en la cultura andina, Fondo


Editorial del Congreso del Perú, Hiroyasu Tomoeda y Luis Millones compiladores,
Lima, 2005.
11 Ibídem., pp. 76-77.
12 Ibídem., p. 78.
*3 Ibídem., p 80.
14 Ibídem., p. 80.
15 Ibídem., p. 82.
16 ARAR. Intendencia: Causas Criminales 1810 – 1815. Expediente 14 mayo 1812.
17 Reclamaron sus derechos por la vía legal e incluso por la fuerza o la violencia si no

fueron atendidos, véase la Rebelión de los Pasquines de Guillermo Galdos Rodríguez.


18 Op. Cit.
19 ARAR. Intendencia Causas Criminales 1807 – 1809. 7 octubre 1807.
20 ARAR. Intendencia Causas Criminales 1807 – 1809. Moquegua 23 junio 1807.
21 ARAR. Corte Superior de Justicia, Causas Criminales. 16 enero, 1900, Leg. N° 01, f.

16.
22 ARAR. Corte Superior de Justicia, Causas Criminales, 17 diciembre 1900, Leg. N°

01, f. 20.
23 Ibídem., Leg. N° 01, f. 22, 22, mayo, 1900.
24 Ibídem, 23, marzo, 1900. Leg. N° 01, f. 24.
25 ARAR. Corte Superior de Justicia, Causas Criminales, 22 - 28, marzo 1900. Leg. N°

01, fs. 23-24.


26 ARAR. Corte Superior de Justicia, Causas Criminales, 24, octubre, 1900. Leg. N°

05, f. 1.
27 ARAR. Corte Superior de Justicia, Causas Criminales, 01, marzo, 1901. Leg. N° 06,

f. 1.
28 Ibídem., 29, diciembre, 1902. Leg. 11, f.3.
29 Ibídem., 09, enero, 1903. Leg. 11, f. 8.
30 RIVAYA, Benjamín: El materialismo jurídico, la presunta teoría del Derecho de Marvin

Harris, Dikinson, Madrid, 2007, p. 37.


Bibliografía
_____________
ARAR. Intendencia Causas Criminales 1807 – 1809. Moquegua 23 junio 1807.
ARAR. Intendencia: Causas Criminales 1810 – 1815. Expediente 14 mayo 1812.
ARAR: Intendencia Causas Criminales 1807 – 1809. 7 octubre 1807.
ARAR. Corte Superior de Justicia, Causas Criminales. 16 enero, 1900, Leg. N° 01, f.
16.
ARAR. Corte Superior de Justicia, Causas Criminales, 17 diciembre 1900, Leg. N° 01,
f. 20.
ARAR. Corte Superior de Justicia, Causas Criminales, 22 - 28, marzo 1900. Leg. N°
01, fs. 23-24.
ARAR. Corte Superior de Justicia, Causas Criminales, 24, octubre, 1900. Leg. N° 05, f.
1.
ARAR. Corte Superior de Justicia, Causas Criminales, 01, marzo, 1901. Leg. N° 06, f.
1.
SCORZA, Manuel: Garabombo el invisible, Monte Avila Editores, Caracas, 1977.
SCORZA, Manuel: El Jinete Insomne, Plaza & Janés S.A. Editores, Barcelona, 1984.
SCORZA, Manuel: Cantar de Agapito Robles, Monte Avila Editores, Caracas, 1977.
SCORZA, Manuel: La Tumba del Relámpago, Peisa, Lima, 1987.
GLASS-COFFIN, Bonnie y Juan Castañeda Murga: La inquisición y el proceso contra
Juan Reyes, Santos (1728-1750): Descifrando el porqué de los hechos. En Pasiones y
desencuentros en la cultura andina, Fondo Editorial del Congreso del Perú, Hiroyasu
Tomoeda y Luis Millones compiladores, Lima, 2005.
GALDOS Rodríguez, Guillermo: La Rebelión de los Pasquines, Editorial Universitaria
de Arequipa, 1967.
MORIN, Edgar: Ciencia con conciencia, Barcelona, Anthopos, 1989.
PRIGOGINE, Ilya.: Entre el tiempo y la eternidad, Alianza Editorial, Madrid.
POPPER, Karl: The Logic of Scientific Discovery, New York, Harper.
RIVAYA, Benjamín: El materialismo jurídico, la presunta teoría del Derecho de Marvin,
HARRIS, Dikinson: Madrid, 2007.
NECESIDAD DE UN MARCO EPISTÉMICO Y NUEVOS
PLANTEAMIENTOS PARA LA ENSEÑANZA DE LA
MATEMÁTICA

Carlos Silva Córdova*

Introducción

Seguramente enseñar matemática es algo sencillo, ¿o no lo es?. Son


muchas las variables que se combinan y que hacen que la enseñanza y
el aprendizaje de la matemática sea algo bastante más complejo. Esta
complejidad en el momento actual representa un reto mucho mayor que
el que vivimos los educadores en el pasado, y genera sentimientos
negativos y encontrados entre el profesorado y sus educandos.
En particular, esa nueva complejidad tiene que ver con:

• La necesidad de relacionar la educación con el nuevo contexto


educativo global.
• La diversidad del estudiantado, de sus expectativas y de sus
aspiraciones.
• Las presiones de otros campos de conocimiento para que la
matemática sea más relevante según sus necesidades.
• Las presiones económicas sobre la educación, especialmente para
que se forme a los jóvenes para el trabajo y para los estudios
superiores.
• Las presiones de la nueva tecnología y de la comunicación y de la
información.
• Los aspectos políticos vinculados al currículo de educación
matemática y a la decisión de que a quien va a corresponder la
responsabilidad de diseño e implementación del mismo.
• Con la enseñanza de la matemática que se desarrolla en las
aulas, ocurre lo mismo que con cualquier otra disciplina: depende
*
Doctor en Didáctica de las Ciencias de la Educación, Universidad de Playa Ancha,
Valparaíso, Chile.
de un gran número de factores desde el diseño y la formulación
de un currículo general hasta la enseñanza efectiva de cada
profesora o profesor. En los países latinoamericanos se han
tomado un gran número de decisiones y se han realizado
múltiples actuaciones a distintos niveles correspondiendo estas a
la sociedad, a las diversas instituciones y personas implicadas
en el proceso. Decisiones y actuaciones que están enmarcadas en
un contexto cultural y que tienen lugar a nivel social institucional
y pedagógico, ya que tienen influencia en el resultado final del
aprendizaje de los educandos, determinado también por sus
características individuales su contexto socio cultural, sus
expectativas y creencias acerca de la matemática.
• Hace algunos años atrás se hicieron públicas algunas de las
conclusiones del informe PISA, sobre el rendimiento escolar de
estudiantes de quince años en cincuenta países, siendo una de
ellas que los estudiantes memorizan bien lo aprendido pero fallan
al transferir conocimiento hacia la resolución de problemas.1 Las
sucesivas reformas educativas, a los ojos de muchos especialistas
son unos buenos ejemplos de lo que debe hacerse para combatir
el fracaso escolar. Una de las medidas adaptadas para este fin ha
sido la de simplificar las materias y reducir, los contenidos a
memorizar, pero el resultado no fue el deseado: los estudiantes
han dejado de esforzarse ya que pueden progresar a lo largo de
los cursos con el mínimo esfuerzo y se han ajustado a esa idea y
por lo tanto, ahora ya los jóvenes ni siquiera reconocen como un
deber propio el esforzarse en sus conocimientos. Así los esfuerzos
por mejorar el rendimiento estudiantil fracasan por la falta de
motivación tanto de los estudiantes como de los profesores.
Por otro lado, el incierto mundo laboral que ven los estudiantes al
terminar con éxito sus estudios no le garantiza una plaza de trabajo
segura y digna en su especialidad, tanto en el desarrollo sustentable de
la educación como en las otras fuentes laborales. ¿Cuántos
profesionales titulados están ejerciendo como tales en Chile?. La
educación universitaria en esta época -tanto por modelo general de esta
república (constitución en dictadura, leyes que rigen todos los aspectos
del país específicamente en educación) como el sistema globalizado del
mercado- indica que el valor de la educación especializada no tiene la
garantía de años anteriores.
Las reformas educativas actuales pretenden reconducir esta situación y
de explicitar todos los elementos del currículo, donde las capacidades y
valores actúan como objetivos y contenidos (formas de saber) y
métodos-procedimientos (formas de hacer) como medios. No cabe duda
que esto es en teoría, ya que la práctica se siguen haciendo actividades
para aprender contenidos, que de hecho actúan como fines y objetivos.
En la actualidad las tendencias de la enseñanza se orientan al
fortalecimiento de competencias, conocimientos y valores
fundamentales para aprender. Tales tendencias identifican los avances
tecnológicos como un valioso recurso capaz de acompañar a la
enseñanza de distintos contenidos en cualquier etapa educativa, lo que
indiscutiblemente reclama una revolución tanto en la investigación
como en la docencia universitaria, para poder aprovechar las
potencialidades que nos ofrecen la computación y los recursos de la
Internet y la evolución que ha experimentado el software matemático en
los últimos años, nos ofrece nuevas formas de enseñar aprender y hacer
matemática. En universidades europeas y sudamericanas es conocida,
sin embargo, en nuestro país aun no se han desarrollado cambios
significativos en las didácticas de las asignaturas que permitan hacer
eficiente su utilización tanto en la docencia como en la investigación
educativa. Para que esto sea posible es necesario que el proceso de
innovación parta no solo del incremento productivo de estudiantes y
profesores, sino también de la implementación de los recursos
didácticos que permitan la difusión y discusión de conocimientos
experiencias cognitivas y metacognitivas.
Si bien es cierto que, en un modelo de aprendizaje, interactúan
profesores ya estudiantes, la definición de los roles, tanto de unos como
de los otros, determina la naturaleza del modelo. En la perspectiva de
establecer un modelo metacognitivo, es decisivo definir los roles,
permitiendo con esto que los procesos de aprendizaje sean cada vez
más asumidos por los estudiantes; el rol de los docentes radicaría en
favorecer este tipo de aprendizaje.
En este sentido, los estudiantes tendrían los siguientes objetivos, dentro
del modelo de instrucción metacognitivo:2

• Incrementar la conciencia de la naturaleza y propósitos de las


tareas;
• aumentar el control sobre el aprendizaje a través de una toma de
decisiones más efectiva y consciente;
• desarrollar una actitud más favorable hacia el aprendizaje;
• desarrollar estándares más altos de confianza para entender y
actuar, junto con una mejor autoevaluación de sus logros;
• preocuparse por acrecentar sus conocimientos sobre los
elementos de la metacognición (planificación, monitoreo, control y
evaluación);
• aumentar la conciencia de sus propios estilos de aprendizaje;
• favorecer, cada vez más, un aprendizaje independiente, no sujeto
a la normalidad de los tiempos y espacios escolares, que se
constituye en una actividad permanente.

En cuanto al profesor, los principales objetivos que deben animar su


trabajo como educador son:

• Asumir la responsabilidad que le corresponde en el proceso


educativo, principalmente cuando ha decidido respecto a los
objetivos esperados;
• preocuparse por desarrollar la toma de conciencia y
entendimiento de los procesos de aprendizaje de sus alumnos;
• asumir una actitud favorable hacia el proceso metacognitivo y
buscar permanentemente que el alumno sea responsable por el
desarrollo del control de su propio aprendizaje;
• adoptar mecanismos que permitan la toma del control del
aprendizaje por parte del alumno en el aula de clase.3

No obstante, a pesar de que gran parte de la investigación


metacognitiva se ha enfocado hacia los anteriores objetivos, tanto para
estudiantes como para profesores, una conclusión que sobresale en
estas investigaciones es que los cambios en los procesos de aprendizaje
de los estudiantes, desde la perspectiva metacognitiva, deben
involucrar, sin lugar a dudas, cambios en las actitudes, percepciones, y
concepciones y habilidades de los profesores.4
A partir del año dos mil, año mundial de la matemática, decretado por
la UNESCO, a petición de la UMI (Unión Matemática Internacional) se
ha contribuido a la reflexión sobre la enseñanza de la matemática en
nuestro país a través de un conjunto de aportes diversos tanto por su
ámbito como por su procedencia. Dichas contribuciones de distintos
autores inciden con intensidad diferente en los ámbitos mencionados
anteriormente -sociales, culturales, institucionales, pedagógicos e
individuales- aportando ideas, interrogantes y posibles soluciones a la
problemática de la educación matemática.
La educación matemática en Chile, durante el Siglo XX desde los años
setenta hasta los noventa, período en el cual se promulgó en la mayoría
de los países Leyes Orgánicas de Educación, algunas de ellas,
discutidas y en otras simplemente decretadas -como el caso de nuestro
medio, en el cual la ley fue impuesta por una dictadura- existe
unanimidad en considerar la necesidad de reformar lo reformado, es
decir una contra-reforma, principalmente por esa implantación
discutible, tanto por la medidas administrativas, legales y económicas,
donde la falta de recursos dedicados a la educación y especialmente a la
formación profesional, quedaron claramente relevados.
En relación, con la enseñanza de la matemática y en concreto con los
currículos para las diferentes etapas, las reformas han estado
claramente marcadas, por la introducción de la llamada matemática
moderna, que tuvo un fuerte impacto tanto en la Educación Básica
como Secundaria. Aquí, en relación con los contenidos, estos currículos
redujeron, drásticamente los temas relacionados con la Geometría e
introdujeron el lenguaje conjuntista, así como el tratamiento de las
estructuras algebraicas y la construcción formal de conjuntos
numéricos. La parte correspondiente al aprendizaje de algoritmos de
cálculo, así como la introducción al álgebra, ha seguido desarrollándose
de manera parecida a como se hacía anteriormente, a pesar de los
intentos por racionalizar estos contenidos, con la consiguiente
discusión sobre el nivel de compresión necesario para entender tanto el
significado de la operación como el funcionamiento del propio algoritmo
establecido. Ante la dificultad de enseñar conceptos geométricos
abstractos, los docentes tenían como alternativas la reducción de la
Geometría a los aspectos de cuantificación (cálculo de superficie,
volúmenes y medidas de ángulos) o relegando estos temas geométricos y
perpetuando un círculo vicioso: difícilmente se ve la Geometría como
instrumento para la visualización y representación, tanto de los
conceptos matemáticos de origen no visual, como los del mundo real en
tres dimensiones. La resolución de problemas, era y sigue siendo
considerada como una cuestión menor, que se reduce a problemas
estandarizados y que se trabaja sólo como una simple aplicación de las
técnicas enseñadas, siendo estas aritméticas o algebraicas, lo cual
conlleva al alumno a clasificar el problema y posteriormente aplicar la
técnica de resolución correspondiente.
Podemos afirmar que la necesidad de reformar lo reformado o la
instauración de una contra-reforma- con criterios epistémicos nuevos
más acordes a la realidad contemporánea, está siendo compartido por
todos y que las expectativas iniciales son muchas, entendiendo que
siempre habrán opiniones discrepantes. Sin embargo, la lentitud en su
puesta en marcha, argumentada inicialmente en términos de
racionalidad, pero debido, en gran parte a problemas económicos y
logísticos, la falta de recursos y la insuficiente e inadecuada dedicación
a la formación del profesorado, que debería ser el auténtico artífice de
esta reforma.
En relación con el currículo oficial cabe destacar, por una parte, su
estructura, común a todas las áreas, que contempla para cada etapa
unos objetivos generales globales y luego, para cada área, unos
objetivos generales del área, como también unos contenidos,
organizados en contenidos conceptuales, procedimentales y
actitudinales, y unas orientaciones didácticas. Este aspecto constituye
uno de los problemas principales de la reforma actual, puesto que, para
poder realizar esta tarea de manera satisfactoria, es necesario un
trabajo coordinado de todos los profesores de un centro educativo y, al
mismo tiempo, la posibilidad de recibir una formación permanente
adecuada. Esto nos lleva a la reflexión de la importancia que tiene la
formación permanente de los docentes y en especial a la comprensión
que deben tener éstos de la ciencia. Es fundamental, por tanto que el
Ministerio y las Universidades realicen actividades y programas de
formación permanente más específicos, con claras tendencias
vinculadas a una epistemología racionalista que ayuden al profesorado,
y que vayan desde la interpretación del currículo hasta los cambios
metodológicos necesarios para la implementación real en las aulas.
Considerando estos aspectos concretos en Educación Matemática se
debe destacar la necesidad de enfatizar –en Educación Parvularia,
Básica y Media- un equilibrio en el tratamiento del cálculo mental y las
diferentes representaciones del número; por ejemplo replicando los
estudios de la cognición infantil señalados por la epistemología
constructivista piagetana. Además, la reintroducción de la Geometría,
con un carácter constructivo y en especial con un marco conceptual
didáctico abierto a los nuevos paradigmas, para que los profesores
puedan seleccionar los conceptos claves dignos de enseñar.
Normalmente, se establecen índices de fracasos elevado en la
asignatura de matemática en los distintos niveles, básico, media y
superior y por otra parte –repercusión del sistema neoliberal- el número
de horas dedicadas a esta materia ha sido reducido. Este conjunto de
circunstancias puede dificultar una buena implementación de un nuevo
currículo y puede dar la sensación de que lo único que va a suceder es
que el nivel de los contenidos conceptuales va a disminuir
drásticamente respecto a la situación anterior, interpretación que puede
comprometer el éxito de cualquiera sea la nueva reforma. Se debe
implementar –aunque de manera experimental- cursos de adaptación
pedagógica en las distintas áreas, complementándose a las evaluaciones
docentes.

• La toma de decisiones de quien aprende determina si se da o no


se da el aprendizaje.
• El aprendizaje no es gratuito ni se da espontáneamente: quien
aprende debe efectuar un trabajo para aprender
significativamente, lo mismo que para desaprender una
concepción.5
• El aprendizaje es el resultado de una acción voluntaria por parte
de quien aprende. Esta toma de decisión está fuertemente
influenciada por el contexto, es decir, por las interpretaciones y
percepciones previamente existentes en el individuo.
• El incremento en la toma de conciencia de quien aprende, sobre
la naturaleza y los procesos involucrados en el aprendizaje,
permite el cambio de las actitudes hacia el conocimiento, lo
mismo que de los procedimientos utilizados en el aprendizaje.
• Quien aprende, frecuentemente, no es consciente de sus
carencias, tanto en el plano conceptual como en el de las
habilidades de aprendizaje.

Cada una de las anteriores cinco afirmaciones sobre el aprendizaje está


relacionada con la metacognición: el conocimiento, el monitoreo, el
control y la evaluación del propio aprendizaje. Con el fin de introducir la
metacognición dentro de lo esbozado aquí, es posible plantear tres
niveles para el aprendizaje.6 En un primer nivel se encuentra el
procesamiento de la información; en una segunda instancia esta la
evaluación de este procesamiento, y en tercer lugar se ubica la toma de
decisiones con respecto al conocimiento.7 El monitoreo y el control, dos
aspectos de la metacognición, comprenden los resultados de los dos
últimos niveles y se concentran en la aplicación consciente de las
estrategias cognitivas particulares. Las estrategias cognitivas son
concebidas como habilidades que permiten la exploración de muchos
tipos de información, no solamente de carácter técnico ni limitadas a
ciertas áreas del conocimiento.
Dependiendo del nivel de conciencia del aprendizaje, es posible
caracterizar las estrategias cognitivas, pero estas estrategias no pueden
ser aleatorias o difusas, deben estar en correlato con un paradigma o
epistemología al servicio de la educación matemática. Si el aprendizaje
es un proceso con un bajo nivel de conciencia, se está hablando del
primer nivel del aprendizaje (el procesamiento); ejemplos de estas
estrategias tienen que ver con los procedimientos para ganar acceso a la
memoria, buscar y recuperar información, fraccionar la información con
un criterio espacial, semántico o afectivo; mantener fracciones de
información en la memoria de trabajo y manipularla, y aplicar reglas
automáticas o de inferencia. Si se trata de niveles que implican una
mayor conciencia (monitoreo y control), el tipo de estrategias debe ser
de corte evaluativo: formas de valorar, apreciar, establecer, identificar y
chequear el conocimiento. En este modelo, la enseñanza está
determinada por el contenido y el contexto, los cuales interactúan entre
sí. El procesamiento activo involucra el trabajo del aprendiz en la
dirección de hacer significativa la enseñanza. La conciencia del aprendiz
incluye un reconocimiento de la naturaleza y los procesos de
aprendizaje, así como de los estilos personales de aprendizaje y sus
deficiencias particulares.8 De esta manera, el aprendiz controla,
mediante evaluaciones y autoevaluaciones conscientes, la toma de
decisiones sobre el aprendizaje efectivo.
En esta perspectiva invito a los lectores a reflexionar sobre la situación
de la educación en nuestro país, en especial en estos momentos de
crisis y de demandas estudiantiles, y que a la vez anticipe una visión de
los retos planteados para el futuro. Ello requiere tanto considerar una
perspectiva que aúne una óptica tanto internacional como nacional,
cuanto un sólido marco epistémico. Miremos el futuro sin perder el
pasado, construyamos la modernidad sin perder la tradición, la
sociedad de hoy no es la de ayer y la educación exige la actualización y
modernización necesaria. Una nueva sociedad reclama una nueva
cultura escolar y profesional, la nueva sociedad del conocimiento desea
un nuevo paradigma socio-cognitivo. En este sentido, los académicos
podemos contribuir a clarificar los problemas planteados en relación
con la Educación Matemática de los jóvenes, considerando las
exigencias epistémicas, ministeriales y educacionales, propias del
momento actual, y actuar así con visión de futuro, o al menos,
contribuir a la discusión de ideas relacionadas con la enseñanza de la
matemática. Lo anterior, posibilitará profundizar y refundar la
Universidad y sus perfiles profesionales, y también la formación inicial y
permanente, especialmente del profesorado.

Citas y Notas
_____________________
1 Cfr. ESCUDERO, J.M.: La Reforma de la Reforma. ¿Qué calidad y para quienes?.
Barcelona. Paidós, 2002.
2 Cfr. SILVA, C: Metacognición: “Aprendizaje en las matemáticas. Congreso de

Pedagogía”. Cuba, 1999.


3 Cfr. TEBAR, L.: El perfil del profesor mediador. Madrid. Santillana, 2003
4 SILVA, C.: Educación matemática y procesos metacognitivos en el aprendizaje. Revista

Ulsa, México, 2006.


5SILVA, C: Metacognición: “Aprendizaje en las matemáticas. Congreso de Pedagogía”99.

Cuba.1999ª.
6 Ibídem.
8 CRUZ GONZÁLEZ, C.: El uso de estrategias metacognitivas en la enseñanza de la

matemática. Serie Estudios en Educación Matemática. Sociedad Chilena de Educación


Matemática. (Nº 1), 1995, pp. 1-19.
7 Cfr. SOTO, C.: Metacognición, cambio conceptual y enseñanza de las ciencias. Bogota.

Didácticas Magisterio, 2002.


8 CRUZ GONZÁLEZ, C.: Op. Cit. pp. 1-19.

Bibliografía
___________
COLL, C.:POZO,I.: SARABIA,B..:VALLS.E. (1992): Enseñanza y aprendizaje de
conceptos, procedimientos y actitudes. Madrid. Aula. XXI/ Santillana.
VYGOTSKY, L. S. (1995): Obras escogidas III. Visor. Editorial Pedagógica. Moscú
/Madrid.
SILVA, C. (1999b): Variables metacognitivas en el aprendizaje matemático. Memorias
de la V Conferencia Internacional de Ciencias de la Educación. Camagüey – CGI/CD
ROM. Cuba.
SILVA, C. (2004): Variables metacognitivas en el aprendizaje. V Congreso Internacional
de la Docencia en el Perú. Huancayo 2004.
DUELL, O. K. (1986): Metacognitive skills. En Phye, G. D. Y Andre, T. (editores),
Cognitive classroom learning: understanding, thinking and problem solving. New York:
Academic Press.
FLAVELL, J. H. (1979): Metacognition and cognitive monitoring: a new area of
cognitive developmental inquiry. American Psychologist, 34 (90-911).
FEUERSTEIN, R. y HOFFMAN, M.B. (1995): Programa de enriquecimiento
instrumental. Madrid. Bruño.
HERRERA, R. (2004): Formación profesional en las universidades chilenas: Desafíos y
oportunidades. Cinda.
LAVAL, C (2004): La escuela no es una empresa. El ataque neoliberal a la enseñanza
pública. Barcelona. Paidos.
ROMÁN, M. y DIEZ, E. (2001): Diseños curriculares de aula. Un modelo aprendizaje-
enseñanza. Buenos Aires. Novedades Educativas.
ROMÁN, M. (2004): Sociedad del conocimiento y refundación de la escuela desde el
aula. Madrid. Indepa.

También podría gustarte