TEMA 2.
ENFOQUES TEÓRICOS
ACTUALES EN EL ESTUDIO DEL
DESARROLLO
ALBA M. A DESARROLLO II 1º
CUATRIMESTRE
2020
1. Introducción
Gracias a las aportaciones de Piaget y Vygotski, la perspectiva evolutiva se ha convertido en
un componente básico de la psicología; la cual, resalta que la comprensión de los procesos
psicológicos implica el análisis de su trasformación y cambio a lo largo del desarrollo.
Pero existe otro enfoque teórico básico en la psicología evolutiva del siglo XX, el enfoque
computacional; este tiene su origen en una perspectiva psicológica más general para
comprender y explicar la conducta humana y trata de establecer los propósitos y mecanismos
precisos que utiliza la mente. Representado por las teorías del procesamiento de la
información; las cuales han permitido la aparición de las teorías neopiagetianas que utilizan las
herramientas conceptuales del enfoque computacional al mismo tiempo que mantienen una
concepción piagetiana (postula la existencia de estadios).
Finalmente estudiaremos el conexionismo, perspectiva computacional, con una concepción
dinámica del aprendizaje y el desarrollo.
2. Las Teorías Simbólicas del Procesamiento de la Información.
2.1. Origen y Conceptos Básicos.
El origen del enfoque computacional está en los cambios que se producen a partir de los
años 50 dentro de la psicología norteamericana, hasta entonces dominada por el conductismo.
A partir de la segunda guerra mundial, se produjeron desarrollos científicos y tecnológicos
convergentes que, en la segunda mitad de la década de los 50, facilitaron la llamada
revolución cognitiva (Gardner, 1985). Aquí cabe destacar las aportaciones de Claude Shannon
con su teoría matemática de la información en la comunicación, y de Norbert Wiener con el
desarrollo del estudio de los sistemas de autorregulación y la aparición de la cibernética. Estas
contribuciones tecnológicas surgían gracias a los trabajos de autores como Alan Turing y Von
Neumann: Turing ya en los años 30 propuso la noción de una máquina simple, capaz de
realizar cualquier tipo de cálculo siempre que contara con una memoria ilimitada; de esta
manera, la máquina de Turing* se convirtió en el modelo teórico básico de los ordenadores, ya
que todo lo que puede ser computado por un programa de ordenador, puede serlo también
por la máquina de Turing. Este matemático inglés formuló, además, por vez primera la idea de
que la mente humana podía ser considerada como un dispositivo computacional, al considerar
únicamente los rasgos funcionales, lógicos, de la estructura del cerebro y no su base
fisiológica. Por su parte, Von Neumann formuló la idea de un programa almacenado en el
ordenador, lo que facilitó la construcción del primer computador digital a principios de los
años 50.
Hay que resaltar también que ya en los albores de la teoría computacional, podemos
encontrar el antecedente directo de los modelos conexionistas. Así, McCulloch y Pitts (1943)
demostraron que unos modelos lógicos llamados «redes neuronales», que recogían
analógicamente algunas de las características distintivas del funcionamiento del cerebro
humano, poseían las mismas propiedades computacionales que la máquina de Turing.
Por otra parte, Noam Chomsky: desde el campo de la lingüística, en la 2ª mitad de los años
50, sus trabajos sobre las gramáticas generativas supusieron una ruptura con la situación
anterior ya que mostraron la incapacidad de las gramáticas probabilísticas para dar cuenta de
la complejidad del lenguaje humano. En su crítica del libro de Skinner, “Verbal Behavior”,
Chomsky sostenía que las concepciones conductistas de su autor eran incapaces de dar cuenta
de la “creatividad lingüística” (capacidad de producir y comprender oraciones no escuchadas
nunca anteriormente) y menos aún de explicar cómo los niños pueden adquirir el lenguaje
mediante leyes asociativas. Estas críticas a las concepciones conductistas se unían a la propia
psicología asociacionista, que sostenían que se había simplificado demasiado el campo de
estudio de la psicología, y que la denostada «caja negra» y, en particular, la mente, la
conciencia y el pensamiento formaban parte inexcusable de la psicología. De esta manera, la
revolución cognitiva y el nuevo enfoque del procesamiento de información, a pesar de que
suponían una ruptura con el conductismo, mantenían una cierta continuidad con él.
Así, a finales de los años 50, los primeros estudios de la psicología cognitiva, pusieron de
manifiesto 2 características interrelacionadas del sistema humano de procesamiento de
información: su carácter limitado y estratégico. George Miller en su artículo, “El Mágico
número 7, más o menos 2”, mostró las limitaciones de nuestro sistema de procesamiento, al
establecer el número máximo de elementos que pueden ser procesados al mismo tiempo. A
esta limitación en la capacidad del almacén o MCP, se le une la limitación en la velocidad de
procesamiento propia de las conexiones nerviosas. Por su parte, Jerry Bruner comprobó el
carácter estratégico de la conducta humana de solución de problemas, mediante la cual el
sujeto trata de superar las limitaciones de capacidad como de velocidad de su sistema de
procesamiento, pudiendo dar respuestas suficientemente rápidas y probablemente acertadas
en situaciones cognitivamente complejas.
Tenemos, por tanto, que el enfoque computacional concibe al ser humano como un sistema
cognitivo, específico, con limitaciones y características peculiares, que es capaz de codificar,
almacenar y recuperar información. Por decirlo en términos de George Miller (1984) los
seres humanos pertenecemos a la clase de los “informávoros”, clase en la que se incluyen
también los ordenadores y que está caracterizada por la capacidad y necesidad de consumir,
procesar información. Según este enfoque, la información que proviene del medio es
transformada y convertida en símbolos o representaciones que después serán manipuladas.
La actuación de los seres humanos no es una reacción a los estímulos de la realidad, sino que
surge de las representaciones que construimos y es fruto de la manipulación de las mismas.
El establecimiento de una teoría general sobre el sistema humano de procesamiento de
información fue posible gracias a Simon y Newell (fundadores del campo de la inteligencia
artificial), mostraron que la inteligencia humana podía ser estudiada desde una perspectiva
funcional y no fisiológica, mediante el análisis de los heurísticos* (son lo contrario de
algoritmo) o estrategias* que usan los sujetos en la resolución de problemas. Para ello usaron
la simulación computacional.
-Heurístico*: Procedimiento mental para resolver problemas que puede llevar a error (atajos).
-Algoritmo*: Cálculo sistemático con una secuencia de operaciones. Operaciones cognitivas
elementales que transforman información de entrada en información de salida.
-Estrategia*: Conjunto ordenado de acciones conscientes tendentes a la consecución de un
fin determinado.
El concepto de “Estadio” según Herbert Simon: implica que nos enfrentemos con un sistema
dinámico que experimenta cambios regulares a través del tiempo. La teoría de la transición de
un estadio al siguiente tendría 2 partes:
1. Un programa para describir la actuación en un estadio particular.
2. Un programa de aprendizaje que gobierne la transición de un estadio a otro.
El enfoque computacional plantea desde sus inicios la importancia de la formulación de las
teorías en forma de modelos computacionales que permitan simular la actuación de los
sujetos.
Simulación computacional: elaboración de modelos formales precisos acerca de un
determinado fenómeno en estudio, para poder implementarse con un programa de
ordenador.
Objetivo: representar las características esenciales del fenómeno y estudiar su
comportamiento bajo distintas condiciones simuladas a través del programa computacional.
Contribuyen a la validación racional de las teorías, en la medida en que tienden a asegurar su
coherencia interna y lógica.
2.2. Los Sistemas de Producciones.
Klahr (1984) ha postulado una estructura cognoscitiva caracterizada mediante un
formalismo propuesto por Newell y Simon que son los sistemas de producciones. Según su
teoría, la estructura cognitiva básica no cambia con la edad, sino que se producen
únicamente cambios cuantitativos que se explican mediante la capacidad de auto-
modificación del propio sistema. Una producción es una regla condición-acción: a partir del
cumplimiento de una determinada condición establece la realización de una acción
determinada. Un sistema de producciones actúa mediante el ciclo reconocer-actuar:
1. Mediante el reconocimiento: se comparan las condiciones de las producciones con el
estado vigente de conocimiento del sistema, si se cumplen todos los elementos de la
condiciónde una producción, entonces se enciende la producción y se produce la acción
prevista.
2. Mediante la acción: se puede modificar el estado de conocimiento del sistema añadiendo,
eliminando o cambiando elementos existentes. Las acciones pueden ser interacciones
perceptivas o motoras con el ambiente.
De esta manera, se puede describir en forma precisa y simular la conducta de los niños en
tareas como la balanza. Una descripción de los resultados encontrados en la tarea de la
balanza por Inhelder y Piaget (1955), así como de la explicación ofrecida por Klahr y Siegler
(1978) que sirvió de base a la simulación computacional mediante las reglas de producción*.
Regla de producción: formalismo computacional que sirve para dar cuenta del estado de
conocimiento de un sistema. Son reglas condición-acción que pueden auto-modificarse para
dar cuenta el desarrollo.
Descripción y Resultados Evolutivos en la Tarea de la Balanza
Los niños tienen que predecir el comportamiento
de la balanza en función de los pesos que se colocan
en cada brazo y la distancia a la que están colocados
del fulcro o punto de apoyo. Deben decir si se
inclinará un brazo u otro de la balanza, o se
mantendrá en equilibrio, y explicar su respuesta.
Inhelder y Piaget utilizaron esta tarea para comprobar
los cambios que se producen en el pensamiento entre
los 5 y los 15 años, desde el pensamiento
preoperatorio, pasando por el pensamiento
operatorio concreto, hasta el período de las operaciones formales. A los niños se les muestra
un aparato que consta de una balanza de 2 brazos con pivotes colocados a lo largo de los
brazos a intervalos iguales. En la balanza se pueden colocar de 0 a 4 discos de igual peso, a 4
distancias diferentes del fulcro en cada brazo. Según la teoría piagetiana:
1. Los niños de 5 años muestran un conocimiento rudimentario del problema, siendo capaces
de lograr el equilibrio de la balanza, en forma no sistemática, mediante la colocación de pesos
iguales en ambos lados de la balanza.
2. A los 10 años, en el período operatorio concreto, buscan ya el equilibrio igualando dos
pesos desiguales mediante su colocación a diferentes distancias del fulcro.
3. A partir de los 12 años, en el inicio del estadio formal, los niños descubren la ley de la
balanza a través del cálculo del producto de los pesos por las distancias.
Basándose en las descripciones de Inhelder y Piaget y tras un cuidadoso análisis de la tarea,
Siegler y Klahr propusieron la existencia de 4 reglas o modelos diferentes:
Modelo I: Los niños basan sus juicios únicamente en el nº de pesos a cada lado del fulcro. Si
es el mismo en los 2 lados los niños dirán que la balanza se equilibrará; si no es el mismo dirán
que el lado con más peso bajará
Modelo II: Los niños realizan sus juicios basándose en el nº de pesos si este es distinto en
cada lado, pero si el nº de pesos es igual, tendrán en cuenta las distancias de los pesos al
fulcro.
Modelo III: Los niños juzgan siempre el nº de pesos y la distancia al fulcro. Responderán
correctamente con consistencia cuando los pesos, las distancias, o ambos son iguales en los 2
lados del fulcro. Sin embargo, en las situaciones en las que uno de los lados tiene más peso y
el peso al otro lado está situado a mayor distancia del fulcro, los niños responderán al azar.
Modelo IV: Los niños que utilizan este Modelo siempre toman en cuenta ambas dimensiones
(peso y distancia), utilizan la fórmula de la suma de los productos cruzados cuando uno de los
lados tiene más peso y el otro más distancia: y, por tanto, resolverán todos los tipos de
problemas correctamente.
A partir del análisis de los cambios evolutivos en la actuación infantil con la tarea de la
balanza, Klahr propone un sistema de producciones que simula el desarrollo siguiendo la
propuesta de Simón: en cada momento evolutivo concreto, correspondiente a cada uno de
los modelos, existe un conjunto de producciones que describen la actuación en ese estadio;
existen también mecanismos automodificadores que permiten el paso de un modelo o
estadio a otro. Para Klahr el sistema de producción aprende y se desarrolla adquiriendo
nuevas producciones mediante la automodificación a partir de un conjunto de producciones
innata. Para conseguir la automodificación cuenta con un sistema general de detección de
regularidades y una serie de mecanismos concretos de automodificación:
B) ⇒ Mecanismo General: es un sistema de memoria que contiene un registro secuencial de la
actividad del sistema con el ambiente, quedando las regularidades registradas y almacenadas
en él. La automodificación tiene lugar mediante las regularidades detectadas al sistema de
producciones. Este mecanismo general actúa de forma semejante a la abstracción reflexiva
piagetiana. Es una mecanización de la misma.
A) ⇒ Mecanismos Específicos:
1. Resolución de conflicto: el sistema enciende aquella producción que satisfaga más
elementos de su condición y aquella que sea más fuerte. Aquella que haya demostrado un
funcionamiento adecuado.
2. Generalización: sistema a partir de una producción dada. Crea una producción que es más
general que la producción originaria, aunque mantiene constante la parte de la acción.
3. Discriminación: mecanismo inverso a la generalización. Permite al sistema de análisis
añadir más elementos en la condición de una producción, hacerla más específica.
4. Composición: permite eliminar algunas composiciones, creando nuevas producciones
compuestas. Los sistemas de producción plantean problemas: existen discrepancias entre las
características evolutivas reales de los niños (desarrollo lento) y los programas (aprendizaje
rápido, no hay fragilidad, no errores) realizados mediante sistemas de producciones
automodificadoras.
La concepción de estructura que surge de los sistemas de producciones es una concepción
basada en estructuras particulares de dominios específicos en la que no cabe una visión
estructural más general, en términos de estadios, como las defendidas por las teorías de Piaget
y Vygotsky.
3. Las Teorías Neo-Piagetianas
La vigencia actual de Piaget continúa siendo notable. En este apartado nos fijaremos en un
conjunto de teorías herederas de la concepción piagetiana, aunque introducen nuevos
aspectos, procedentes de los enfoques cognitivos y de las teorías del procesamiento de la
información (PI).
A) Rasgos que comparten las teorías neopiagetianas con la de Piaget podemos destacar:
1. Su concepción constructivista del desarrollo, es decir, que es sujeto el que construye
activamente su propia comprensión del mundo que le rodea.
2. Su defensa de que el desarrollo cognitivo muestra un patrón general común a diferentes
campos o dominios, patrón que puede ser caracterizado mediante la existencia de cambios
estructurales y estadios diferentes. Los neopiagetianos consideran que el desarrollo cognitivo
se produce a través de una serie de estadios, es decir, a través de una secuencia jerárquica de
estructuras mentales.
Este último rasgo es el que diferencia a estas teorías de las postpiagetianas, ya que, aunque
éstas mantienen influencias de Piaget, no sostienen la existencia de estadios o cambios
cualitativos en el desarrollo.
B) Las diferencias más notables entre estas teorías y la de Piaget está en:
1. La caracterización de las estructuras mentales propias de cada estadio.
2. Los mecanismos de transición que se proponen entre un estadio y otro.
3. El preciso análisis de las tareas que realizan los niños y los requisitos de procesamiento que
implican.
Si para Piaget la estructura totalizadora que supone cada estadio puede y debe caracterizarse
en términos lógicos, los neopiagetianos prefieren hacer propuestas basadas en el marco
conceptual de la psicología computacional del procesamiento de información.
Entre estas teorías destacaremos las 4 más relevantes, formuladas por Leone, Case, Halford
y Fischer. Existen numerosas semejanzas entre estas propuestas, todas postulan la existencia
de un estadio o nivel sensorio motor, también la existencia de un preoperacional; solo la teoría
de Pascual-Leone sustituye a partir de este nivel el concepto de estadio semejante al de Piaget,
por su concepción basada en un incremento cuantitativo de los recursos cognitivos o
capacidad mental. El nivel operatorio concreto aparece también en las teorías de Case y
Halford, con las denominaciones de operaciones dimensionales y correspondencias de
sistemas, respectivamente. Por último, el nivel de las operaciones formales se corresponde
claramente con las operaciones vectoriales de Case, las correspondencias multi-sistemas de
Halford y el escalón abstracto de Fischer.
Denominación y edades aproximadas de aparición de los estadios del desarrollo de la
Inteligencia según Piaget y las teorías NeoPiagetianas.
3. 1. La Teoría de Pascual Leone
La Teoría de los Operadores Constructivos del psicólogo español Juan Pascual-Leone,
constituye la primera de las formulaciones neopiagetianas. Trata de integrar la perspectiva
constructivista y el concepto de estructura, con el uso de herramientas conceptuales del
enfoque de los procesos del procesamiento de información y la existencia de importantes
diferencias individuales entre los sujetos. Parte del concepto de esquema (unidad psicológica
básica que posee el sujeto y que media su interacción con el mundo, esquemas perceptivos,
motores, afectivos y cognitivos). Para definir el concepto de esquema utiliza las categorías
propias del enfoque computacional:
1. Un esquema contiene 2 componentes básicos
A)- Un componente desencadenante, constituido por el conjunto de características o
condiciones que producen la activación del esquema
B)- Un componente efector que especifica el conjunto de acciones (internas o
conductuales) a realizar.
2. Pueden ser activados siempre que se den las condiciones desencadenantes, y permiten así
construir una representación del medio o realizar acciones externas o interiorizadas
(operaciones).
3. El conjunto de esquemas que son activados constituyen el campo de activación.
4. No todos los esquemas que son activados se aplican realmente en una situación
determinada produciendo una acción del sujeto; sólo lo hacen aquellos que poseen una mayor
fuerza asimiladora o peso de activación, que viene determinada por ciertos factores llamados
operadores constructivos.
Los Activadores de esquemas u operadores constructivos son factores organísmicos latentes
u ocultos, que aumentan la fuerza asimiladora o peso de activación de los esquemas y tienen
una base neurofisiológica. Pueden ser diversa naturaleza, en función de los factores que
determinan la conducta como son los afectivos, perceptivos e intelectuales.
Entre estos operadores, el más conocido es la Energía Mental o Espacio Mental <M>: se
refiere a la capacidad atencional que utiliza el sujeto y que determinará el nº de esquemas que
podrá aplicar en un momento determinado. El espacio mental M se corresponde con la
Memoria Operativa que postulan las teorías del PI y, según Leone, es el responsable de los
cambios que se producen entre unos estadios y otros ya que aumenta con la edad. Las
dificultades que tienen, por ejemplo, los niños pequeños con las tareas típicas de las
operaciones concretas —como la conservación de los líquidos—, se deberían a que su
espacio mental M es insuficiente para activar simultáneamente todos los esquemas
necesarios para resolver ese tipo de tareas. Así, la transición entre los estadios de Piaget
quedaría explicada en función del aumento cuantitativo, debido a procesos subyacentes de
cambio y maduración cerebral, del espacio mental M. El poder máximo de M está constituido
por una constante e (capacidad mental desarrollada en el período sensoriomotor, necesaria
para almacenar instrucciones y desarrollar una estrategia o esquema ejecutivo para resolver
una tarea) y una variable evolutiva que aumenta con la edad, fruto de la maduración del SN.
Un rasgo relevante de la teoría de Pascual-Leone es que este aumento cuantitativo permitiría
explicar los desfases en tareas como la conservación, donde la conservación de la materia se
logra a partir de los 7 años, la del peso a los 9 y la del volumen a partir de los 11.
3.2. La Teoría de Robbie Case
Además de las influencias de Piaget y Pascual-
Leone, incorpora conceptos y valoraciones
provenientes de aquéllos que otorgan una mayor
relevancia al lenguaje, la cultura y la interacción
social (Vygotsky y Bruner).
Los diversos niveles o estadios en el desarrollo
cognitivo (sensoriomotor, operaciones relacionales,
dimensionales y vectoriales) están caracterizados por
un tipo de operaciones intelectuales básicas, integradas jerárquicamente, que se construyen
sobre las operaciones del nivel anterior. Estas operaciones pueden representarse como
estrategias o estructuras ejecutivas de control con componentes desencadenantes y
resultantes, diferentes en cada estadio. El concepto de “Estructuras Ejecutivas” sustituye al
concepto de “Esquema” de Leone, pero manteniendo sus semejanzas. En cada estadio existe
un conjunto de estrategias o estructuras ejecutivas de control relativamente específicas, pero
mantienen una misma forma general subyacente. La elección de un conjunto de estrategias de
control ejecutivo para cada estadio (en vez de hacerlo en términos lógicos como Piaget) le
permite explicar los desfases horizontales del tipo del existente con las conservaciones.
En cuanto a la estructuración vertical (transición entre estadios) propone la existencia de
determinados cambios en el almacén a corto plazo o memoria operativa. Para Case el espacio
total de almacenamiento (ETP) no aumenta con la edad, está formado por el espacio dedicado
a las operaciones (EOP) y el espacio disponible en el almacén a corto plazo (ACP), según la
siguiente fórmula: ETP = EOP + ACP (Espacio Total = Espacio Operaciones + Espacio Almacén ). Lo
que aumenta con la edad es la práctica y la eficacia con la que realiza las operaciones el sujeto
y, por lo tanto, quedan libres más recursos cognitivos. El aumento de la eficacia operacional
produce una disminución en el EOP que permite, un aumento en la capacidad del ACP. En
cada uno de los estadios caracterizados por diferentes operaciones, el niño mejora su eficacia
operativa merced a la práctica específica y a factores madurativos y de experiencia general.
Incluye cambios estructurales específicos, pero sin el carácter radical y totalizador de los
propuestos por Piaget. Además, estos cambios están producidos por diversos procesos básicos
y generales, y especialmente por el aumento de la eficacia operacional.
3. 3. La Teoría de Halford
Comparte con las anteriores la importancia que otorga al incremento con la edad en la
capacidad de la memoria operativa de los sujetos. Propone la existencia de 4 estadios,
caracterizados por la capacidad que adquieren los niños de realizar diversos un tipo de
operaciones mentales llamadas “correspondencias”. Toma este concepto del campo de las
matemáticas, donde una estructura es un conjunto de relaciones o funciones entre los
elementos y una correspondencia entre estructuras hace referencia a “una regla para asignar
elementos de una estructura a elementos de otra, de forma que cualquier función o relación
entre elementos de la primera estructura será asignada también a funciones o relaciones
correspondientes en la segunda estructura”.
Las correspondencias entre estructuras caracterizan las actividades mentales de los niños a lo
largo del desarrollo y subyacen a la comprensión que realizan de los conceptos. La progresiva
adquisición de correspondencias crecientemente complejas explicaría el incremento en las
capacidades de comprensión, y adquisición de conceptos y conocimientos durante el
desarrollo. Así:
1- Primer año: Elementos (dibujos y palabras).
2- Dos años: Relaciones (2 elementos y su similitud en las relaciones entre ellos).
3- A partir de 5 años: Sistemas (elementos y relaciones de 1 sistema se proyectan en otro. A >
B y B > C, por lo tanto A > C).
4- A partir de los 11 años: Multi-Sistemas (varias relaciones, procesamiento superior,
razonamiento deductivo e hipótesis).
Halford sostiene que la capacidad de procesamiento no se incrementa de forma abrupta,
sino gradual y paulatina, y es fruto más de la maduración del sistema nervioso, que del
aumento en la eficacia operacional. Su teoría está más cerca de la posición de Pascual-Leone
que de la de Case.
3.4. La Teoría de Fischer
Propone 4 estadios o escalones (tiers) en el desarrollo de las
destrezas cognitivas. Se basa en el concepto de destreza (skill) que se
define, siguiendo a Bruner, como una habilidad que muestra cierta
capacidad de generalización entre tareas y cierta especificidad para un
determinado tipo de tarea: “una característica de una persona en un
contexto”. La teoría de las destrezas trata de dar cuenta de la
variabilidad en el desarrollo como un rasgo fundamental, y de la
existencia de una cierta constancia u homogeneidad que permite
hablar de los diversos escalones en el desarrollo.
El desarrollo de las destrezas surge de la interacción del sujeto con la tarea en un contexto
determinado y, por tanto, es altamente dependiente de la misma, ya que es a partir de la
experiencia concreta de los sujetos con cada tarea como las destrezas se van complicando
progresivamente, incluyendo nuevos pasos o elementos, en su estructura. Como la experiencia
es muy diversa, el desarrollo de sus destrezas será, por norma, desigual y la variabilidad (el
desfase) será la regla del desarrollo.
Ahora bien, existe un proceso de generalización de las destrezas entre los diferentes campos
y tareas que hace que aparezcan regularidades que llamamos escalones. Los 4 escalones se
caracterizan por el tipo de destrezas que posee el sujeto: reflejos, acciones, representaciones y
abstracciones.
1. En los primeros 4 meses de vida, sólo los reflejos están a disposición del recién nacido,
quien los puede controlar, coordinar y organizar.
2. En el escalón sensoriomotor, los bebés son capaces ya de acciones adquiridas cuyo
progresivo control, coordinación y organización les permitirá alcanzar las posibilidades
intelectuales mostradas por Piaget.
3. En el escalón representacional (2 años) el niño tiene a su disposición destrezas
representacionales, cuya organización y generalización entre tareas les permitirá comprender
las propiedades lógicas de los objetos.
4. Por último, entre los 10 y 12 años los niños serán ya capaces de pensar
independientemente de las características de los objetos, gracias a la adquisición de unas
destrezas abstractas que caracterizan este último escalón y cuya máxima cota o nivel óptimo
no se adquirirá hasta los 25-30 años.
Cada escalón sufre un proceso gradual de cambio que se manifiesta en la existencia de
niveles intermedios. El cambio que se produce en el último nivel dentro de un escalón (nivel
óptimo) y que da cuenta del cambio de estadio, no es gradual sino abrupto. Para Fischer los
cambios graduales y progresivos, dan lugar a un cambio abrupto y radical en el último nivel.
El nuevo escalón surge de la integración y combinación de sistemas complejos que producen el
nuevo tipo de unidad, algo que necesita de una base neuronal que permita la fusión entre los
componentes.
Esta base estaría ligada a las funciones y cambios que sufre el córtex frontal. Lo más
importante de esta teoría es su intento de explicación conjunta de la variabilidad y la
estabilidad en la conducta infantil, algo para lo que se basa en los modelos de sistemas
evolutivos dinámicos.
4. El Conexionismo y los Sistemas Dinámicos
4. 1. El Conexionismo
Los Modelos Conexionistas, llamados originalmente del Procesamiento Distribuido en
Paralelo (PDP), son presentados como una sustitución de la metáfora del ordenador por la
metáfora del cerebro. Tanto los modelos computacionales clásicos como los modelos
conexionistas son herederos de la tesis de Turing*. Una red conexionista está formada por un
conjunto generalmente muy numeroso de unidades que actúan como “neuronas abstractas” y
que poseen la misma capacidad computacional que una máquina de Turing*. De esta manera,
al igual que los modelos simbólicos clásicos, basados en la analogía funcional entre ordenador
y la mente, los modelos conexionistas pueden, en principio, dar cuenta de la capacidad
computacional de la cognición humana.
Tesis de Turing*: la esencia del pensamiento humano está en su capacidad para manipular
símbolos. De acuerdo con ello sostenía que una máquina que tuviera esta misma facultad
podría considerarse Igualmente con capacidad para pensar. A partir de esta tesis desarrolló
los fundamentos de la computación, precisando las reglas y conceptos teóricos de base para
construir una máquina de cálculo universal (máquina de Turing).
Máquina de Turing*: Dispositivo abstracto capaz de realizar cualquier tipo de cálculo siempre
que cuente con una memoria ilimitada. La máquina de Turing es el modelo teórico de los
ordenadores y merced a la «metáfora de ordenador», de la propia mente humana
4.1.1. Características fundamentales de los Modelos Conexionistas.
Comparten 4 principios:
a) La operación computacional básica de una red conexionista implica a una neurona que
transmite información relativa a la suma de señales recibidas de otras neuronas;
b) El aprendizaje cambia la fuerza de las conexiones entre neuronas y la influencia que unas
tienen sobre otras;
c) Los procesos cognitivos implican que la computación está esencialmente ejecutada en
paralelo;
d) La información está distribuida a través de muchas neuronas y muchas conexiones (“redes
neuronales”).
Una característica principal proviene de su concepción de la representación como un
fenómeno en permanente cambio, ajustándose a los más pequeños cambios en el estímulo.
Esta “sensibilidad al estímulo” proviene de la potencia de los mecanismos de aprendizaje. La
Capacidad de Aprendizaje y su Sensibilidad hace de estos modelos candidatos para las
explicaciones no innatistas, como la adquisición de la permanencia del objeto o del lenguaje.
Elementos de un Modelo Conexionista.
1. Un Conjunto de Unidades de Procesamiento.
2. Un Estado de Activación.
3. Una Función de Salida para cada Unidad.
4. Un Patrón de Conexión entre unidades.
5. Una Regla de Propagación para la Activación a través de la red de conexiones.
6. Una Regla de Activación que calcule “nuevos” niveles de Activación para cada unidad, a
partir de las entradas y de su estado previo de activación.
7. Una Regla de Aprendizaje para modificar Patrones.
8. Un Ambiente dentro del que debe operar el Sistema
El aprendizaje en términos conexionistas consiste en el logro, a partir de la entrada
sensorial, de la adecuada fuerza de conexión entre las unidades. La primera y más sencilla
propuesta de mecanismo de aprendizaje proviene de una concepción asociacionista clásica: la
de Donald Hebb: ropuso una regla de aprendizaje de tipo cualitativo por la que la fuerza de
conexión entre 2 unidades aumentaba cuando ambas actuaban conjuntamente. Una versión
cuantitativa más precisa de la regla de Hebb fue utilizada por Rumelhart y McClelland en su
modelo sobre el aprendizaje de las reglas morfológicas de los tiempos pasados en el inglés. En
este modelo se utiliza una red conexionista simple, con 2 conjuntos de unidades, de entrada y
de salida, y un mecanismo de aprendizaje que podría describirse: “si una unidad recibe una
entrada de otra unidad, y ambas están fuertemente activadas, entonces los pesos de
conexión entre ambas unidades deberán ser reforzados”.
Pero existen otros mecanismos de aprendizaje más
potentes, que implican la actuación de unidades
ocultas, como el mecanismo de retro-propagación
del error* (propagación hacia-atrás). Es una red
multiestrato (capas) que incluye, los estratos de
entrada y de salida, y un tercer estrato con un nº fijo
de unidades ocultas que permiten construir una
representación interna distribuida. En la FIGURA
puede verse una red multiestrato, en la que la
información que llega a las unidades de entrada se
recodifica en una representación interna y las salidas
se generan a partir de la representación interna más
que por el patrón original.
Retro-propagación del error* Se trata de un algoritmo de aprendizaje supervisado que, a
diferencia de las redes neuronales precedentes, permite realizar clasificaciones no-lineales de
los patrones de entrada. Funciona a través de la llamada «regla delta generalizada», que
asigna a cada unidad oculta una medida promedio de su responsabilidad en el error que
cometen las unidades de salida a las que están conectadas. En función de ello, la red iría
calculando estados sucesivos, comparando las respuestas que da de hecho con las respuestas
deseadas (señal «tutora» que supervisa el aprendizaje). Así, la diferencia encontrada —esto
es, el error—, no sólo afectaría al nivel de unidades de salida sino que sería retro-propagado
hacía las unidades ocultas.
El procedimiento de aprendizaje que utiliza la retro-propagación, llamado «regla delta
generalizada» permite ajustar los pesos de las conexiones en la red al estimar la discrepancia
entre la salida real que produce el modelo, y la salida esperada proporcionada por el medio. La
idea clave es que actúa hacia atrás; las diferencias existentes entre la salida real y la esperada
conducen a la modificación de los pesos de conexión en el estrato de salida, lo que permite
calcular las modificaciones en el estrato de unidades ocultas, que finalmente permiten ajustar
los pesos en el estrato inicial de entrada. Este mecanismo se puede enfrentar casi a cualquier
tipo de tarea de aprendizaje.
4. 1.2. Simulación Conexionista de los “Estadios Evolutivos”.
La idea clave en la simulación de los estadios evolutivos es que estos cambios podrían afectar
no sólo a la dinámica de las representaciones, sino también a la dinámica de los propios
mecanismos de aprendizaje; es decir, a la potencia o capacidad de un dispositivo para
aprender. Los cambios, además, podrían deberse a una relación sinérgica entre la entrada, los
cambios internos y los procesos madurativos.
McClelland (1989) abordó la simulación de la tarea de la balanza (Inhelder y Piaget, 1955)
con una red multicapa con retropropagación. La arquitectura era fija, y se había prefijado un
grupo de unidades para recibir la información sobre el peso y otro para recibir información
sobre la distancia. Esta simulación reflejaba cómo el progreso va de una fase inicial en la que el
sujeto selecciona o codifica la dimensión más saliente (el peso), sin considerar la otra
dimensión (la distancia), hasta sucesivas etapas en las que ambas dimensiones van siendo
consideradas en la solución. La red muestra cambios dinámicos en la representación que
clasifica las entradas combinadas de peso y distancia.
Sin embargo, a pesar de que la red mostraba un comportamiento bastante ajustado a las 4
reglas o modelos propuestos por Siegler (pág. 9) esta recibió diversas críticas:
1.- Si las dimensiones peso y distancia estaban prefijadas y la arquitectura era fija, entonces
los cambios eran sólo cambios cuantitativos, es decir, combinaciones más o menos
afortunadas de los descriptores o hipótesis previas del sistema (el peso y la distancia) y en este
sentido no podían ser interpretados como una solución que construyese nada nuevo.
2.- A pesar de la potencia lógica de la red, ésta no conseguía un ajuste óptimo con las
conductas exhibidas por los sujetos. En especial, la simulación fallaba en el ajuste con el
modelo IV propuesto por Siegler y, además, no se mostraba capaz de simular los aspectos
cualitativos implicados en el modelo EQ. En concreto, cuando un lado tiene mayor peso y el
otro lado tiene mayor distancia, los niños ofrecen respuestas al azar.
SIMULACIÓN DEL APRENDIZAJE A TRAVÉS DE UNA RED CONEXIONISTA
La
respuesta de los modelos conexionistas a estas 2 críticas son las redes constructivistas.
Mareschal y Shultz (1996) han propuesto los llamados “algoritmos generativos” que permiten
dar cuenta de la existencia de cambios cualitativos. Se aplica en redes con un diseño inicial
determinado, por ejemplo, la red partiría de una disposición equivalente a una red de 2
estratos (bicapa), no contendría en principio unidades ocultas, sólo unidades de entrada y
salida. Los procesos de asimilación estarían representados por situaciones en las cuales la red
consigue generalizar una entrada novedosa a un patrón ya existente. Sin embargo, cuando los
esquemas previos resultan insuficientes para producir una respuesta adecuada, el algoritmo
generativo permite añadir nuevas estructuras, incorporando unidades ocultas, permitiendo
construir un nuevo dispositivo más competente. Este tipo de simulación, permite superar ya
los problemas con las reglas tercera y cuarta de la tarea de la balanza y no necesita una pre-
especificación de unas unidades dedicadas al peso y otras dedicadas a la distancia; es decir,
descubre por sí sola cuáles son las regularidades que hay que tener en cuenta para resolver
la tarea.
La característica más significativa de las redes constructivistas es que permiten la adición de
estructuras, es decir de nuevas unidades. Estas adiciones se realizan ajustándose a las
demandas del ambiente. La red contiene un mecanismo que le permite añadir nuevas
unidades ocultas para enfrentarse a las demandas cambiantes y cada vez más exigentes del
medio. Estas redes permiten una explicación del desarrollo plenamente interactiva, dado que
tanto su competencia lógica, como su topología final serán una consecuencia directa de la
interacción de la red con el ambiente. Aportan una medida cuantitativa del progresivo
incremento del poder computacional del sistema de procesamiento: el número de unidades
ocultas.
Las soluciones aportadas por las redes constructivistas posibilitan una nueva forma de
concebir la explicación del desarrollo. El crecimiento paulatino de la competencia de la red
surge del intento de dar una solución eficaz a las múltiples situaciones y fuentes de variación a
las que se enfrenta el niño, sin contar con representaciones innatas preespecificadas. Pueden
proporcionar nuevas hipótesis sobre la naturaleza del desarrollo. Debe destacarse que el
incremento del poder computacional de las redes constructivistas puede ser el resultado tanto
de factores ambientales como de procesos madurativos que interactuarían sinérgicamente en
el proceso del desarrollo. Permite modelar fenómenos cuantitativos de cambio en nuestros
conocimientos, a la vez que fenómenos cualitativos de cambio en los mecanismos de
aprendizaje.
4.2. La Perspectiva de los Sistemas Evolutivos Dinámicos
La investigación actual en Psicología Evolutiva se caracteriza por una búsqueda de nuevas
formas de representar y analizar el cambio, basadas en que el desarrollo no se ajusta a
patrones de crecimiento simples y lineales, sino que conlleva un proceso complejo, diverso,
multiforme y dinámico.
Se están proponiendo planteamientos teórico-metodológicos que sostienen que lo que
caracteriza a los fenómenos estudiados no es la regularidad y el orden de los procesos sino
todo lo contrario: la complejidad y el caos. Toman como referencia los denominados
«sistemas dinámicos auto-organizados»
4.2.1. Estabilidad y Cambio en los Sistemas Dinámicos.
Los estudios evolutivos tradicionales han tratado de identificar lo que resultaba “estable y
universal” en el desarrollo, sin centrarse en los factores y procesos generadores de cambios.
Así, los métodos utilizados suelen caracterizarse por minimizar la variabilidad, creando una
imagen ilusoria de regularidad y linealidad en el desarrollo.
Las nuevas propuestas desde la perspectiva dinámica, reconocen la importancia de la
variabilidad e inter-intraindividual, y la convierten en el objetivo central de su análisis,
considerándola como expresión del auténtico curso del desarrollo, generalmente complejo y
no lineal.
De la misma forma, frente al modelo tradicional de cambios sistemáticos y en dirección
usualmente creciente, se asumen múltiples modelos de cambio, en los que el crecimiento o
desarrollo no sólo se entiende en términos de incrementos o decrementos lineales, sino
también bajo patrones dinámicos complejos que admiten oscilaciones y fluctuaciones.
Finalmente, la naturaleza sistemática del desarrollo no se describe en referencia a reglas
simples que predicen una pauta uniforme de crecimiento, sino en función de una ecuación (o
un conjunto de ecuaciones), relativa a los conceptos teóricos y que predicen familias de curvas
frecuentemente irregulares y con diversas formas.
Teoría de los “Sistemas Dinámicos”: En la Psicología Evolutiva, su objetivo es estudiar los
procesos de cambio y de desarrollo como resultado emergente del funcionamiento interactivo
y dinámico de sistemas complejos (evolución no lineal de sistemas “abiertos”) que interactúan
con su medio ambiente.
1. Una propiedad esencial atribuida a los organismos vivos (sistemas dinámicos), es que son
sistemas “autoorganizados” (es el propio funcionamiento del sistema el que genera sus nuevos
estados), con lo que se da respuesta al problema evolutivo de explicar cómo se produce en el
desarrollo la creación de la “novedad”.
2. Una segunda premisa clave es que tal funcionamiento auto-organizado sólo puede
entenderse en referencia a las complejas interacciones que se establecen tanto internamente
como en su relación con el medio externo.
El comportamiento del sistema y su desarrollo se conciben como “propiedades emergentes”
del sistema en su conjunto y no en relación con ninguno de sus componentes en particular.
Rotundo rechazo a la idea de un desarrollo evolutivo “guiado” (fijo/establecido). Concepción
“Epigenética” -> “... la estructura y el orden emergen a partir de las interacciones de un
sistema complejo sin instrucciones explícitas, ni desde dentro del organismo, ni desde el
medio”. Es un proceso continuo, abierto e irreversible que no requiere instrucciones previas;
las nuevas propiedades emergen de forma espontánea a partir de las reorganizaciones que
tienen lugar como consecuencia del continuo intercambio que se produce entre el sistema y su
medio ambiente. Supone una concepción netamente emergentista y epigenética del
desarrollo. (Epigenético: factor que influye en la genética que no es un gen).
La esencia del desarrollo como sistema dinámico está en que se trata de un conjunto de
procesos que se van construyendo y articulando a sí mismos en distintos niveles de
organización y a través del tiempo; lo que queda bien recogido en unos pocos conceptos
básicos: complejidad, autoorganización, emergencia, y no-lineal.
4. 2.2. Desarrollo Cognitivo y Sistemas Dinámicos.
Los sistemas dinámicos, más que una teoría, constituyen un “modo de pensar” acerca de los
fenómenos del desarrollo; y en este sentido, ofrecen un marco conceptual sólido. Por su alto
nivel de abstracción, estas formalizaciones podrían quedar en especulaciones si no se conectan
con una teoría psicológica y evolutiva que les de contenido, y poder ser utilizadas para la
simulación y contrastación empírica. Fischer y Bidell han realizado una propuesta que
presentan como un nuevo “estructuralismo” de carácter dinámico.
Un autor de obligada mención es Van Geert, quien como metáfora del desarrollo utiliza la
referencia a un ecosistema: un sistema ecológico vivo complejo que alberga múltiples
susbsistemas y en cuya evolución intervienen influencias tanto internas como externas. En
este marco utiliza un modelo matemático sencillo que le ha permitido describir las complejas
pautas que se observan en los cambios cognitivos (ha modelado la evolución del léxico).
La conveniencia de asociar la variabilidad con los propios procesos de desarrollo ha sido
resaltada por Thelen y Smith. El conocimiento debe entenderse más como un “proceso” que
como un “estado!, un potencial que se va “realizando” en el momento de la ejecución y, por
tanto, de forma variable en función de los contextos específicos.
El CONEXIONISMO sostiene que el aprendizaje y el desarrollo dependen tanto del estado
interno del sistema como de las condiciones externas del ambiente; y en este sentido, por
tanto, se adscriben a la posición “interaccionista”. El modo de funcionamiento de un sistema
dinámico se describe en referencia a algunos parámetros característicos, relativos a la forma
en que se coordinan e integran los aspectos de “estabilidad y cambio” del sistema en su
comportamiento y evolución. Los más significativos son los llamados “parámetros de orden” y
“de control”.
Parámetros de Orden (Variables Colectivas): Estados “atractores” – Equilibrio: Los
Variables que describen la “cohesión” y parámetros definen estados (espacio
“estabilidad” del sistema y la forma en que se de estados). En condiciones normales
coordinan sus distintas partes. Son los que facilitan el sistema manifiesta preferencia por
una descripción del estado de “coherencia” del algunos, espontáneamente “converge”
sistema y de la forma en que sus parles se combinan hacia ellos. Bajo determinadas
(se coordinan o cooperan) para generar el estado influencias internas o externas puede
actual. Un parámetro de orden, describe a nivel evolucionar a estados “inestables”,
macroscópico el comportamiento “ordenado” del alcanzando nuevos “estados de
sistema dentro de un determinado estado de equilibrio” -> nuevos estados
equilibrio. atractores.
Parámetros de Control: Variables cuyos valores Fases de cambio “No-Lineal” –
“constriñen” o “regulan” la actuación de los Desarrollo: De carácter abierto, en
parámetros de orden. En la evolución de un sistema intercambio con el medio.
dinámico, se pueden generar nuevas formas y Reorganización libre. Las
configuraciones relativamente complejas a partir de transformaciones o transiciones, se
pequeños cambios en componentes simples y describen como fases de cambio no
parámetros elementales. Operan de una forma lineal (bifurcación). A través de esta
indirecta y no determinística: presentan valores dinámica fluctuante y probabilística se
críticos por encima de los cuales provocan una generan nuevos patrones de
alteración del sistema que puede perturbar su organización interna y de intercambio
estabilidad y coherencia conduciendo a una nueva con el medio que implica una
organización estable (o estado “atractor”), evolución hacia mayores niveles de
cualitativamente distinta de la precedente. complejidad y organización.
5. RESUMEN Y CONCLUSIONES
En este último medio siglo, la producción científica del enfoque computacional ha sido
notable, lo que le ha permitido convertirse en el enfoque predominante en psicología. La
concepción funcionalista, en sus diversas versiones, ha sido enormemente fructífera en
psicología y ha permitido un avance muy importante en nuestro conocimiento de la mente
humana y su desarrollo. En este capítulo hemos visto las raíces históricas, conceptos
fundamentales, y aportaciones principales del enfoque computacional al estudio del desarrollo
cognitivo, a partir de los sistemas de reglas de producción. Asimismo, hemos visto cómo las
herramientas conceptuales de este enfoque se han fundido con otras concepciones cognitivas
como la de Piaget, permitiendo así la aparición de las teorías neopiagetianas.
Las reglas de producción son un formalismo computacional que actúa mediante el ciclo
reconocer-actuar e implica una condición y una acción; es decir, a partir del cumplimiento de
una determinada condición establece la realización de una acción determinada. Los sistemas
de reglas de producción proporcionan una explicación precisa y detallada de la actuación del
sistema humano de procesamiento de información en tareas cognitivas específicas, como la de
la balanza; y pueden, asimismo, simular el cambio que se produce con el paso del tiempo,
debido a su capacidad de automodificación. Los sistemas de producciones proporcionan, por
tanto, un modelo coherente y riguroso del desarrollo cognitivo del ser humano concebido éste
como un proceso sujeto a cambios cuantitativos en el que no caben estadios o estructuras
diferentes. Asimismo, los modelos computacionales basados en sistemas de producciones
deben ser diseñados para cada tarea específica, por lo que se ajustan más fácilmente a una
concepción de la estructura cognoscitiva humana en términos de dominios específicos o
módulos que a una concepción más unitaria como la de Piaget.
Sin embargo, las aportaciones del enfoque computacional no se acaban con los sistemas de
producción, como muestran el amplio uso que las teorías neopiagetianas han hecho de
conceptos procedentes de este enfoque. Como hemos visto, las teorías de Pascual-Leone,
Case, Halford y Fischer, mantienen una concepción del desarrollo mediante estadios y
defienden una concepción de la estructura psicológica unitaria, pero que permite la existencia
también de campos o dominios específicos. Dos conceptos de origen claramente
computacional tienen especial influencia en estas teorías, el concepto de almacén a corto-
plazo y de memoria operativa, y el de estrategias o destrezas. En cuanto al primero, estas
teorías postulan el incremento en la capacidad y/o eficacia en el procesamiento en la memoria
operativa como clave en la explicación del cambio ontogenético. En cuanto al segundo, las
teorías neopiagetianas en su explicación de la actuación concreta de los sujetos en las diversas
tareas y su desarrollo sostienen la existencia de esquemas, estrategias o destrezas, que son
definidas en términos muy semejantes a los propuestos por el enfoque computacional.
En este capítulo hemos analizado también las perspectivas teóricometodológicas más
actuales que abordan el estudio del desarrollo a partir de una concepción dinámica. Es decir,
interpretan el desarrollo como un «sistema dinámico» donde se producen una sucesión de
cambios que emergen de la interacción que el sistema mantiene con el medio, mediada por su
capacidad de auto-organización, lo que necesariamente produce pautas de evolución no
lineales. Esta es la esencia conceptual del enfoque dinámico, cuya principal consecuencia
estriba en la eliminación de toda idea de pre-determinación o finalismo en el desarrollo, y en la
negación de la necesidad de apelar a ninguna entidad controladora independiente (ni en los
genes ni en el ambiente). En su lugar, viene a recuperar en cierto modo las clásicas ideas
epigenéticas de los embriólogos, que ya a mediados del siglo xix comenzaban a utilizar los
sistemas dinámicos cómo metáfora de referencia para analizar el desarrollo. De hecho, esta
noción de epigénesis supone la primera superación razonable de la cuestión herencia-medio.
En esta línea, como hemos reiterado, el enfoque dinámico supone una concepción evolutiva
netamente emergentista y epigenética: la conducta tiene lugar en un medio interno y externo
en continuo cambio —de ahí que resulte compleja y variable—, pero dentro de procesos de
auto-organización y autoregulación que emanan espontáneamente tanto desde dentro del
propio organismo como de la interacción con su medio ambiente.
La otra consecuencia clave de este nuevo marco de análisis, es que reclama la necesidad —o
al menos la conveniencia— de asociar la variabilidad con los propios procesos de desarrollo; lo
que supone rechazar de plano las visiones clásicas de la estabilidad y el cambio en el
desarrollo. En este sentido, desde la perspectiva dinámica también se critica la visión
meramente computacionalista de la conducta. Sin embargo, es importante recordar que la
propia corriente computacional ha venido a converger de forma natural con la perspectiva
dinámica a través de su más reciente desarrollo: el conexionismo. A fin de cuentas, las «redes
neuronales» no son más que una clase especial de sistemas dinámicos y, de hecho, los teóricos
conexionistas frecuentemente utilizan en sus planteamientos el lenguaje y las formalizaciones
de la teoría de los sistemas dinámicos. En consecuencia, parece claro que por su propia
naturaleza, el conexionismo se ajusta particularmente bien a esa visión del desarrollo en
términos de «sistemas dinámicos no lineales»; y en concreto, se muestra especialmente capaz
de generar y contrastar, a través de un elaborado aparato matemático y computacional,
múltiples modelos de cambio en un amplio rango de complejidad y variabilidad.
En definitiva, pues, puede decirse que las posibilidades conceptuales y metodológicas del
conexionismo resultan particularmente afines a los nuevos planteamientos sobre el cambio y
el desarrollo que se están promoviendo desde la moderna perspectiva de los sistemas
dinámicos. Por tanto, estos dos acercamientos pueden considerarse sin ambages como marcos
teórico-metodológicos complementarios en el objetivo científico común de conseguir mejores
niveles de descripción y explicación del desarrollo cognitivo. En este sentido, si ya en sí mismos
han mostrado un enorme potencial para la formulación de modelos más ajustados y
plausibles, sin duda la coordinación explícita y deliberada de ambas perspectivas abre un
futuro aun más prometedor. Desde esta perspectiva 'dinámica integradora' diversos autores
han propuesto más recientemente un nuevo enfoque, el neuroconstructivismo, qué destaca la
importancia del desarrollo cerebral y subraya la estrecha relación que tiene con el desarrollo
psicológico (véase Mareschal, Johnson, Sirois, Spratling, Thomas y Westerman, 2007). El
neuroconstructivismo plantea también diferencias tanto con el enfoque de sistemas
dinámicos, como con el conexionismo. Con respecto al primero, postula —de forma semejante
a como lo hacen todos los enfoques cognitivo-computacionales— el carácter central y la
importancia de las representaciones que el individuo en desarrollo construye; con respecto al
segundo, critica el carácter estático de los modelos conexionistas tradicionales y subraya que
los organismos o sistemas que aprenden no lo hacen de forma pasiva, sino que activamente
seleccionan y organizan su experiencia.