Notas al documento «ASPECTOS TEÓRICOS E INSTRUMENTALES EN LA IDENTIFICACIÓN DEL ALUMNADO SUPERDOTADO Y TALENTOSO. PROPUESTA DE UN PROTOCOLO», de Antoni Castelló Tarrida y Concepció de Batlle Estapé

El documento completo podéis leerlo aquí.

Esta entrada es sólo una interpretación personal de algunos puntos que considero claves para entender el modelo. Espero que sea de ayuda. 
Objetivo del documento: «presenta el marco teórico que permite justificar la evaluación de la superdotación y algunas formas de talento, mediante instrumentos psicométricos comunes, relacionando el propio concepto con la metodología de medición»
Es importante destacar lo de «algunas formas de talento», porque efectivamente no los contempla todos según el modelo de las inteligencias múltiples de Gardner. Los talentos sociales y el musical, por ejemplo, no aparecen.
«el objeto de este trabajo no es sólo valorar la pertinencia del C.I. como instrumento diagnóstico, sino ofrecer, además, la mejor alternativa posible para evaluar el rendimiento intelectual, desde una perspectiva que aúne determinados instrumentos de medición ya existentes con el marco teórico actual que conceptualiza y operacionaliza las funciones cognitivas
Es un marco que va mucho más allá de la mera conducta, el pálido reflejo de las funciones cognitivas que la sustentan y la subyacen.
«La presente propuesta ambiciona paliar las dos principales problemáticas relacionadas con la identificación tanto de la superdotación como del talento. Éstas orbitan entorno a los siguientes ejes: por un lado, la baja congruencia entre los criterios teóricos y los procedimientos de identificación privan de validez a dichos procedimientos. Y, por otro lado, la frecuente confusión en el uso de los conceptos de superdotación, talento y precocidad, así como los términos asociados, conlleva la errónea categorización u omisión de muchos de los fenómenos excepcionales
Luego se verá con más claridad.
2. ENCUADRE TEÓRICO
«los modelos a los que haremos alusión son: los modelos psicométricos (los cuales ocupan la primera mitad de siglo) y el paradigma cognitivo (que se ha desarrollado a partir de la segunda mitad de siglo).»
2.1. El enfoque psicométrico
«Desde el enfoque más tradicional de la inteligencia -articulada a partir de los modelos psicométricos- ésta se valora como sustrato isomórfico de la respuesta conductual a los tests de medición (Anastasi, 1968; Amelang y Bartussek, 1981). Es decir, a partir de las puntuaciones obtenidas en los tests se infieren aptitudes intelectuales subyacentes, lo que también se denomina teoría del rasgo latente (Cronbach, 1970). Dentro de esta línea de trabajo, se encuentran tres enfoques diferenciados: monolíticos, factoriales y jerárquicos.»
Suponían que cada conducta tenía algo así como un solo canal o una sola posibilidad de producirse. Que cada comportamiento requería los mismos recursos intelectuales, de ahí lo del «isomorfismo» (tenían la misma forma la conducta y el rasgo).
«Cronológicamente aparecen, en primer lugar (durante las cuatro primeras décadas de este siglo) los modelos monolíticos, dentro de los cuales cabe destacar las aportaciones de Binet (concepto de Edad Mental), Terman (operacionalización del C.I. de desviación) y Spearman (Factor G). Este último autor, a pesar de haber estado considerado factorialista debido al método que utilizaba, se integra plenamente en los planteamientos monolíticos por su concepción teórica de la inteligencia (Genovard y Castelló, 1990).
Dichos modelos monolíticos postulan -con algunos matices diferenciadores- que la capacidad de aprendizaje es la principal manifestación de la inteligencia, constituyendo esta capacidad el criterio de validación fundamental (Eysenk, 1979). En este sentido y, de forma posterior, la capacidad de aprendizaje se ha establecido a partir de cuatro cualidades intelectuales que posee el individuo: aptitud verbal, gestión de memoria, razonamiento lógico y capacidad de transferencia (Guilford, 1967). Estas aptitudes están íntimamente relacionadas con los aprendizajes académicos y, consecuentemente, con el rendimiento escolar.»
Reducen la inteligencia a un solo factor (CI y factor «G»). Todo gira en torno a una cifra, asociada con el aprendizaje escolar, lo que le permite ser un predictor eficaz del éxito o el fracaso en ese ámbito. Desde este enfoque no se tiene en cuenta el talento, porque no contempla áreas de talento específicas. El que tiene «mucha inteligencia», la tiene en cualquier ámbito de acción cognitiva.
«aparecen, a partir de la década de los años cincuenta y hasta bien entrados los sesenta, los enfoques factoriales, de los cuales cabe destacar las aportaciones de Thurstone (1938) y Guilford (1967). La principal diferencia de estos enfoques en relación a los monolíticos, reside en que conceptualizan la inteligencia como un perfil de aptitudes distintas y, en algunos casos, independientes.»
«A grandes rasgos, la evaluación de la inteligencia que se realiza desde este esfoque teórico se concreta a partir del uso de tests multifactoriales, tests que tienen como objetivo desglosar la capacidad intelectual en diversos factores, obteniendo para cada uno de ellos un valor concreto. Es de esta forma como se llega a la determinación del perfil intelectual del individuo.»
«desde las visiones factoriales de la inteligencia, se puede constatar que sólo se hace referencia explícita a la noción de talento y su evaluación.»
Es decir, este enfoque es justo el opuesto al anterior, y contempla los talentos específicos en lugar de las aptitudes generales, la superdotación.
2.2. El enfoque cognitivo
«Actualmente, la operacionalización psicométrica de la inteligencia y su medición han sido superadas dentro de la teoría intelectual por un nuevo paradigma: el cognitivo. El surgimiento de éste se debe a la necesidad de encontrar una teoría de la inteligencia más satisfactoria y, a su vez, a la aparición, a partir de mediados del siglo XX, de la Inteligencia Artificial y, más recientemente, de la irrupción de la Ciencia Cognitiva en el espacio científico dedicado al estudio de los procesos mentales, tanto en sistemas biológicos como no biológicos (Castelló, 1993, 1994).»
Aquí cabe un apunte sobre la evolución que ha sufrido la ciencia cognitiva desde esa fecha. Para eso nada mejor que consultar el librito «Conocer. Las ciencias cognitivas: tendencias y perspectivas. Cartografía de las ideas actuales», cuyo autor es el tristemente desaparecido Francisco Varela. En él se traza un interesante recorrido histórico y plasma las principales metáforas que han sido usadas desde los diferentes enfoques que se han ido sucediendo en el tiempo.
En 1956 tuvo el alumbramiento del enfoque cognitivista, donde la intuición central era que la inteligencia se parece tanto a un ordenador en sus características esenciales que la cognición se puede definir como la «computación de representaciones simbólicas». Se ve que algunos tienen todavía muy presente esta intuición tan mecanicista. Simon, Chomsky y Minsky son tres de sus ideólogos principales. A la pregunta de ¿qué es la cognición?, los cognitivistas respondían «procesamiento de información: manipulación de símbolos basados en reglas». Esta respuesta os sonará unas líneas más adelante.
A mediados de los 70 nuevas ideas irrumpen en el panorama. Ahora la cognición se define como «la emergencia de estados globales en una red de componentes simples». Nace el conexionismo o emergentismo.
Finalizando los 80, un nuevo enfoque se posiciona, aunque no sustituye todavía (a día de hoy) a los anteriores porque es mucho más laborioso y sofisticado. Se trata del enactivismo, y su ideólogo es, cómo no, el propio Varela. A la pregunta de qué es la cognición, respondería que es «enacción: historia del acoplamiento estructura que enactúa (hace emerger) un mundo». La enacción es un neologismo que el autor traduce directamente del inglés (enact: «desempeñar un papel –en una obra-«, «actuar»).
¿Qué implicaciones tiene este apunte histórico? Una lectura positiva nos diría que podemos entrever las vías por las que evolucionará el constructo llamado «inteligencia» en el futuro; una lectura negativa, sin embargo, nos hablará del elocuente retraso que existe entre los desarrollos teóricos y las implantaciones prácticas o aplicaciones de los mismos.
«En el enfoque cognitivo, la inteligencia se conceptualiza como capacidad de procesamiento de información, lo que implica una concepción de este constructo mucho más globalizadora de los diversos recursos intelectuales y, a su vez, mucho más compleja (Newell, Rosenbloom y Laird, 1989). Este paradigma organiza el sistema cognitivo en cuatro grandes dispositivos, entre los cuales se establecen relaciones de interacción y dependencia (Mayer, 1983). Concretamente, hay dos dispositivos que mantienen contacto con el exterior, que son el de entrada (percepción) y el de salida (respuesta). Entre estos dos, se sitúa el dispositivo central procesador (inteligencia) y -por debajo de éste- el dispositivo de almacén (memoria). El dispositivo central manipula la información a partir de dos tipos de operaciones: los microprocesos y los macroprocesos. Los primeros son operaciones cognitivas elementales (en un sentido funcional, no cerebral) mientras que los segundos, son agrupaciones de microprocesos que forman operaciones complejas o grandes categorias de operaciones.
Los microprocesos son directamente dependientes de la heredabilidad genética, mientras que los macroprocesos están altamente influenciados por interacciones con el ambiente.
En este sentido, las diversas entidades cognitivas o recursos específicos que constituyen la inteligencia son el reflejo de los macroprocesos a los que se acaba de hacer alusión (Castelló, 1988).
A modo de ejemplo: operaciones relacionadas con la comparación de magnitudes, abstracción, inversión o manipulación aritmética (adición, substracción) serían muestras de microprocesos, siempre y cuando se les valore su aspecto funcional, ya que, de hecho, sí que son divisibles en operaciones cognitivas más elementales (desplazamiento de una unidad de información a la memoria a corto plazo, conexión entre dos unidades de información, etc.) aunque dichas operaciones no tienen sentido funcional más allá de la mecánica cognitiva. Por otro lado, cuando se habla de macroprocesos, se hace referencia a operaciones como la solución de problemas, análisis de contenidos, aprendizaje conceptual, etc. En todos estos casos se requiere de la utilización coordinada de diversos microprocesos como los descritos anteriormente.
La evaluación de la inteligencia que se establece dentro de este modelo será, pues, radicalmente opuesta a la de las visiones monolíticas, ya que va mucho más allá del marco académico. […] Estas diferencias hacen referencia a que este enfoque no se basa en la evaluación psicométrica para establecer un paralelismo con las funciones cognitivas. Justo al contrario, a partir del uso de tests se pondrá a prueba si, efectivamente, las funciones intelectuales establecidas por el modelo teórico actúan sobre la conducta medida. Por lo tanto, no se miden directamente las funciones cognitivas sino que se asume una relación condicional entre procesos mentales y conducta, es decir, una determinada conducta se producirá sólo si se dispone de ciertas funciones intelectuales que la propicien (Genovard y Castelló, 1990).
La complejidad del sistema cognitivo no permite un acceso directo simple como el que se propone desde los enfoques psicométricos -recordemos que reducen la evaluación de la inteligencia a un solo factor global o, a lo suno, unos pocos. Sino que, como mucho, sería lícita cierta agrupación de componentes como, por ejemplo, la combinación de recursos verbales, lógicos y de gestión de memoria que conformarían la aptitud académica.
[…]se deberá asumir que no se está evaluando la inteligencia total -o el funcionamiento mental total- del individuo, sino solamente un número limitado de sus elementos: los implicados en ese entorno específico. Así pues, los criterios psicométricos (resultados de los tests) tienen sentido si, y sólo si, evalúan los principales macroprocesos implicados en los ya mencionados entornos específicos.
Entonces se puede afirmar que se está evaluando el tipo de inteligencia utilizada en un contexto específico
Este pasaje es claro, pero destaco las negritas por su importancia. Aquí lo que se evalúan son los macroprocesos, a los que le ponemos etiquetas como «aptitud verbal» o «habilidad espacial» para referirnos a las conductas (los efectos observables de esos macroprocesos que, a su vez, son efectos de los microprocesos). Macroprocesos que «van mucho más allá del marco académico», lo que amplía sustancialmente su potencial descriptivo.
«los instrumentos psicométricos actuales pueden resultar útiles para la evaluación de la excepcionalidad intelectual, si se tienen en cuenta ciertas consideraciones teóricas. Las principales son las siguientes:
1. Frecuentemente, estos instrumentos han conseguido niveles de fiabilidad absolutamente envidiables, por lo que garantizan una medida estable y razonablemente precisa de aquello que evalúan (Cronbach, 1970). Sin embargo, el objeto de medida suele estar definido en términos ambiguos y poco congruentes con la teoría cognitiva. Por el contrario, muchos instrumentos basados en teorías cognitivas recientes adolecen aún de falta de fiabilidad.
2. Para subsanar esta falta de precisión en el objeto de medida, éste debe ser explicado desde la plataforma cognitiva y no desde la original (paradigma psicométrico) ni las intermedias (rasgo latente). Es decir, acudir a los trabajos que han realizado un análisis en términos cognitivos de las conductas implicadas en los tests.
Por ejemplo, denominar a un factor G «inteligencia general» es dar una explicación propia la Psicología de los años 20-30; denominarlo «aptitud para el aprendizaje y la transferencia» implica ubicarse en los 60-70. Por el contrario, plantearlo como una «estimación de la capacidad de inducir relaciones lógicas entre elementos (habitualmente no verbales) y de transferencia a nuevas situaciones, con clara incidencia para cualquier tipo de aprendizaje (lógico) y aplicación de lo aprendido», otorga una semántica distinta al término, a la vez que aprovecha los más de 100 años de Psicología de los cuales se puede disponer en la actualidad.
3. Resulta esencial modelizar el funcionamiento cognitivo subyaciente a las conductas que se espera predecir (Richardson, 1990). Teniendo en cuenta que la relación entre los procesos subyacentes y la conducta resultante no tiene por qué ser lineal, sino que las interacciones procesuales jugarán papeles destacados.
4. En este mismo sentido, las medidas aisladas de aptitudes cognitivas tendrán sentido no por sí mismas, sino por la utilización de éstas articuladas dentro de un modelo de funcionamiento mental que establezca la predicción de interacciones entre ellas.
Asumiendo los cuatro criterios expuestos, los instrumentos convencionales pueden ser utilizados para la identificación de sujetos excepcionales. Además, la habitualidad de su uso los hace especialmente versátiles para afrontar la identificación de superdotados y talentosos con razonable seguridad en la fiabilidad y validez del protocolo empleado. Por ejemplo, el test WISC-R, tras un análisis cognitivo de sus componentes, demuestra evaluar aspectos referentes al procesamiento lógico, verbal, mnemónico, de transferencia de funciones y de rapidez de respuesta, así como la implicación de una importantísima carga cultural.
En consecuencia, en ningún caso debe valorarse como un instrumento que mide toda la inteligencia infantil, sino que los aspectos que evalúa permiten fundamentalmente una buena estimación de la inteligencia exclusivamente académica (Richardson, 1990).»
Contextualizando adecuadamente algunos instrumentos de medida.
2.3. Concreción de la excepcionalidad intelectual
«Es a partir del paradigma cognitivo que la superdotación adquiere una operacionalización nueva y muy distante a la del enfoque más tradicional (C.I.): cuando se habla de superdotación, se hace referencia a la disposición de una elevada capacidad intelectual, pero la peculiaridad que introduce este enfoque es que la elevada capacidad se manifiesta en todos y cada uno de los recursos intelectuales. Pero además de esta buena capacidad en cualquier ámbito específico, existe otro elemento esencial de carácter cualitativo en la superdotación, no especificado en los índices de medición: la disponibilidad de buenos recursos en todos los ámbitos de procesamiento permite la acción combinatoria de éstos para la resolución eficaz de cualquier tipo de problema y, especialmente, en aquellos casos en los que la dificultad no se puede solventar a partir del uso de un sólo recurso intelectual (Castelló, 1995a). En este sentido, en lo que afecta a la evaluación formal -con test psicométricos- de la superdotación, pueden establecerse dos principios: en primer lugar, que no es fruto de una determinada puntuación, como era el C.I. superior a x, clásicamente. En segundo lugar, que la aproximación es más conceptual que empírica: son útiles las puntuaciones en un conjunto variado de tests, en la medida en que sean altas (un centil 75 resulta una operativización razonable) y, sobre todo, permitan combinar recursos diferentes.»
Aclaración fundamental de la diferencia que hay entre cómo considera este paradigma la superdotación respecto al clásico. Además, es clave destacar la palabra «buena capacidad» en contraposición con «extraordinaria o mayúscula». No se trata de ser un superhombre en todas las facetas sino manejarse en ellas con cierta solvencia. Esta idea desmonta el mito absurdo de que un superdotado es la mezcla perfecta de Mozart, Einstein, Picasso y Gandhi pero en pequeñito.
«Los talentos muestran una aptitud elevada en alguno -o algunos- de los diferentes tipos de procesamiento evaluados, por lo que, en este caso, ya no hablamos de generalidad sino de especificidad (Birch, 1984; Gómez y Rodríguez, 1993).
Estos sujetos presentan un perfil intelectual normal excepto en aquella/s aptitud/es en la/s que se desmarca con una puntuación muy alta. Ésta corresponde al percentil 95 en el caso de un talento simple, que es quien la obtiene en una sola aptitud específica (como por ejemplo un talento lógico). Pero también puede darse un talento complejo, el cual, está constituido por la combinación de algunas aptitudes específicas que puntuan por encima del percentil 80 (como por ejemplo un talento académico, el cual resulta de la combinación de la aptitud verbal, la aptitud lógica y la gestión de memoria). De nuevo el análisis cognitivo justifica los criterios métricos: para un talento simple, no se puede esperar ningún tipo de combinación de recursos mentales de alto nivel. Esta persona basará su rendimiento en su punto fuerte: el grupo de macroprocesos implicados en el área de talento. Consecuentemente, se debe esperar un rendimiento muy elevado en las pruebas psicométricas que estimen dicho grupo (o parte del mismo) de macroprocesos. Si, por el contrario, se espera una combinación parcial de recursos (la lógica, memoria, capacidad verbal y de transferencia, propias del talento académico) es decir, una utilización conjunta, el valor cuantitativo no necesita ser tan elevado como en el caso del talento simple, puesto que los aspectos más productivos se relacionan con las interacciones entre dichos recursos.»
Aquí, como veréis, se habla de «muy alta». Es decir, para considerarse talento has de poseer un elevado arsenal de recursos en un área concreta (o en unas pocas áreas si es combinado). Se trata, por lo tanto, de algo «cuantitativo». Poseen y utilizan MÁS recursos que los no talentosos. Pero su capacidad de combinatoria con otras áreas es muy baja o, en los talentos complejos o conglomerados, menos destacada que en los superdotados. Sus conexiones o transferencias con otras áreas son menos ricas y complejas.
«Sea como sea, la explicación de las relaciones entre rendimiento (manifestación conductual de la inteligencia) y aptitudes intelectuales, en el sentido de recursos cognitivos implicados, no es, ni mucho menos lineal. En el mejor de los casos, puede detectarse el tradicional «rasgo latente» en los talentos simples. En los talentos complejos y en la superdotación los elementos «latentes» sin duda existen, pero no manifiestan ninguna simetría con la conducta; son las interacciones entre aptitudes las que verdaderamente explican el rendimiento, en ningún caso las medidas aisladas de los procesos subyacentes. Y aun menos los índices presuntamente generales que combinan tres o cuatro factores intelectuales. Los únicos predictores válidos son las propias conductas. El rendimiento académico previo, predice el rendimiento futuro mucho mejor que un C.I., un factor G o una medida independiente de lógica, memoria, aptitud verbal y de transferencia. La razón es obvia: la conducta ya implica las interacciones, mientras que los tests acostumbran a eliminarlas, en aras de un mejor análisis cognitivo.
Por lo que se refiere al contraste que se puede esperar entre el rendimiento de un sujeto superdotado y uno talentoso, encontramos que un talento puede obtener mejores resultados que un superdotado, si se trata del área específica sobre la cual el talento tiene dominio; un dominio establecido no sólo por la velocidad de ejecución, sino también por la automatización de procesos. No obstante, el superdotado mantendrá un buen rendimiento independientemente del área cognitiva de la que se trate, mientras que el talentoso, fuera de su área de talento, rendirá menos que el superdotado e incluso, menos que algunos de sus compañeros normales (Castelló, 1996).»
Se vuelve a insistir en la no linealidad entre rendimiento y potencial.
«Dentro de este contexto conceptual, también debemos tener especial precaución con el concepto de precocidad, el cual -en ningún caso- debe confundirse con los dos conceptos anteriores. De hecho, la precocidad es un fenómeno evolutivo, mientras que superdotación y talento son fenómenos cognitivos estables una vez se ha completado la maduración cognitiva (Castelló, 1995a). Un niño precoz accede antes a los recursos intelectuales básicos, pero no consigue más ni mejores niveles. Por el contrario, un alumno superdotado o un alumno talentoso puede presentar precocidad o no, pero, después del desarrollo cognitivo, su configuración intelectual es más extensa y/o presenta niveles más elevados en los recursos específicos.»
Un apunte aclaratorio sobre la noción de precocidad.
3.2. Justificación cognitiva del protocolo
«Por tratarse de instrumentos convencionales, tanto el B.A.D.y G. como el T.T.C.T. plantean algunos problemas respecto a los constructos medidos. El núcleo de los mismos se debe a su ubicación dentro de la teoría del rasgo latente, de manera resulta imprescindible valorar en términos cognitivos los procesos implicados.
A continuación presentamos una breve descripción de los recursos seleccionados del B.A.D.y G., según la escueta definición aportada por el instrumento original:
– H.M.V.: «capacidad de resolver problemas intelectuales formulados a base de conceptos verbales».
– H.M.Nv.: «capacidad de análisis y síntesis deductiva expresada por medio de dibujos presentados en un contexto espacial de dos dimensiones».
– Ap.N.: «capacidad para trabajar con números y resolver problemas de cálculo aritmético».
– M.: «capacidad de recordar de forma inmediata lo oído con anterioridad».
– R.L.: «capacidad para comprender relaciones y resolver problemas lógicos».
– Ap.E.: «aptitud para proyectar imágenes geométricas en el espacio y ver sus posibles relaciones de forma, tamaño, distancia».
Cabe decir que estas descripciones no son modelizaciones cognitivas sino meras etiquetas de las conductas evaluadas. En nuestra opinión, se trata de un buen ejemplo de definiciones enmarcadas en el paradigma del rasgo latente, en la medida en que se identifica la conducta del sujeto con el constructo procesual y cognitivo presuntamente evaluado (nótese que, en todos los casos, si se omite el término «capacidad» o «aptitud» queda la descripción directa de una conducta más o menos compleja).
No obstante, aunque los resultados de estas escalas no deben interpretarse como una representación literal de los procesos que evalúan, sí que representan cierto muestreo de las aptitudes cognitivas relacionadas con la ejecución de los macroprocesos supuestamente medidos.
En este sentido, aunque no sepamos exactamente cuáles son los procesos evaluados, podemos afirmar que están relacionados -dada la validez predictiva del instrumento- con la competencia conductual en los ámbitos restringidos que aparecen en los descriptores. En otras palabras, con este instrumento se obtiene una estimación fiable de una porción de los recursos potencialmente implicados en áreas de competencia concretas (verbal, numérica, lógica, etc.).
El uso del término porción está justificado, entre otras, por la siguiente situación: sujetos distintos pueden utilizar recursos cognitivos diferentes para ejecutar un mismo macroproceso o, lo que es lo mismo, dos personas con la misma puntuación en -pongamos- aptitud lógica no necesariamente habrán utilizado los mismos procesos elementales e interacciones entre éstos para concretar dicha competencia. Por lo tanto, aunque los resultados de la prueba psicométrica sean compartidos por varios sujetos, no podemos asegurar que éstos hayan activado procesos básicos idénticos, motivo por el cual no se puede asumir el isomorfismo entre proceso y conducta que contempla la psicometría clásica. Por otra parte, cuando desde un test concreto se hace referencia a términos como Aptitud Espacial, se está contemplando solamente una parte de los procesos elementales que pueden estar implicados en el macroproceso global; en el caso del B.A.D.y G. la Ap.E. incluiria exclusivamente los recursos implicados en la «proyección de imágenes geométricas en el espacio y visión de sus posibles relaciones de forma, tamaño y distancia». Aunque, analizando los ítems de esta escala, puede constatarse que de las operaciones descritas, la que se refiere a la distancia no está implicada en las tareas requeridas y, las restantes solamente se llevan a cabo mediante rotaciones tridimensionales desde un mismo plano y perspectiva, por lo tanto, quedan al margen de la evaluación otras formas de proyección (pasar de una dimensión a otra, simetrías, inversiones, truncados, reconversión de la forma, etc.) así como la manipulación espacial de figuras no geométricas (las operaciones citadas pero ejecutadas sobre caras, paisajes, objetos complejos, etc.). Por lo tanto -insistimos- a pesar de que se declara estar midiendo Aptitud Espacial, en realidad se evalúa una pequeña porción de las posibles operaciones implicadas en este macroproceso.
De hecho, la única forma de evaluar con plena seguridad todos los procesos elementales, relacionados con un gran macroproceso (como la Aptitud Espacial, o el Razonamiento Lógico) de que dispone un sujeto concreto, consiste en definir situaciones conductuales que solamente sean ejecutables si se utilizan dichos procesos (Mayer, 1983).
Esta plataforma de medición adolece de tres importantes inconvenientes: en primer lugar, sólo es factible implicando conductas muy elementales, es decir, apartándose de los grandes ámbitos (competencia lógica, verbal o espacial, entre otras). En segundo lugar, la cantidad de conductas necesaria para aislar los procesos elementales es muy extensa. Y, en tercer lugar, este tipo de exploración requiere, frecuentemente, técnicas experimentales de laboratorio. Por consiguiente, se trata de un procedimmiento válido pero enormemente costoso e inviable en el entorno de aplicación profesional.»
Concretando algunas de las limitaciones intrínsecas que tiene este y cualquier otro instrumento.
4.3. Análisis de perfiles y criterios de valoración
«se ha apuntado que la tipología de talentos que se puede evaluar va a depender más de criterios contextuales (interés de los mismos en un determinado entorno, disposición de instrumentos de medida) que no mentales (existencia real del fenómeno).
Por lo tanto, se debe evitar caer en el nominalismo que establece que las categorías «oficiales» de talento (Alvino, McDonnell y Richert, 1982) describen fenómenos mentales naturales. Muy al contrario, en esencia, describen subámbitos en los cuales un alto rendimiento tiene interés social, económico, educativo o cultural. Por estas razones, cognitivamente hablando, existen más sujetos que poseen alguna capacidad destacada que no talentos identificados mediante el procedimiento de medición.»
Destacada advertencia sobre qué tipologías de talentos se trabajan.
«Tanto en la configuración de superdotación como, de forma más limitada, en la del talento complejo, a parte del buen nivel aptitudinal se plasma la posibilidad de combinar recursos generando complejas funciones cognitivas. Este aspecto no es viable en los perfiles de talento simple o de normalidad presentados. Muy al contrario, estas personas tenderán a apoyarse en sus puntos fuertes en la generación de funciones cognitivas, siendo poco utilizables -e incluso contraproducentes- los recursos de puntuación baja. Concretamente, en el ejemplo del talento simple (talento espacial) puede esperarse cierta interacción con la habilidad mental no verbal, aunque ésta no presenta el nivel adecuado -percentil 80- para poder configurar un talento complejo (que en este caso sería el talento figurativo). Cabe esperar, pues, que esta persona tienda a utilizar imágenes para representar la información y que procese estos materiales de forma muy eficaz, mientras que en operaciones que no permitan este tipo de recursos su eficacia disminuirá notablemente (en especial, las verbales y de memoria no figurativa).»
Importante distinción de tipo cualitativo. La importancia de la combinación de recursos o, con otras palabras, un «mejor» (cualitativamente hablando) uso de los recursos disponibles, que suelen ser menos pero más variados que los de los talentos simples.
Proporciones teóricas y proporciones empíricas
«Las probabilidades teóricas han sido calculadas a partir del centil requerido en los criterios de identificación. Así, la probablidad de hallar un talento simple, con un criterio mínimo del centil 95, en una población normal, sería exactamente de 0,05 (5%). Es decir, sólo un 5% de la población obtendrá puntuaciones por encima de dicho centil. Si se trata de una combinación de aptitudes -siempre asumiéndolas como independientes- la probabilidad global resultará del producto de las probabilidades de cada aptitud. Por ejemplo, en el caso del talento académico, en el que se requería un centil mínimo de 80 en tres variables, se puede obtener la probabilidad de aparición mediante la multiplicación de la probabilidad de que cada una de dichas variables esté por encima de 80, o sea 0,20 (evidentemente, un 20% de la población supera el centil 80, correspondiente al 80% restante de dicha población).
Por consiguiente, la probabilidad de que las tres variables superen el centil 80 será de:
p = 0,2 * 0,2 * 0,2 es decir p = 0,008 (0,8%)
Nótese que, cuando se requiere cierta puntuación en diversas variables, la probabilidad global cae en picado, mientras que si se considera un sola variable, los valores resultantes son bajos pero mucho mayores.»
Aquí se fundamenta estadísticamente los percentiles propuestos. Luego habla de la «covarianza», que incrementa notablemente la probabilidad calculada suponiendo independencia absoluta entre todas las variables, de ahí que se calcule una incidencia real del 1% en los casos de superdotación, cuando estadísticamente sería una proporción despreciable. Por eso es fundamental entender la noción de «covariación» o de dependencia entre algunas de las variables puestas en juego.
«existen correlaciones significativas entre todas las variables del B.A.D.yG., a excepción de memoria y aptitud espacial. Consecuentemente, no se puede afirmar que se trate de características cognitivas independientes sino que covarían.
Solamente la variable creatividad presenta niveles de correlación prácticamente despreciables con el resto de variables.»
Esto es importantísimo, la covarianza o variación conjunta y la correlación o relación conjunta. La creatividad es una característica bastante independiente de otros recursos cognitivos. Es, por tanto, bastante más ‘inestable’ y dependiente de las condiciones externas al sujeto. Por eso se puede apagar tan fácilmente en un contexto poco favorecedor de su expresión como puede ser el ámbito académico formal.
5. DISCUSIÓN
5.1. Conclusiones métricas
«consideraciones métricas importantes:
1. En relación a los aspectos conceptuales, cabe insistir en la dependencia de los instrumentos de medida. No se debe asumir que éstos realicen una medición directa del constructo, es decir, de la supuesta aptitud subyacente o de los procesos mentales. Todo lo contrario: dado que un determinado proceso mental sólo puede ser inferido a través de sus efectos conductuales, los valores obtenidos por los instrumentos permiten establecer la estructura de la conducta evaluada, pero no constituyen un reflejo directo de los procesos implicados.
2. En lo que afecta al procedimiento y, insistiendo en el punto anterior, debe siempre tenerse en cuenta que se están realizando inferencias. Se parte del supuesto de que determinadas configuraciones intelectuales permitirán ciertos tipos de comportamiento o cierta eficacia en dichos comportamientos. La concreción en los ítems de un test, no es más que una de las posibles concreciones y no siempre la óptima. No se puede olvidar que, en la medición de aptitudes cognitivas, siempre se depende de la conducta elegida, en el sentido en que actividades distintas darán mayor peso a determinados procesos cognitivos o bien implicaran procesos distintos. Por lo tanto, la solución con cierto nivel de competencia de una prueba concreta sólo demuestra que el tipo de procesos implicados, específicamente, en la misma, están presentes en el sistema cognitivo de la persona que ha resuelto el test y tienen un nivel de efectividad adecuado. En este punto debe tenerse muy en cuenta que los procedimientos utilizados en la generación de tests, en el marco de los principios de rasgo latente, no pretendían conectar comportamiento con procesos cognitivos concretos, sino que asumían una conexión global: por ejemplo, toda actividad relacionada con el lenguaje activa la supuesta «aptitud verbal».
3. Finalmente, en relación a la toma de decisiones cabe apuntar la necesidad de trabajar con criterios claros y, a su vez, razonables, sobre las medidas que se efectúen. En este sentido, el concepto fundamental es el de competencia elevada (Feldhusen, 1984), siendo una decisión bastante arbitraria la fijación del límite, en especial teniendo en cuenta las consideraciones de los puntos 1 y 2. La opción tomada por el cuartil superior (centil 75 o más) intenta incluir, por una parte, garantías de competencia, puesto que dicha puntuación es suficientemente elevada como para minimizar -o, al menos, absorver- las distorsiones métricas y, por otra, la consideración de no linealidad, es decir, que las diferencias dentro del intérvalo (entre los centiles 75 y 100) no implican, forzosamente, diferencias en competencia.
En los casos de talentos simples, el razonamiento anterior se hace más difícil de concretar, puesto que la competencia debe ser muy elevada. De esta manera, el límite del intérvalo debe aumentar, a la vez que el propio intérvalo debe ser más reducido. La propuesta del centil 95 (el decil superior también sería una propuesta razonable) es fiel al concepto de talento simple, pero comporta cierto riesgo: pequeñas incidencias en la medición pueden modificar el diagnóstico. Un error, sesgo o distorsión de 5 puntos centiles es más que factible en cualquier medición intelectual, razón por la cual es fácil que los casos cercanos a este tipo de talento y los propios talentos se confundan, en ambos sentidos.»
Todas estas consideraciones son fundamentales, por lo que hay que fomentar la «sensibilidad contextual» adecuada para tenerlas siempre en cuenta. Lo habitual es olvidarlas una vez que se van mecanizando los procesos de identificación basados en este u otros modelos. Se pierde esa «sensibilidad» y, por ende, se llega fácilmente a la rigidez de las categorías cerradas, a los cortes arbitrarios que dicen determinar si alguien «es» o si alguien «no es».
5.2. Ámbito cognitivo explorado por el protocolo
«discrepancias teóricas con los postulados clásicos del rasgo latente, que son, fundamentalmente:
a) Mientras que la teoría clásica afirma que una determinada conducta (la situación de test) activa todos los recursos cognitivos relacionados con aquella actividad, aquí se entiende que solamente se activan algunos -una porción- de dichos recursos. Pero, además,
b) Mientras que la teoría clásica asume que una misma conducta, ejecutada por personas distintas, implicará los mismos recursos cognitivos, aquí se contempla que personas distintas pueden utilizar recursos diversos para realizarla. De hecho, cognitivamente hablando, pueden encontrarse caminos distintos para realizar una operación compleja, seguir secuencias diferentes o aplicar estrategias diferenciadas (Manktelow y Over, 1990). En contrapartida, sí es cierto que determinados comportamientos requieren, como condición sine qua non, la activación de algún/os recurso/os específico/os, aunque no suelen ser los más frecuentes en los tests convencionales, sino que se utilizan en ciertas situaciones de laboratorio.
c) Finalmente, al establecimiento de aptitudes subyacentes originadas en el tipo de comportamientos evaluados que propone la teoría clásica, se debería contraponer una clasificación basada estrictamente en los procesos cognitivos y, en todo caso, contemplar con posterioridad sus efectos sobre la conducta (Gardner, 1983). A pesar de ello, las categorías definidas desde el rasgo latente, entendidas como una clasificación o taxonomía, pueden ser perfectamente utilizadas con fines de catalogación de procesos mentales. Pero hace falta mantener la precaución de no caer en el nominalismo y asignar entidad real (psicológica, mental) a las capacidades o aptitudes propuestas. Se trata sólo de etiquetas que engloban aquellos procesos que, aunque no tengan otra característica común, comparten el poder ser utilizados para determinadas conductas.
Bajo este conjunto de matices, se puede entender que lo que se está realizando con este tipo de instrumentación convencional es un muestreo -no aleatorio- de los recursos cognitivos del individuo, es decir, un muestreo de procesos elementales disponibles (a mayor número, podemos esperar mayor competencia en la ejecución) y de los macroprocesos -combinaciones funcionales de los procesos elementales- relacionados con la conducta implicada en el test. Quizás un ejemplo resulte aclaratorio: supongamos varios subtests de capacidad (aptitud, razonamiento, habilidad mental) verbal que contengan ítems de los siguientes tipos:
calcetín es a pie, como guante es a …
o
ventilador, televisor, microondas, semáforo, aspirador, secador
o
nariz, cáliz, matiz, perdiz, tapiz
Podemos constatar que, en todos ellos, se implica algún tipo de recurso verbal, dado que se emplean informaciones codificadas en este formato, aunque la tipología de dichos recursos sea distinta: el primer ejemplo implica utilizar relaciones funcionales entre las palabras, es decir, implicará conocer la significación de los términos e identificar qué función los une; el segundo ejemplo requiere conocer igualmente la semántica de los objetos pero, en lugar de establecer relaciones entre ellos, se debe determinar a qué clase pertenecen y detectar cuál de éstos es externo a la clase (todos pertenecen a la clase electrodomésticos a excepción del semáforo); y, finalmente, el tercer ejemplo supone un procedimiento de clasificación y selección semejante, pero, en este caso, a partir del análisis morfológico de las palabras y de su pronunciación (la única palabra llana de la lista es cáliz). Nótese que, en este último ejemplo, también se puede llegar a la respuesta correcta prescindiendo de si la palabra es llana o aguda y valorando, como criterio de categorización, si la palabra en cuestión lleva o no tilde.
En conclusión, el tipo de recursos verbales implicados en estos subtests difieren entre sí notablemente, por lo que resulta poco probable que sean igualmente representativos de una presunta aptitud verbal global y, a su vez, son demasiado específicas como para inferir, a partir de ellas, la competencia en el macroproceso general mencionado. Sin embargo, los modelos de rasgo latente sobre los que están construidos los instrumentos psicométricos –incluidos los actuales- considerarán que son estimaciones alternativas válidas de la citada aptitud verbal.
En cambio, cada uno de los citados subtests realiza una estimación de porciones distintas del gran macroproceso etiquetado como aptitud verbal, por lo que lo más óptimo no es optar por uno u otro, sino que cuantas más medidas de porciones distintas de una misma aptitud se obtengan, más completa será la estimación de dicha aptitud
Advertencias importantes: no caer en el nominalismo e incorporar más medidas de porciones distintas de la misma aptitud para que la estimación sea más completa.
5.4. Aspectos complementarios a explorar
«en aquellos casos en los que los resultados obtenidos se encuentran alrededor de los límites diagnósticos, es decir, casos en los que su consideración puede proporcionar validez de criterio. De esta forma y, gracias a este tipo de exploraciones complementarias, tiene sentido dar relativo margen a los centiles de corte para incluir o excluir a determinados sujetos con puntuaciones dudosas.
Las evaluaciones complementarias que más claramente se pueden incluir en la exploración global son:
«los aspectos organizativos de la información en memoria»
«un conjunto de variables de carácter predisposicional»: la motivación o la recopilación de productos o destrezas específicas (Genovard, 1982) del alumno realizadas en cualquier ámbito (trabajos escolares, hobbies, deportes, etc.).»
5.5. Generalidad de uso
«Como se ha podido comprobar a lo largo de este trabajo, el protocolo propuesto se caracteriza por la sencillez de aplicación. Resumidamente, sus principios fundamentales son:
a) Substitución de las medidas tradicionales de CI por instrumentos que faciliten un perfil de macroprocesos, incluída la creatividad.
b) En este sentido, no se trata de utilizar forzosamente los tests empleados en este trabajo. Cualquier instrumento debidamente fiabilizado que pueda encontrarse en el mercado es perfectamente adecuado, siempre y cuando permita estimar las variables (macroprocesos) descritas.
c) Utilización de un procedimiento único para la evaluación de superdotación y de talentos.
d) Y, finalmente, concreción de los puntos de corte o de toma de decisiones en los centiles expuestos, a fin de fundamentar los diagnósticos de los talentos simples, complejos y de la superdotación.
Así, pues, el protocolo propuesto puede ser aplicado de manera general en la identificación de sujetos intelectualmente excepcionales, rentabilizando los recursos empleados.
Por otra parte, soluciona el problema de la validez de la evaluación, en la medida en que incorpora aquellas variables que son significativas para el perfil cognitivo de los fenómenos intelectuales objeto de estudio. Finalmente, pero no menos importante, la instrumentación utilizada puede ser perfectamente común y accesible a cualquier profesional, cosa que permite la homogeneización e intercambio de resultados
Como ocurre, por ejemplo, en Murcia.
6. CONCLUSIONES FINALES
«la conocida fórmula de «nada se opone a considerar esta persona como superdotada/talentosa» acaba resultando la máxima aproximación a la identificación que podemos obtener. Cabe insistir en que esta limitación no corresponde únicamente al presente protocolo, sino que es inherente a cualquier procedimiento basado en tests puntuales
«la toma de decisiones diagnósticas obliga a manejar ciertos elementos conceptuales. Es decir, no basta con considerar que, a partir de determinado rendimiento, en las variables que sean, se pertenece a una u otra categoría. Muy al contrario, más que puntos de corte, se deben utilizar zonas de competencia (cuartil superior, decil superior) a la vez que criterios teóricos (como la significación funcional y cognitiva de las variables o las posibles imprecisiones del instrumento de medida) para valorar los resultados empíricamente obtenidos. Evidentemente, criterios anteriores como «supera el valor de 130 en el CI» resultaban más operativos, cosa que no significa mejores. En efecto, si la operatividad aplicada ha de sacrificar validez teórica, se está realizando un muy mal negocio pues, en aras de facilitar la toma de decisiones o el diagnóstico, se generan errores y, especialmente, omisiones importantes en la identificación. Nos podemos preguntar cuántos talentos específicos (sobre todo creativos) y verdaderos superdotados habrán sido despreciados por no superar el 130 en CI
«tenemos plena confianza en que los profesionales aplicados de finales del siglo XX disponen de la capacitación, criterio y aptitud personal suficiente como para explotar las ventajas del protocolo propuesto y superar, de una vez por todas, los procedimientos anacrónicos de principios de siglo.»


José Luis Sánchez Piñero
ASA Málaga
659 37 48 04
web: http://asamalaga.org/

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio