anÁlisis del proceso de enseÑanza/aprendizaje … · sobre epistemología (modelizaciones y...
TRANSCRIPT
La enseñanza/aprendizaje del conocimiento probabilístico 1
ANÁLISIS DEL PROCESO DE ENSEÑANZA/APRENDIZAJE
DEL CONOCIMIENTO PROBABILÍSTICO
PILAR AZCÁRATE GODED
UNIVERSIDAD DE CÁDIZ
Octubre, 1996
La enseñanza/aprendizaje del conocimiento probabilístico 2
ESQUEMA / RESUMEN DEL TRABAJO
* Presentación: interés, sentido, justificación y situación curricular del tema.
* Objetivos: aspectos del conocimiento didáctico-matemático del estudiante/profesor sobre los
que puede incidir su desarrollo.
*Contenidos: descripción y desarrollo del marco explicativo referentes a las cuestiones a tratar
sobre epistemología (modelizaciones y naturaleza), aprendizaje (lenguaje) y
enseñanza (fenomenología y relaciones, medios recursos)
*Actividades: descripción del tipo de actividades a desarrollar durante el tratamiento del tema
en el aula tanto a nivel de práctico como teórico.
*Evaluación: no puede ser considera como un elemento separado del proceso ya que en todo
momento el propio desarrollo del aula está aportando datos sobre la evolución del
proceso.
*Bibliografía complementaria: relación facilitada a los alumnos como material de apoyo y
para su posible utilización en el futuro.
*Referencias: bibliografía utilizada y referida en la presentación del trabajo.
La enseñanza/aprendizaje del conocimiento probabilístico 3
PRESENTACIÓN
El trabajo que voy a presentar no corresponde, como tal, a ninguna de las unidades
recogidas en el programa, en verdad es una parte de la Unidad III.4 en la que también está
incluida el conocimiento estadístico. Los dos aspectos del conocimiento matemático reflejados en
dicha unidad, el probabilístico y el estadístico, están muy relacionados. La estadística se ha
desarrollado con el fin de organizar, caracterizar y tipificar la información, de forma que pueda
aportar datos significativos para el análisis de la realidad. Esa información puede provenir de una
gran diversidad de fenómenos de la vida social, política, profesional, afectiva, económica, etc. De
todos ellos, nos interesa el universo de fenómenos cuya resolución está afectada por la
incertidumbre, en los que la capacidad de inferir conclusiones, está directamente relacionada con
el sentido probabilístico de dichos datos. El pensamiento probabilístico entendido como la
capacidad de interpretar y manejar la incertidumbre presente en la realidad, es un factor clave en
la sociedad actual. Aunque nuestras reflexiones estarán hoy focalizadas en la problemática de la
enseñanza/aprendizaje del conocimiento probabilístico, se entiende que, el desarrollo de la
unidad correspondiente, se completa en el aula con un tratamiento similar desde la óptica
estadística, para posibilitar que los estudiantes-profesores realicen la síntesis necesaria.
Desde el punto de vista curricular, el tratamiento del conocimiento probabilístico en
nuestras aulas está justificado al estar, por primera vez, recogido en el currículum matemático. En
la última propuesta curricular para la Ecuación Primaria, presentada por la Junta de Andalucía,
(BOJA del 20/6/1992), no hay una presentación explícita de un bloque relacionado con algún
aspecto del conocimiento probabilístico. En su organización de los contenidos no parece
reconocer ni el espacio, ni la problemática específica del conocimiento probabilístico, cuya
naturaleza difiere sustancialmente de otros campos del conocimiento matemático, como, por
ejemplo, el numérico. Sin embargo, curiosamente, dentro del desarrollo de contenidos
pertenecientes al bloque "Números y Operaciones", aparecen indicaciones como:
- "Exploración sobre la causalidad. Constatación del carácter aleatorio de algunas
experiencias"
- "Aproximación a la idea de probabilidad. Exploración del grado de probabilidad de
sucesos sencillos"
Indicaciones que reflejan la necesidad, apoyada por numerosos investigadores, de iniciar
a los alumnos en la interpretación y manejo de la incertidumbre desde los primeros momentos de
su escolaridad. Pero, al ser un tópico cuyo tratamiento en las aulas ha sido inexistente hasta
La enseñanza/aprendizaje del conocimiento probabilístico 4
ahora, gran parte de las ideas que los estudiantes-profesores tienen elaboradas sobre él, son
producto de las experiencias e interacciones directas con el medio socio-natural sin mediación de
proceso formativo alguno. Lo cual provoca la existencia de un gran número de concepciones
espontáneas de carácter intuitivo con fuertes sesgos en sus razonamientos y muy cercanas a un
conocimiento cotidiano de la incertidumbre, como hemos podido comprobar en nuestras propias
investigaciones (Azcárate, 1995). Hecho que puede tener grandes repercusiones en su futura
aulas de Primaria.
Es un aspecto complejo del conocimiento matemático, difícil de tratar en las aulas de
primaria y difícil de tratar en nuestras aulas. Su propia naturaleza entra en contradicción con el
habitual rigor y exactitud de los datos matemáticos; su interpretación y aplicación a las
situaciones del entorno entran en conflicto con el valor inequívoco y verdadero que se le otorga a
la información procedente de cálculos matemáticos. Estas características hacen difícil, en muchos
casos, una verdadera comprensión de la probabilidad y son necesarios procesos de reflexión
conscientes sobre las diferentes experiencias vividas para poder modificar las ideas iniciales de
los estudiantes-profesores sobre el propio conocimiento e introducirlos en la problemática de su
enseñanza/aprendizaje.
Pero, hay un dato más por lo que consideramos necesario e interesante el estudio de este
aspecto del conocimiento, nos referimos a su potencialidad epistemológica. Su comprensión
provoca un salto epistemológico de rango cualitativamente significativo, permitiendo al
estudiante-profesor reconocer esa parcela de la realidad que se mueve entre lo perfectamente
determinado y predecible y aquello considerado como imposible. Como un día comentaban en el
aula, con su estudio aprendemos todos a movernos en la amplia gama de los grises, situación no
habitual en las aulas donde todo parecer ser blanco o negro, correcto o incorrecto, hecho de vital
importancia para que los estudiantes-profesores puedan enfrentarse desde nuevas perspectivas, a
las situaciones educativas.
Los estudiantes-profesores poseen muy poca información sobre este tema, tanto en el
ámbito conceptual como didáctico. Al ser un tema novedoso para ellos, es idóneo para cuestionar
y poner en entredicho muchas de sus ideas sobre las matemáticas y su enseñanza/aprendizaje, al
tener que pasar ellos mismos por muchos de los momentos que ellos mismos diseñarán para sus
futuros alumnos de Primaria. Ello les permite aproximarse al conocimiento matemático desde
perspectivas más flexibles.
Las ideas que se desarrollan a continuación representan el marco de referencia desde el
La enseñanza/aprendizaje del conocimiento probabilístico 5
que se concreta nuestra actuación en el aula. Su desarrollo específico depende de las condiciones
contextuales, del grupo clase y del tiempo disponible.
La enseñanza/aprendizaje del conocimiento probabilístico 6
OBJETIVOS
La introducción de las nociones básicas del conocimiento probabilístico en estos primeros
niveles no se trata más que de un primer contacto con el mundo de la incertidumbre, apoyada
fundamentalmente en una percepción empírica de dicho mundo. Es decir, el objetivo de su
tratamiento en la Primaria es facilitar que los alumnos descubran y describan situaciones o
experiencias aleatorias simples y calcular las primeras probabilidades, fundamentalmente en
contextos de juego o conocidos.
En consecuencia, con el tratamiento de este tema en el aula de la Facultad, nuestro interés
es posibilitar que los estudiantes-profesores se acerquen a las peculiaridades de este campo del
conocimiento matemático, su incidencia en el mundo actual, las características de su aprendizaje
y la problemática de su enseñanza. Y, con ello, facilitar al estudiante-profesor, la construcción
de un conocimiento didáctico-matemático significativo sobre la probabilidad. Es decir, un
conocimiento que le permita diseñar, y en su día desarrollar, un tratamiento adecuado para el aula
de Primaria.
Desde los presupuestos desarrollados en nuestro proyecto, esta idea se concreta en la
necesidad de que el estudiante-profesor elabore determinados marcos de referencia que le
permitan analizar y afrontar los problemas relativos al propio conocimiento puesto en juego, a su
aprendizaje y a su enseñanza, desde la elaboración de principios y presupuestos personales
razonados, argumentados y, por tanto, conscientes.
Este objetivo global lo podemos desglosar analíticamente, en términos más concretos:
* Justificar y analizar la aleatoriedad de los fenómenos, sus posibles caracterizaciones y
significados. Su tratamiento en los procesos de enseñanza/aprendizaje.
* Conocer y analizar los diferentes significados de la probabilidad, sus modelizaciones
matemáticas y sus relaciones. Su rol en los procesos de enseñanza/aprendizaje.
* Conocer y analizar las características y dificultades propias del aprendizaje significativo
del conocimiento probabilístico. Caracterizar los obstáculos más significativos.
* Reflexionar sobre la incidencia de la inexactitud del conocimiento probabilístico y su
influencia en los procesos de enseñanza/aprendizaje matemáticos.
* Reconocer y reflexionar sobre la naturaleza aleatoria de los fenómenos de nuestro
entorno real.
* Reconocer y analizar fenómenos y problemas del entorno, que puedan ser integrados en
situaciones de enseñanza/aprendizaje y que, en su resolución, se relacionen con la
La enseñanza/aprendizaje del conocimiento probabilístico 7
recogida y organización de datos, su análisis e interpretación probabilística.
* Analizar los medios, recursos y tipo de actividades que pueden desarrollarse en el aula
de Primaria.
Para la consecución de dichos objetivos hemos de seleccionar unos determinados
contenidos, coherentes con nuestras intenciones, sobre los que trabajar en el aula.
La enseñanza/aprendizaje del conocimiento probabilístico 8
CONTENIDOS
Los contenidos sobre los que vamos a trabajar en el aula, a través de diferentes tipos de
actividades, están relacionados con los siguientes aspectos del conocimiento probabilístico:
- Fenómenos indeterministas versus deterministas. Características de la aleatoriedad
como noción matemática. Presencia y relaciones con las situaciones del entorno.
- La observación y descripción de los fenómenos deterministas y aleatorios. Sucesos
seguros, posibles e imposibles.
- De la intuición probabilística al cálculo de probabilidades. La probabilidad como
medida de la incertidumbre presente en los fenómenos aleatorios.
Estimación/cuantificación.
- Análisis de los conceptos básicos del Cálculo de Probabilidades: espacio muestral,
sucesos equiprobables, sucesos independientes, frecuencia, distribución normal, ley de
los grandes números, métodos de recuento, combinatoria.
- Las conexiones del concepto de probabilidad con el entorno. Las diferentes
interpretaciones del concepto.
- Génesis y características del desarrollo de las nociones probabilísticas. El modelo
Bayesiano.
- El tratamiento educativo del conocimiento probabilístico.
- Estudio fenomenológico de los diferentes elementos del conocimiento probabilístico.
- Contextos, situaciones, instrumentos, recursos y problemática de su enseñanza.
Para trabajar estos contendidos en el aula de la Facultad de Educación, nosotros como
profesores- formadores tenemos que disponer de un marco general explicativo sobre los
diferentes aspectos que inciden en la enseñanza/aprendizaje del conocimiento probabilístico.
Marco que nos permite, seleccionar y organizar las lecturas e informaciones sobre las que han de
trabajar los estudiantes-profesores, seleccionar y organizar las actividades, orientar las
discusiones desarrolladas en el aula y, en general toda nuestras decisiones en torno a este tema.
MARCO EXPLICATIVO DEL CONTENIDO
La formación obligatoria de todo ciudadano está dirigida a promover el estudio y
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 9
desarrollo de los instrumentos y capacidades que permitan a los sujetos describir, analizar e
intervenir en la realidad. La probabilidad es concebida como un instrumento matemático que
permite la modelización de la realidad afectada por incertidumbre. El sujeto debe construir dicha
modelización desde y durante su propia actividad. La idea de probabilidad puede ser
fundamentada desde diferentes perspectivas, lógica, laplaciana, frecuencial, subjetiva y todas
ellas nos muestran la gran dificultad para delimitar claramente los significados de los conceptos
implicados. En estos primeros niveles educativos el objetivo es introducir a los alumnos en el
reconocimiento de la incertidumbre y de su medida en casos muy concretos y cercanos a
contextos cotidianos.
La probabilidad es un concepto complejo que sólo tiene sentido en relación con un
suceso o acontecimiento de una serie o fenómeno aleatorio, si no existe el fenómeno aleatorio la
probabilidad tampoco. Ello implica que la construcción del concepto de probabilidad sólo
adquiere significado desde la comprensión de la incertidumbre y su modelización matemática, la
aleatoriedad. De un fenómeno o experiencia aleatoria podemos conocer el conjunto de soluciones
posibles, incluso tenerlas bien identificadas, lo cual nos permite conocer su probabilidad de
ocurrencia. Sin embargo, estos conocimientos sobre las condiciones del fenómeno no determinan
la presencia de uno u otro acontecimiento de forma absoluta. Cada uno de los resultados posibles
del fenómeno ocurrirá de forma azarosa y sólo podemos tener una cierta expectativa de su
ocurrencia. La noción de aleatoriedad esta, por tanto, vinculada con otra idea de gran controversia
epistemológica, el azar.
Esta breve visión de las ideas ligadas al propio concepto de probabilidad, nos da algunas
claves para poder comprender las dificultades conceptuales inherentes a la noción de
probabilidad. De hecho, la evolución a lo largo de la historia de los diferentes conceptos
señalados ha tenido claras interacciones (Cuadro 1). Entre otras cosas, es necesario afrontar el
estudio de los obstáculos epistemológicos relacionados con la propia concepción del azar, cuyo
análisis nos aporta una información significativa para comprender el origen de gran parte de las
ideas y creencias de los sujetos.
El azar, diferentes aproximaciones epistemológicas
Históricamente la idea de azar ha estado relacionada con múltiples consideraciones de
rango teológico, filosófico, ideológico y epistemológico. El desarrollo de la propia idea de azar
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 10
nos facilita información sobre los diferentes obstáculos con los que ha estado y está ligada su
comprensión, muchos de los cuales persisten en la sociedad actual (Cuadro 2). Obstáculos sobre
los que el estudiante-profesor ha de reflexionar desde dos perspectivas, desde la de los alumnos
de Primaria, de cara a su futura labor profesional y desde su propia formación, de cara a dominar
las dificultades del propio conocimiento (Fischbein, 1990). Es importante que los estudiantes-
profesores sean conscientes de sus propias ideas y obstáculos para poder analizar, en su día, las
dificultades de comprensión de sus alumnos (Henry, 1996).
(*) Las primeras aproximaciones a la idea de azar son de rango teológico, desde las
cuales el origen de todo está en el poder de los Dioses, quienes conocen todo lo que acontece. El
hombre es incapaz de controlar todas las causas que provocan un resultado observado y al azar
es considerado simplemente como una causa desconocida para él. Desde dichas aproximaciones
a la idea de azar, el estudio o modelización de los sucesos considerados como fortuitos no es
factible, pues están fuera de toda posibilidad de regulación. En términos de Polya (1962),
estamos ante una fase inicial exploratoria y empírica de las ideas que emergen de la realidad y
que, posteriormente, facilitarán su posible modelización matemática a través de lo que hoy
conocemos como aleatoriedad. Fruto de este tipo de explicaciones se detectan diferentes
discursos del azar:
⋅⋅⋅⋅ Así en las civilizaciones más antiguas como la egipcia, babilónica, normanda,
etc., desde la consideración de un universo regido por la búsqueda del orden, el azar es
considerado como una fuerza extraña de origen mágico, que refleja la suerte ciega o el
destino y asociada a la existencia del caos (Morin, 1986). En las distintas mitologías
encontramos signos del poder del orden (Maât para los egipcios, Marduck para los
babilónicos) sobre el caos (Seth o Tiaâmat), representativos de la búsqueda del orden
(Guirand, 1970). Para el mundo primitivo no hay hechos fortuitos, hay causas
desconocidas que, ante la ausencia de justificaciones para su existencia, se
relacionan con lo mágico o lo divino.
⋅⋅⋅⋅ Para el mundo grecorromano, sin embargo, el universo está regido por la
necesidad causal, evitando recurrir a fuerzas sobre naturales o divinas. A los dioses se les
otorga significados semiracionales, concibiéndolos más como fuerzas de la realidad
natural que de naturaleza divina. Uno de los síntomas más significativos de esta
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 11
evolución es la consideración de la dualidad Ananké/Tyché - Necesidad/Azar. La
necesidad o Ananké es lo que viene dado, lo establecido, lo que no se puede evitar, donde
los hechos acaecen por causas necesarias; representa la personificación de la obligación
absoluta (Grimal, 1989). Lo que se escapa de este orden o aparente necesidad es el azar o
Tyché, todo lo que no ocurre por una causa aparente.
Una de las figuras más representativas de estas civilizaciones, Aristóteles,
reconocido como el mayor sistematizador del saber antiguo (Taton, 1972; Mason, 1985),
explica el Azar como el encuentro imprevisto de procesos causales independientes, es
una mera apariencia que atañe a las cosas de la naturaleza y a las humanas, nunca a las
celestes, a las que considera de otra categoría y pertenecientes a lo que llama el mundo
supralunar, donde no existe indeterminación alguna. Su concepción del problema del azar
se manifiesta, por tanto, dentro de un no-determinismo aplicable sólo al mundo terreno,
nunca al celeste al que considera perfecto y ordenado, como indica Ross (1957). Aunque,
según Crombie (1985), hay otros muchos autores que piensan que en las tesis de
Aristóteles no hay indeterminismo alguno, el azar lo considera simplemente como una
apariencia, producto de un encuentro imprevisto de lo determinado. Idea que ha sido
defendida por filósofos como Cournot ([reeditado] 1984) y que subyace en nuestra propia
consideración del azar como casualidad.
Estas ideas tienen también su reflejo en el mundo romano donde se habla de la
diosa Fortuna como la Suerte y de Casus como el Azar, al que designan, al igual que el
azar aristotélico, como la confluencia de series causales. Con respecto a la diosa Fortuna,
el mundo latino la asocia con el sentido positivo a la suerte, a diferencia de su acepción
neutra primitiva. Gran parte de estos términos y significados han llegado hasta nuestros
días, como el del vocablo "Fortuna", cuyo significado hoy sigue unido a la buena suerte,
como algo que no se puede controlar y, en muchos casos, unida intrínsecamente al
destino de las personas.
En resumen, el mundo grecorromano admite en general que la determinación
total no es una característica propia del mundo terreno, en él existe algo
indeterminado que no permite una aserción absoluta y segura sobre el futuro. Las
reflexiones desarrolladas en esta época sobre el tema, son de carácter teórico y metafísico,
sin cuestionarse el posible control y estudio de esos sucesos inesperados o fortuitos
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 12
producidos por "causas accidentales". El azar, reconocido como algo desconocido,
es explicado como un simple reflejo del cruce inesperado de un conjunto de hechos
que son producto de causas necesarias, establecidas por series causales
independientes. Ideas que no son extrañas a los sujetos del siglo XX, ya que, como
apuntábamos antes, un significado similar al dado por Aristóteles es el que hoy
otorgamos al término casualidad, al que en muchos casos diferenciamos de suerte, más
vinculado a las personas concretas. Creencias que, por otro lado, al estar subyacentes en
nuestras decisiones representan en muchos casos grandes obstáculos epistemológicos
para comprender el posible estudio de los sucesos reconocidos como fortuitos o
aleatorios.
⋅⋅⋅⋅ Un tercer momento diferenciado lo encontramos ya en plena Edad Media, en el
que las formas históricas de magia y mitología se transformaron progresivamente en las
grandes religiones que hoy conocemos. Desde ellas el poder de Dios está presente en
todas las posibles explicaciones de cualquier fenómeno. El universo está regido por la
Divina Providencia y el azar sólo es el reflejo de su voluntad incomprensible para el
hombre. Durante la Edad Media, con el apogeo del Cristianismo, las ideas de la Iglesia
adquieren un peso significativo en la sociedad. Su persistencia en el papel de la
Providencia Divina como causa única y última de todas las cosas condena a lo
indeterminado y, por tanto, al azar a la inexistencia, relacionándolo con un sentido
cabalístico y mágico del mundo, y prohibiendo en múltiples ocasiones cualquier alusión
a él. Su estudio sigue siendo, por tanto, inconcebible.
Según Sánchez Albornoz (1976), en el Medievo se pueden diferenciar dos
interpretaciones de la noción de azar. La oficial y, por tanto, la de todos los creyentes, y la
vulgar o del incrédulo. Para los primeros, el azar no existe, el hecho que observamos
como inexplicable es una proyección de la suprema voluntad de Dios, cuyo sentido no lo
puede captar la deficiente razón humana; sin embargo, para el no creyente, el azar es una
fuerza de la naturaleza ciega, inexplicable y mágica, reflejando las concepciones
primitivas sobre lo incontrolable. Así, los acontecimientos extraños e inesperados,
resultado de la convergencia accidental de procesos causales para los aristotélicos o del
poder de fuerzas ocultas y mágicas para los paganos, para el hombre docto medieval
son simplemente producto de la voluntad divina, que se justifica como causa última
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 13
ajena al hombre (Hacking, 1995). Cabría apuntar que, en nuestra cultura actual, esta
concepción está identificada con los grupos fatalistas y fundamentalistas.
(*) El progresivo papel del hombre en el control de la naturaleza, representó la búsqueda
de una nueva imagen del mundo donde la realidad estaba regida por sus propias leyes. El mundo
científico, a partir de los siglos XVI/ XVII, se focalizó en el intento de explicación y control de
los fenómenos de la naturaleza. En dicho contexto, toda noción que estuviese relacionada con el
desorden, la incertidumbre o lo indeterminado era relegada a segundo plano y desechada como
parte del saber científico. Estas ideas provocaron un "retroceso del poder del azar en función del
progreso del conocimiento" (Wagensberg, 1981: 16), entrando en una época de gran confusión en
torno al problema del azar.
A partir de la formulación matemática de las leyes fundamentales de la Mecánica
Clásica, se consolidó, definitivamente, la teoría determinista; se tenía la certeza de que se habían
descubierto las bases de las Leyes Universales de la Naturaleza que regían el universo (Taton,
1972). Desde los presupuestos de la teoría determinista, se reconocían en la naturaleza dos tipos
de fenómenos:
* Aquellos que se regían por leyes armónicas y, por tanto, eran previsibles en su
evolución y repetición.
* Y otra serie de fenómenos que, aparentemente, eran inexplicables e
impredecibles, sobre los que se tenía una clara ignorancia.
Estos últimos son los que, desde el pensamiento newtoniano, se atribuyen al azar. Desde
él, el mundo se regía por leyes estrictamente causales y no se podía ni pensar que existiesen leyes
del azar o de lo irregular y mucho menos que éstas pudieran ofrecer una alternativa válida para el
estudio de la realidad. Como plantea Hacking (1991: 18), "a ninguno de ellos se le ocurría
pensar por un instante que las leyes del azar podrían suministrar una alternativa de las leyes
estrictamente causales". Se consideraba que todo fenómeno tenía una causa, por mínima que ésta
fuera y, que aunque un fenómeno pareciera fortuito, ello sólo era producto del desconocimiento
sobre las causas y leyes que lo regían. El azar era simplemente el efecto de la ignorancia
humana a la hora de traducir científicamente, según leyes causales y deterministas, ciertos
acontecimientos de la Naturaleza. Según esta concepción, no existe el azar en sí mismo, es
nuestra ignorancia lo que nos hace recurrir a él, como instrumento explicativo.
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 14
En paralelo al retroceso sufrido en el estudio de la significación del azar como expresión
de lo indeterminado, se produce la progresiva emergencia de la noción de probabilidad. En
realidad, es un hecho fácilmente explicable ya que el espíritu de la época se caracterizaba por la
obsesión por el control de todos los fenómenos de al naturaleza. Ante los hechos fortuitos, cuyas
leyes eran ignoradas, el Cálculo de Probabilidades posibilitaba adentrarse en el estudio de
algunos de estos fenómenos, aunque fuera provisionalmente. Su objeto de estudio, por tanto, son
los denominados sucesos aleatorios, sobre los que si bien se dispone de alguna información a
través de la experiencia, no son previsibles en sus resultados.
En este momento de la historia, se hacía una clara distinción entre la noción de azar y la
noción de probabilidad. El azar designaba el carácter indeterminado y fortuito de la realidad
física, sin interés para el estudio científico; la probabilidad, sin embargo, era una categoría
epistémica derivada de la imposibilidad humana para conocer de manera absoluta el
fundamento de ciertos procesos reales, los aleatorios; aportaba información, aunque fuera
parcial, sobre su funcionamiento. Ideas que, en cierta manera, tienen también un reflejo en las
creencias de muchas personas, niños y adultos, cuando diferencian el azar y lo aleatorio
claramente de la probabilidad. Esta última es considerada un dato matemático, y como tal,
conocido y no sujeto a la incertidumbre que conlleva la presencia del azar.
La consagración del azar como ignorancia se alcanza curiosamente en el discurso
laplaciano, al principio del siglo XIX. Laplace, en su famoso Ensayo filosófico sobre las
probabilidades (Laplace [reeditado], 1985: 25), expone el ideal determinista cuando imagina una
inteligencia infinita que, "en un momento determinado conociera todas las fuerzas que animan a
la naturaleza, así como la situación respectiva de los seres que la componen, además, fuera lo
suficientemente amplia como para someter a análisis tales datos, podría abarcar en una sola
fórmula los movimientos de los cuerpos más grandes del universo y los del átomo más ligero;
nada le resultaría incierto y tanto el futuro como el pasado estarían presentes ante sus ojos”. Es
decir, como analizan Briggs y Peat (1990), según su filosofía llegaría un día en que los científicos
encontrarían una expresión matemática que permitiría la explicación y control de todo fenómeno
de la Naturaleza, ese día quedaría eliminada la incertidumbre. Mientras esto no ocurra, no queda
otra opción que acudir a las probabilidades, como "mal menor". Es decir, desde un punto de vista
epistemológico, el determinismo absoluto conduce a Laplace a justificar lo aleatorio a partir de
nuestra ignorancia acerca de como podemos controlar las causas de un suceso, ya sea por nuestras
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 15
limitaciones de análisis o de cálculo.
Estas tesis deterministas van a cuajar fuertemente en los ámbitos escolares y la idea de
azar producto de lo desconocido persiste en gran parte de las concepciones adultas. El
reconocimiento de la falta de información sobre el desarrollo de los fenómenos aleatorios, es
decir, aquellos que son producto del azar, puede llevar en numerosas ocasiones a otros obstáculos
de comprensión, como el de la equiposibilidad. Ante un fenómeno aleatorio, cualquiera de sus
posibles acontecimientos puede suceder, no hay leyes que lo regulen y no disponemos de ninguna
razón válida de favorecer uno u otro, es simplemente producto del azar y, por tanto, todos los
sucesos tienen las mismas posibilidades de ocurrir. Dicho de otra forma, nuestra ignorancia de
los fenómenos aleatorios nos conduce a la equiprobabilidad de los acontecimientos. Forma de
razonamiento presente en las concepciones espontáneas de numerosos alumnos y detectadas por
diferentes investigadores, como Lecoutre y Duran (1988), Cordier y Lecoutre (1990).
(*) Progresivamente y ante la inmensa variedad de acontecimientos socio-naturales que
no podían ser explicados desde leyes deterministas, el mundo científico empieza a plantear la
necesidad de una reelaboración del concepto de fenómeno fortuito. Ya en los umbrales del siglo
XX, se comienza a vislumbrar la existencia de sucesos socio-naturales que, por su carácter
complejo o por la multitud de variables que intervienen en ellos, son imposibles de controlar
intrínsecamente. Esta imposibilidad es, evidentemente, producto de nuestra ignorancia o
incapacidad, pero ya no considerada como una imperfección, sino como el reflejo de la
existencia en la Naturaleza de eventos que no obedecen a leyes causales y regulares. Como
afirma Poincaré "es necesario entonces, que el azar sea otra cosa más que el nombre que damos
a nuestra ignorancia" (Poincaré [recopilación], 1963: 54). La ruptura definitiva con la idea de
ignorancia viene representada por los trabajos de Heisenberg (1959).
Las grandes convulsiones y avances del siglo XX en todos los campos del saber:
Economía, Ciencia, Social, Arte, etc., han puesto al hombre ante un mundo complejo en
continuas transformaciones donde todo sufre constantes cambios y modificaciones, que no
siempre pueden ser controladas. Así, "la ciencia de hoy no se sitúa ni en procesos puramente
deterministas ni en procesos puramente aleatorios... el mundo real se encuentra en algún punto
intermedio" (Prigogine, 1986:192). En los avances producidos en el presente siglo, ya a punto de
finalizar, se ha roto el ideal laplaciano: el conocimiento y control completo de la Naturaleza no
existe. El desarrollo de teorías como la Mecánica Estadística, la Mecánica Cuántica o la moderna
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 16
Ciencia del Caos han puesto en entredicho la culminación de tal ideal y han llevado al mundo
científico a buscar nuevas relaciones lógicas superadoras de la lógica clásica que dejan en el aire
una pregunta: "¿Es el azar un producto de la ignorancia o un derecho intrínseco de la
Naturaleza?" (Wagensberg, 1986: 15).
A partir del reconocimiento y estudio de los fenómenos fortuitos se va conformando un
nuevo discurso, el azar como elemento provocador de la complejidad existente en la
realidad, donde su significación puede estar ligada a un carácter más ontológico. En él,
comienzan a definirse los límites de la comprensión humana de la Naturaleza (Ekeland, 1992).
Actualmente el azar representa la existencia de fenómenos complejos, inaccesibles en su
desarrollo. “La idea contemporánea es la de un desorden complejo que estructura el orden
mediante unas regulaciones cuya resultante es previsible dentro de un marco probabilístico”
(Henry, 1996: 93).
La regulación y modelización científico-matemático del azar le ha desprovisto
definitivamente de su significado mágico. El acontecimiento aleatorio es aquel cuyas variables no
pueden ser determinadas en su totalidad y por lo tanto, su control se realiza a través de modelos
probabilísticos. Posiblemente, desde un punto de vista epistemológico, uno de los mayores éxitos
alcanzados por el pensamiento humano es la modelización matemática de los fenómenos
aleatorios (Trillas, 1980).
El desarrollo de los modelos probabilísticos
Es difícil determinar el comienzo del tratamiento de la probabilidad como ciencia
matemática. Sus orígenes la reducen a una ciencia empírica ligada a los juegos de azar. Su
transformación cualitativa fue el resultado de un lento y paulatino proceso, con grandes
connotaciones de tipo filosófico (Cuadro 3). Hemos podido detectar, en la revisión precedente,
cómo la propia noción de azar ha pasado por muy diversas vicisitudes. La noción de azar es ajena
al pensamiento primitivo y durante un largo período de la historia, el propio significado asociado
al azar fue un obstáculo para el desarrollo de un estudio sistemático de los fenómenos fortuitos
(Hacking, 1991; Bennett, 1993).
Llama la atención que, aunque los instrumentos de los juegos de azar existían desde
hacía miles de años en numerosas civilizaciones, la teoría de la probabilidad, como una
abstracción conceptual de las leyes del azar, no inicia su andadura hasta el final del
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 17
Renacimiento. El desfase producido entre el reconocimiento de la imprevisibilidad en ciertos
fenómenos, presentados generalmente en contextos de juegos de azar, y su conceptualización y
estructuración en una teoría matemática, es atribuido por Hacking (1995) a la no existencia de las
"precondiciones" necesarias para el nacimiento de la probabilidad como objeto intelectual. El
concepto de probabilidad está relacionado con todo un conjunto de ideas que fueron el resultado
de un largo y necesario proceso; proceso que permitió a la humanidad dar cabida a una nueva
forma de concebir la realidad y los sucesos que en ella acontecen y que constituye en sí mismo
parte de la fase exploratoria del concepto de probabilidad.
Otros autores dan numerosas razones para dicho desfase, como las siguientes: el poder
del determinismo, la falta de ejemplos empíricos de alternativas equiprobables, la ausencia de un
problema económico que la ciencia de la probabilidad satisficiera, la superstición de los
jugadores, las barreras morales o religiosas, etc. (David, 1962; Maistrov, 1974; Daston, 1988;
Kline, 1992; etc.). Desde una perspectiva más científico-matemática, Kendall (1978) enuncia
como otras posibles causas: la ausencia de un álgebra combinatoria y de una noción clara del
suceso aleatorio, ya que, sin dichos instrumentos, era difícil pensar en el estudio matemático de
los sucesos dominados por el azar.
Por alguna de estas razones o quizá por la confluencia de todas ellas, la probabilidad,
como modelo matemático que permite el estudio de cierto tipo de fenómenos fortuitos, los
aleatorios, no comienza su andadura hasta un momento muy tardío de la historia y, para ello, será
necesario superar fuertes obstáculos de orden conceptual.
(*) Así, podemos diferenciar una primera etapa que constituye su fase exploratoria, en
palabras de Polya (1962), en la que se gestaron las principales ideas relacionadas con el
concepto de probabilidad, más que las teorías. Momento de la historia que reconocemos
como la Prehistoria del Cálculo de Probabilidades (hasta el sigo XVI).
Como apuntábamos en párrafos precedentes, en épocas previas al Renacimiento, las
situaciones afectadas por la incertidumbre eran consideradas como situaciones ajenas al campo
de la ciencia y su estudio estaba sometido a la llamada evidencia externa, que era la evidencia
basadas en testimonios. La probabilidad era materia de opinión en poder de los hombres doctos
que opinaban sobre la posibilidad de ocurrencia de un determinado suceso y cuya sabiduría
provenía del poder divino, en línea con el espíritu que reinaba en la Edad Media. Posteriormente,
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 18
ya en los albores del Renacimiento, el progresivo protagonismo del hombre en el control de la
naturaleza permitió que el estudio de estos fenómenos se fuera apoyando, progresivamente, en la
reconocida como evidencia interna. Ésta provenía de los signos externos, eran ellos los que
daban información sobre su posible ocurrencia (Byrne, 1968; Hacking, 1975). Gran parte de las
ideas que se manejaban en esta época tienen hoy su reflejo en las concepciones de los sujetos,
tanto en la confianza de la opinión de los llamados expertos, aunque su fuente de información no
sea la divina, como en la información que aportan determinados signos externos. Ambas ideas
determinan, en muchos casos, las decisiones tomadas por los sujetos ante situaciones inciertas y
aleatorias, lo que provoca gran número de decisiones sesgadas y no adecuadas a las situaciones al
no considerar todos los elementos y variables contextuales puestas en juego.
Según Hacking (1995), la consideración de los signos que provenían de las cosas y de
los hechos y no exclusivamente de las personas como evidencia válida y base para la inferencia
de resultados más generales, originó el salto definitivo que permitió surgir la probabilidad.
(*) Es en una segunda etapa, donde se inicia realmente las posibilidades del estudio
sistemático de la probabilidad, aunque sin alcanzar niveles de formalización matemática.
Estamos ante un momento intermedio entre la fase de exploración y la fase de
formalización, que denominamos Iniciación del Cálculo de Probabilidades (siglo
XVII).
La idea moderna de probabilidad surge a partir de los trabajos de Fermat y Pascal sobre
el “problema de los repartos”, ya en el pleno siglo XVII. Aunque, en la historia podemos
encontrar algunos estudios desarrollados en los siglos precedentes como los realizados por
Gardano, Pacioli o el propio Galileo (Ore, 1960: Collete; 1985; Boyer, 1986).
La concepción pascaliana de la probabilidad numérica - aunque como apunta Shafer
(1990), ni Pascal ni Fermat usaron la palabra “probabilidad en su correspondencia, sólo pensaban
en repartos justos - supone la equiposibilidad de los sucesos elementales y excluye su aplicación
a los fenómenos naturales. Aunque no definida explícitamente, en sus cálculos ya aparece la
relación clásica de la proporción entre casos favorables y posibles para el cálculo de la
probabilidad en un espacio muestral definido y simétrico. Pascal en su obra, aporta otra visión
importante sobre la probabilidad distinta de la numérica. Su argumentación sobre lo que se
conoce como "la apuesta de Pascal" puede considerarse como una primera contribución a la
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 19
Teoría de la Decisión. Dicha apuesta estaba relacionada con la creencia o no de la existencia de
Dios y en ella analizaba las distintas argumentaciones posibles al tomar una postura o decisión
sobre ello (Pascal [reeditado], 1983). Encontramos en Pascal un doble significado de la
probabilidad: por un lado, un estudio de carácter más empírico, relacionado con el análisis de las
posibilidades de ciertas situaciones de juego y, por otro, sus consideraciones, más de carácter
epistemológico, relacionadas con la creencia de la existencia de Dios. Este carácter dual de la
probabilidad será, como comprobaremos, una constante de la historia de la probabilidad
(Hacking, 1975; Daston, 1988; Hald, 1990; etc.).
La probabilidad nace desde su aplicación al estudio de situaciones de juego ligadas a
contextos empíricos. A lo largo de todo su desarrollo, el estímulo principal vendrá dirigido
por la necesidad de dar respuesta a los problemas planteados desde sus aplicaciones en
contextos específicos. El campo de sus aplicaciones, en continuo desarrollo y ampliación, es el
motor de su evolución. Como plantea Steinbring (1980: 416), "la teoría de la probabilidad puede
considerarse, en cierto modo, como "modelo" de una teoría orientada a la aplicación", proceso
que a su vez provoca su progresivo avance teórico en una relación dinámica e interactiva entre la
práctica y la teoría.
Esta idea es de gran potencialidad didáctica a la hora de su tratamiento en el aula. Por un
lado todos los niños se han enfrentado en su vida cotidiana a los fenómenos aleatorios a través de
los juegos de azar y han, incluso, emitido expectativas sobre sus resultados. Gran parte de sus
concepciones previas están ligadas en su origen a los juegos de azar y las experiencias vividas en
el entorno próximo y, como apunta Bachelard (1948: 24), “en la formación del espíritu
científico, el primer obstáculo es la primera experiencia”. La movilización de las ideas iniciales
y la construcción significativa del conocimiento probabilístico necesita de la puesta en juego de
dichas concepciones en diferentes y variadas situaciones empíricas. La actividad desarrollada en
las situaciones concretas y la interacción con el modelo matemático, es la clave para la
elaboración comprensiva del concepto (Steinbring, 1991).
Ya al final de siglo, Bernoulli, estudiando el aparente desorden que presentaban los
resultados obtenidos en las situaciones de juego, observó una cierta regularidad en la aparición de
dichos resultados, hallazgo que tomó la forma de la primera ley probabilística. Su trabajo fue
recogido en una obra póstuma denominada Ars Conjectandi. En él desarrolla un tratado de
análisis combinatorio sobre permutaciones y combinaciones, recoge todos los trabajos anteriores
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 20
y plantea, por primera vez, la aplicación de la probabilidad a temas de interés del momento, fuera
ya de los contextos de juego. Constituye el primer trabajo teórico importante del Cálculo de
Probabilidades.
En la obra de Bernoulli aparece la primera y más simple formulación de la que hoy
conocemos como "la ley de los grandes números". Es la primera ley probabilística de carácter
empírico y se refiere a la estabilidad de la frecuencia en la repetición de un gran número de
ensayos semejantes: "la probabilidad constante de un suceso es p si al realizar la experiencia n
veces, dicho suceso tienen lugar m veces, y el cociente m/n se acerca tanto como se quiera a p,
con tal que el número de pruebas n sea suficientemente grande"; esta ley es un caso particular
del teorema central del límite tal como lo conocemos hoy. En la formulación de este teorema se
hace visible por primera vez la circularidad del conocimiento probabilístico: el contenido del
concepto de probabilidad no se puede definir sin que la probabilidad tenga que ser presupuesta de
alguna forma. Las ideas de Bernoulli caracterizan una concepción objetivista de la
probabilidad, propuesta desde una aproximación a posteriori de manera experimental,
evaluando los datos frecuenciales de los diferentes sucesos.
Este teorema posibilitó la progresiva aplicación de la probabilidad a fenómenos
aleatorios reales, en los que todos los resultados posibles podían ser analizados desde el modelo
probabilístico. La limitación inicial de la aplicación de la probabilidad a fenómenos con un
conjunto finito de resultados equiprobables, influyó significativamente en el campo de sus
aplicaciones y ligó durante años la probabilidad a situaciones de estas características, no muy
comunes entre los hechos socio-naturales. Cuestión que también tiene su influencia en las
personas a la hora de conceptualizar los fenómenos aleatorios y que ha de ser considerada a la
hora de su tratamiento didáctico.
Sin embargo, en su obra, Bernoulli considera la estimación de la probabilidad realizada
por los sujetos como algo personal y, por tanto, susceptible de variación en función del
conocimiento individual. El cálculo de la probabilidad depende de la interpretación a priori de los
sujetos, otorgándole un cierto rango de subjetividad como contraposición al dato objetivo,
achacado al estudio a posteriori del fenómeno, producto de una aproximación frecuencial.
En todo caso, como expone Fienberg (1992), no podemos olvidar que todos estos
autores están inmersos en un mundo determinista y utilizan la probabilidad para describir cierto
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 21
tipo de fenómenos sobre los que la ignorancia humana es manifiesta.
(*) Ya, en la tercera etapa, entramos en la fase de formalización propiamente dicha,
configurándose la teoría matemática y el concepto de probabilidad. Nos referimos, por tanto, a la
etapa de Formalización y Configuración del Cálculo de Probabilidades (siglo XVIII,
principios del XIX).
En este periodo surge un eslabón significativo para el desarrollo de la modelización
matemática fueron los trabajos del clérigo T. Bayes. Este autor analizó el problema de la
determinación de la probabilidad de las causas a través de los efectos observados y representa el
primer deslizamiento claro hacia la valoración de la aproximación subjetiva a la estimación de la
probabilidad. El problema básico se centró en estimar la probabilidad de las diferentes hipótesis
planteadas sobre las causas que han producido un determinado suceso, hipótesis elaboradas en
base a los resultados observados. Para ello formuló la expresión de la probabilidad inversa
conocida como el Teorema de Bayes, mediante el cual se podía determinar la probabilidad de un
suceso "a posteriori" en función de una probabilidad "a priori", producto de la creencia
personal o de una información ya establecida y de la información muestral obtenida a través de
la experiencia. La primera, que se busca estimar, es objetiva. La segunda que representa el valor
posible desde las consideraciones del sujeto, es subjetiva (Bayes [reeditado], 1987).
El esquema del teorema propuesto por Bayes refleja, en gran parte, el
funcionamiento ideal de los sujetos ante situaciones aleatorias: se considera una cierta
probabilidad de ocurrencia de un determinado suceso "a priori", en función del conocimiento
personal basado tanto en creencias como en la evidencia de las cosas; posteriormente esta
probabilidad es matizada y modificada, si fuera necesario, a la luz de la experiencia, obteniendo
una probabilidad "a posteriori" del suceso (Steinbring y von Harten, 1983; Hawkins y Kapadia,
1984). El teorema de Bayes es un instrumento potencial para el desarrollo del pensamiento
analógico y su esquema nos puede servir como punto de referencia a la hora del diseño de
procesos de enseñanza/aprendizaje del conocimiento probabilístico. Su estructura es una
síntesis potente entre el funcionamiento racional del sujeto y su interacción con los datos
empíricos (Azcárate, 1995).
A partir de este momento de la historia, aparecerán dos perspectivas desde las que
abordar el estudio de la probabilidad, relacionadas con el contexto de aplicación. Una de estas
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 22
perspectivas, la bernouillana, atenderá al estudio de las frecuencias relativas; la otra, la
bayesiana, se presentará más relacionada con los grados de credibilidad y sus necesarios
ajustes con la realidad. Dualidad objetivismo/subjetivismo que son el origen de las diferentes
interpretaciones del significado de la probabilidad.
Otro autor significativo de esta época, Condorcet (1990), llego a caracterizar la doble
distinción del concepto de probabilidad subyacente en los trabajos anteriores. En primer lugar
entre la definición matemática y su interpretación, y luego entre los dos sentidos de dicha
interpretación, bien como estimación objetiva/subjetiva, a partir de la observación y la
distribución de frecuencias, o bien en función de las creencias personales.
El trabajo de Bayes fue retomado y completado definitivamente por Laplace a principios
del siglo XIX. El estudio de la probabilidad de las causas inició el camino para utilizar la
probabilidad en la valoración de afirmaciones hipotéticas en el campo de la investigación y de la
toma de decisiones, confrontadas luego con la experiencia, adentrándose en el campo de la
probabilidad subjetiva. De hecho, Laplace tenía una concepción de la probabilidad cercana a la
subjetivista y su cálculo lo consideraba como una poción transitoria, ante la falta de conocimiento
sobre el fenómeno, "el buen sentido reducido a cálculo" (Laplace [reedición], 1985: 140). La
obra de Laplace constituye la base de la teoría clásica de la probabilidad y, en ella, Laplace no
define explícitamente la probabilidad, pero sí su medida como la proporción entre los casos
favorables de un suceso y los casos posibles de un conjunto de alternativas equiprobables.
Definición que muchos sujetos mantienen como única definición y, no ya de su medida, sino de
la propia probabilidad.
(*) En una cuarta etapa, entramos ya en la fase de asimilación de los avances teóricos
dados desde la teoría, desarrollándose en paralelo su nivel de profundización y extensión al
ampliarse significativamente el campo de sus aplicaciones. Es, por tanto, una etapa de
Profundización y Sistematización (siglo XIX).
Durante esta época se extendió de forma significativa el uso del Cálculo de
Probabilidades, abarcando todos los campos del conocimiento. El campo de aplicación de la
probabilidad fue ampliándose progresivamente, ya "hacia la mitad del siglo XVIII la teoría de la
probabilidad comienza a aplicarse más y más en diferentes áreas, primero en demografía,
seguros, estimación de errores observables, organización de loterías, etc." (Maistrov, 1974:
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 23
101), extendiéndose al estudio, no sólo de los fenómenos naturales, sino también de los sociales,
donde son especialmente significativos los trabajos de Condorcet. Ante la avalancha de datos
proporcionados, el interés se centró en la búsqueda de regularidades que permitieran hallar leyes
de la sociedad semejantes a las leyes de la naturaleza, establecidas por Newton. Según avanza el
siglo XIX, los estudios sobre aplicaciones de la probabilidad y sus posibles interpretaciones se
multiplicaron, posibilitando su progresiva sistematización. Se acumula información sobre las
características de la sociedad, el estudio de dicha información permite conocer las condiciones y
los funcionamientos propios de la sociedad, intentando elaborar a partir de dicho conocimiento
las leyes sociales. Se mantiene la idea de que la conducta humana se regía por esas nuevas leyes
estadísticas y probabilísticas que, al igual que las leyes de la física, no podían violarse.
Las probabilidades quedan atrapadas dentro de la estructura de la ley probabilística por
excelencia, "la ley de los grandes números", la cual era considerada como el modo de funcionar
de las cosas mismas, una ley de carácter universal, no como algo que debiera verificarse y
ajustarse con la experiencia. Hecho que representó un claro obstáculo a la hora de interpretar los
datos aportados desde la aplicación de la teoría: "La ley de los grandes números, no el teorema
de Poisson, sino una proporción sobre la estabilidad de los fenómenos tomados en masa, se
convirtió para las siguientes generaciones en una verdad sintética a priori." (Hacking, 1991:
156).
Los investigadores del comportamiento humano ante situaciones de incertidumbre han
detectado un funcionamiento similar a nivel individual. Cuando se enfrentan a situaciones de
incertidumbre, el sujeto analiza las condiciones en comparación con los datos que le aporta la ley
general, realizando una transferencia directa de la ley a situaciones puntuales, estrategia
heurística que denominan Representatividad (Kahneman, Slovic y Tversky, 1982). Estrategia que
puede dar origen a razonamientos sesgados, tanto en adultos como en niños, descritos por
Kahneman y Tversky (1972), como la falacia del jugador, o por Fischbein (1975) como efecto de
recencia negativa. Según estos investigadores, los sujetos piensan que en una serie de
experiencias aleatorias independientes, los resultados tienden a buscar “el equilibrio” entre las
frecuencias de aparición de los diferentes sucesos posibles descrito por la ley general. Por
ejemplo, en una serie sucesiva de nacimientos esperan que haya igual número de niñas que de
niños.
(*) Por último, podemos diferenciar una quinta etapa que constituye la Consolidación
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 24
definitiva del Cálculo de Probabilidades (siglo XX), al nivel de su estructura matemática, tras
la elaboración de su axiomática y a nivel del reconocimiento científico y social de los modelos
probabilísticos como sistemas para interpretar e intervenir en los hechos de la realidad.
Con las armas matemáticas desarrolladas en el último siglo, la Teoría de la Probabilidad
dio el salto definitivo. En 1933 aparece la primera axiomática, formulada por Kolmogorov a
partir de la teoría de conjuntos y de la teoría de funciones, elevando la probabilidad a la categoría
de rama separada e identificable dentro de la Matemática. Proporcionando por un lado los
fundamentos a la primitiva Teoría Clásica y, por otro, una poderosa base para la demostración de
resultados matemáticos en teoría estadística (Gigerenzer y col., 1989). En palabras del propio
Kolmogorov (1973: 298) "la Teoría de Probabilidades se puede considerar como parte de una
teoría más general que se llama Teoría de la Medida". La Teoría de la Probabilidad entra así en
el dominio definitivo de la matemática pura.
En la revisión y reflexión del desarrollo de este campo del conocimiento matemático
(Cuadro 3), hemos ido detectando ciertos puntos claves que, junto con los señalados en el
apartado anterior, han condicionado de alguna forma su evolución y que son significativos a la
hora de su tratamiento en las aulas con claras implicaciones didácticas, como son: las limitadas
condiciones iniciales de su aplicación; la atadura a fenómenos con espacio muestral finito y
equiprobable; la circularidad presente en sus definiciones; la no disposición de
instrumentos matemáticos idóneos; la relación interactiva entre la extensión del campo de
aplicaciones y su evolución teórica; o la presencia continua de la dicotomía
objetivo/subjetivo en lo referente al significado de la probabilidad en contextos específicos.
Con respecto a este último aspecto, hemos de tener en cuenta que la validez de los
resultados obtenidos desde la teoría, al aplicarla a la vida real, depende de su interpretación, es
decir, de la concreción de su significado. Las estimaciones de carácter probabilístico son útiles y
usuales en la vida cotidiana y en el mundo científico y son utilizadas en numerosas ocasiones
para elaborar juicios concernientes, tanto a sucesos no observados o futuros, como para la
formulación de hipótesis imposibles de verificar (Black, 1984). El problema se nos presenta al
dar significado y validez a dichas estimaciones, ya sea en lo referente a las posibilidades de
ocurrencia de ciertas clases de eventos, ya sea en el dominio de la toma de decisiones en
situaciones de incertidumbre.
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 25
Como nos recuerda Black (1984), la teoría matemática es neutral en relación con las
diferentes interpretaciones filosóficas que puedan darse del significado del término
"probabilidad". Pero ninguna teoría matemática puede ser útil sin una interpretación o significado
que nos sirva de puente con la realidad, que dé a sus términos indefinidos y abstractos
interpretaciones complementarias que conviertan a los axiomas en aserciones significativas. El
término probabilidad no es unívoco en su interpretación; puede presentarse con diferentes
significados en los distintos contextos de la realidad donde es utilizado. En la actualidad
podemos distinguir diferentes y complejos puntos de vista sobre el significado de la probabilidad,
provocados en gran medida por el alto rango de aplicaciones del Cálculo de Probabilidades y la
amplia variedad de fenómenos aleatorios que encontramos en la realidad. Entre ellos podemos
diferenciar dos grupos de interpretaciones de la probabilidad, en función de la dicotomía
subjetivo/objetivo.
El punto de vista subjetivo relaciona la probabilidad con el grado de creencia en las
posibilidades de un acontecimiento, esta creencia puede estar o debe estar garantizada por la
evidencia; es una concepción de carácter epistemológico. En el segundo grupo de
interpretaciones se relaciona la probabilidad con la frecuencia de ocurrencia de los sucesos y con
la tendencia a producir frecuencias estables que muestran ciertos sucesos, otorgándole un carácter
empírico. La probabilidad concebida tanto subjetiva como objetivamente no es más que una
interpretación, fundamentalmente con fines prácticos, de la noción abstracta utilizada en la teoría
matemática (Fine, 1973). Estas interpretaciones alternativas aparecen formuladas y desarrolladas
en el siglo XX pero, en realidad, son producto de la propia génesis del término y han ido
apareciendo implícita o explícitamente a lo largo de la historia.
En realidad la probabilidad que, habitualmente, se le atribuye a un acontecimiento
depende de la interpretación del sujeto de la información que posee y no puede ser considerada
como un dato objetivo sobre el fenómeno. Se podría considerar como una “estimación” de la
posibilidad de ocurrencia de un determinado suceso. Diferenciar la información objetivo,
achacable al propio fenómeno, y la interpretación subjetivo que el sujeto hace sobre su ocurrencia
es en, muchos casos, un auténtico obstáculo epistemológico. Desde una aproximación
frecuencial, por ejemplo, se trata de introducir al sujeto en el análisis de la frecuencia observada
en una serie de experiencias aleatorias, de su relativa estabilidad y del número de experiencias
necesarias. Ello permite establecer el “valor” objetivo de la probabilidad mediante un
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 26
razonamiento que considere adecuada y sufuciente la observación realizada. Desde un punto de
vista personal, la “estimación” de la probabilidad será más adecuada cuan mayor sea el número
de experiencias realizadas. La dificultad de resolución de un problema probabilístico reside en la
construcción del modelo idóneo a cada contexto, a partir de los datos de la observación. El
concepto será comprendido cuando sea interpretado apropiadamente y aplicado, bajo la
modelización pertinente, a la situación específica (Steinbring, 1984).
La presencia de diferentes interpretaciones en el mismo núcleo del concepto imponen la
necesidad de su consideración en el aula, permitiendo la presencia de diferentes posibilidades y
no limitando el estudio de la probabilidad y de la aleatoriedad a una única aproximación
epistemológica. De todo el análisis realizado sobre los distintos aspectos del conocimiento
probabilísticos que los estudiantes-profesores han de poner en juego en sus aulas, se pueden
extraer ciertas conclusiones con fuertes implicaciones de orden didáctico (Cuadro 4) e
información sobre los obstáculos epistemológicos inherentes a su construcción (Cuadro 5).
Ambas informaciones son determinantes a la hora de analizar las características propias de los
procesos de enseñanza/aprendizaje del conocimiento probabilístico en las aulas de Primaria.
La enseñanza/aprendizaje de la probabilidad
De lo expuesto podemos concluir que, si el conocimiento matemático, en general, no es
algo obvio por su simple definición, en el caso de la probabilidad esta características se acentúa.
Hay una fuerte contradicción entre el rigor referido a una definición matemática y el carácter
aleatorio de la probabilidad y una clara imposibilidad de reducir la comprensión del concepto a
su simple definición matemática (Steinbring, 1984). La naturaleza de los conceptos
probabilísticos provocan un claro conflicto con las formas tradicionales de trabajar las
matemáticas en las aulas: partir de definiciones claras y universales de unos conceptos básicos
como soporte de todo el desarrollo posterior de la teoría formal; y la tendencia a organizar las
actividades de enseñanza en función de la propia estructura del conocimiento matemático. Ambas
consideraciones son suficientes como para impedir o al menos dificultar la evolución del
conocimiento probabilístico.
Los conceptos básicos de la teoría de la probabilidad no pueden ser comprendidos
simplemente a través de definiciones matemáticas formalizadas en su sistema deductivo, sino que
es necesario partir del análisis de situaciones significativas que faciliten la argumentación, la
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 27
interpretación y la toma de decisión. La fórmula matemática no contiene en sí misma el carácter
específico de la probabilidad. Si se intentan enseñar las definiciones, métodos, instrumentos,
representaciones y diagramas como hechos y técnicas matemáticas, el carácter aleatorio y la
naturaleza específica de la probabilidad se pierde. Tópicos tan significativos para este campo
conceptual como la aleatoriedad o la probabilidad no pueden ser definidos de forma única y
precisa, su significación varía según los diferentes contextos y la interpretación de los sujetos que
actúan en dichos contextos. Esto indica que la probabilidad no representa solamente un nuevo
tópico curricular, es un tipo de matemática escolar diferente. Facilitar la elaboración y dominio
de un pensamiento probabilístico, es uno de los grandes retos de los profesores, más aún en los
primeros niveles en los que se inicia al niño en sus conceptos fundamentales.
Como hemos podido comprobar, hay básicamente dos aproximaciones a la probabilidad
que son como dos formas complementarias:
* Una a priori, desde la información subjetiva del sujeto
* Una a posteriori, desde la información a partir de los datos del análisis del fenómeno,
bien a través de un análisis lógico de sus posibilidades (concepción clásica), bien a través de un
análisis empírico de la ocurrencia de sus posibilidades (concepción frecuencial).
La enseñanza de la probabilidad debe facilitar la síntesis de las diferentes
aproximaciones conceptuales adecuadas a los distintos conceptos. Para ello es requisito
imprescindible la interacción entre las situaciones empíricas y el modelo matemático. Ni la
situación empírica por sí misma, el objeto, ni la representación matemática en sí misma, el signo
o el modelo, pueden expresar el significado completo de nociones tan elementales como
aleatoriedad o probabilidad. Su comprensión y significado depende de las situaciones, de las
representaciones y del trabajo desarrollado por el sujeto en un continuo feed-back entre el objeto
y el signo (Steinbring, 1991a; Azcárate, 1995). Más cuando nos referimos a su tratamiento en las
aulas de los primeros niveles educativos, donde el objetivo es una primera aproximación al
significado de dichos conceptos.
En el caso del conocimiento probabilístico hay una gran cantidad de información
experiencial que provoca que existan numerosas concepciones espontáneas sobro los aspectos
probabilísticos que reproducen en muchos casos nuestra irracionalidad ante la incertidumbre. Hay
numerosas investigaciones que han puesto de manifiesto las numerosas concepciones sesgadas
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 28
que tienen los sujetos de todas las edades sobre los aspectos probabilísticos de la realidad. Según
Kahneman, Slovic y Tversky (1982) muchas de estas ideas son producto de una escasa
preparación y reflexión sobre el tema, pero muchas otras provienen de una inadecuada
percepción de los datos de la realidad incierta y no se modifican con el simple conocimiento de la
teoría matemática de la probabilidad, sino que necesitan de una profunda reflexión sobre el tema.
Hecho que Fischbein (1990) extiende al caso de los profesores en formación, dado su precario
conocimiento del tema.
El aprendizaje de la probabilidad supone para el sujeto una revolución similar a la
acaecida en la historia del conocimiento. El alumno de primaria y los estudiantes-profesores han
de aceptar la presencia de la incertidumbre como algo inherente a la realidad y adoptar la
convención de representar dicha incertidumbre cuantitativamente (Falk y Konold, 1992). Desde
una perspectiva constructivista, se incide en la idea de que el sujeto sólo adquirirá una
verdadera comprensión del conocimiento probabilístico a través de la interacción, en
situaciones concretas, de sus nociones subjetivas, fruto de sus experiencias y conocimientos
previos, con los conceptos y modelos matemáticos. En la literatura de investigación no hay un
modelo completo sobre el desarrollo conceptual en probabilidad y estadística, pero lo que sí está
claro desde las investigaciones consultadas (Piaget e Inhelder, 1951; Fischbein, 1975) es que los
sujetos, incluso los más pequeños, disponen de ciertos recursos y concepciones sobre los aspectos
probabilísticos de la realidad. Los sujetos "siempre tienen elaborados sus propios heurísticos,
errores y creencias sobre la probabilidad y la estadística" (Shaughnessy, 1992: 472), como
producto de sus propias experiencias. Concepciones y estrategias que han de ser tenidas en cuenta
en el diseño y desarrollo de los procesos de enseñanza/aprendizaje, pues constituyen las ideas
iniciales de los sujetos, que, además, al ser producto de su interacción espontánea con el entorno
reflejan una gran diversidad. Concepciones que, por otro lado, las distintas investigaciones
analizadas y nuestra propia experiencia (Navarrate y otros, 1992) indican que no se modifican
desde un aprendizaje formal del conocimiento matemático de la teoría de probabilidades.
Un lugar relevante en la consolidación de dichas concepciones viene determinado por el
propio lenguaje cotidiano y la ambigüedad de su significado. El estudio del campo semántico del
concepto de probabilidad es un dato de gran trascendencia que nos permite analizar sus diferentes
significados y usos en los distintos contextos donde se presenta y es parte del estudio
fenomenológico necesario para su tratamiento en el aula (Azcárate y Cardeñoso, 1996). Un
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 29
ejemplo de dicha ambigüedad nos lo da el uso del término “probable”. Éste es utilizado en el
lenguaje cotidiano tanto referido a algo que creemos que va suceder casi con total seguridad,
como a algo que pueda que suceda, ambigüedad que se resuelve generalmente por el tono o el
énfasis que ponemos en el habla. Además, en general el término “probable” comparte el campo
semántico con “posible” aunque etimológicamente tienen un origen diferente. “La palabra
"posible" es un cultismo derivado de la palabra latina "Potere: poder"; por tanto con un
sentido más relacionado con "poder ser". Sin embargo, la palabra "probable" es un derivado
de "Probare: probar, ensayar", como algo factible de ser probado, "cosa que se prueba”"
(Azcárate y Cardeсoso, 1996: 170).
En pocas palabras, los nuevos conocimientos e intuiciones sobre las nociones que tratan
el mundo de la incertidumbre se deben apoyar en las ideas previas de los sujetos y, en cualquier
caso, no son accesibles por simple transmisión verbal directa, sólo a través de la experiencia y de
la actividad desarrollada por el sujeto, entendiendo actividad mental y no sólo manipulativa, es
posible la reelaboración de su conocimiento (Cardeñoso y Azcárate, 1996). Un esquema que
puede ser válido para analizar el proceso de aprendizaje del conocimiento probabilístico
era el representado por el teorema de Bayes (Cuadro 6), que plantea la modificación de una
idea o hipótesis previa (probabilidad a priori), en función de los nuevos datos empíricos
obtenidos, dando lugar a un reformulación posterior (probabilidad a posteriori). Lo cual facilita el
sentido procesual y abierto que la construcción del significado de la probabilidad requiere
(Azcárate, 1995).
Las tareas de enseñanza de la probabilidad, por tanto, no pueden ser reducidas a la
presentación y desarrollo de su estructura conceptual ni siquiera cuando nos referimos a los
conceptos más elementales. Es necesario considerar que por encima de dicha estructura los
sujetos tienen construidas sus propias intuiciones y modelos intuitivos, que determinan sus
estrategias de pensamiento, sus interpretaciones y sus valoraciones de las situaciones, ignorando
en la mayoría de los casos el conocimiento normativo. Pero, los problemas didácticos de su
enseñanza no vienen sólo de la comprensión de la teoría matemática en sí misma, sus
procedimientos y sus técnicas, sino fundamentalmente de la utilización, aplicación e
interpretación de los conceptos, métodos y representaciones.
En la propuesta curricular actual, a la hora de las orientaciones metodológicas, hay
algunas indicaciones referidas a estos temas. Así, indican que los niños del segundo ciclo suelen
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 30
tener un especial interés por situaciones donde ha de analizarse y preverse la probabilidad de un
suceso o la repetición de un elemento. Aclaran que siempre en un tono investigativo y lúdico, se
le pueden proponer actividades tendentes a discriminar lo seguro, lo posible, lo probable, etc.
Igualmente importantes consideran las actividades experimentales sobre modelos de
probabilidad, localizadas en el tercer ciclo. En ellas se ha de enfrentar al alumno con experiencias
concretas en situaciones de naturaleza probabilísticas, en las que tengan que prever el resultado y
comprobarlo experimentalmente, "descubriendo progresivamente que, puede saberse qué suceso
es más probable, y "cuanto" más probable es" (Junta de Andalucía, 1992).
En los primeros niveles, uno de los recursos más idóneo para introducir la noción de
azar/aleatoriedad y la probabilidad parecen ser las situaciones de juego. En el juego, el alumno
puede formular hipótesis (apuestas), explorar diferentes formas de analizar la situación, tomar
datos, interpretarlos y tomar decisiones. No hay que olvidar que el juego forma parte de las
vivencias de todos los alumnos, incluso en niveles superiores, y es fuente de gran parte de sus
concepciones. Hacer explicitas dichas concepciones y enfrentarlas reflexivamente con el
desarrollo real de las situaciones probabilísticas, es una pieza clave para provocar su evolución.
La idea de construcción en espiral de los conceptos probabilístico y de
complementariedad entre el modelo matemático y las situaciones empíricas, no sólo es útil
para explicar la evolución de dicho conocimiento, sino también para diseñar los procesos de
interacción en el aula (García 1988; Steinbring, 1991). Su consideración supone evitar caminos
unilaterales y lineales en el trabajo en el aula. El elemento provocador de tal proceso son los
problemas que se presenten en las distintas situaciones. Estas situaciones deben integrar una gran
variedad de aspectos, conceptuales y procedimentales, e implicar al sujeto en la toma de
decisiones directas y en las posibles interpretaciones, permitiéndoles investigar sus propias ideas,
las estrategias heurísticas empleadas y los sesgos producidos desde el contraste progresivo con
nuevos datos. Estas situaciones propuestas al alumno han de guardar un grado suficiente de
similitud con las situaciones reales, como ya indicaba Steiner (1983).
Además de las situaciones propias de los juegos de azar, en la vida cotidiana nos
enfrentamos con numerosos fenómenos aleatorios, que pueden ser integrados en la planificación
de las diferentes unidades didácticas, adaptados al nivel de los alumnos de Primaria. Nos
referimos a fenómenos de muy diversas áreas entre las que podíamos señalar:
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 31
La política, con las encuestas sobre las tendencias de voto y las valoraciones y
predicciones aproximadas de los resultados esperados, etc.
La economía, con los estudios de evolución de los precios de mercado, valoraciones de
la magnitud de determinadas decisiones, los estudios sobre el riesgo y su control, etc.
El mundo físico, como son los trabajos sobre las condiciones metereológicas, el
comportamiento de los gases, estimación de errores, etc.
La sanidad, con el estudio de la herencia, la evolución y control de una posible
epidemia, la evolución de las poblaciones, incidencia de enfermedades, etc.
La agricultura, con el estudio de la efectividad de determinadas semillas, injertos,
técnicas, fertilizantes que permiten tomar decisiones sobre las mejores condiciones con el menor
riesgo, etc.
Las ciencias sociales como tales, con los estudios sobre las condiciones de los seguros,
la esperanza de vida, etc.
En el desarrollo de dichas situaciones hay dos elementos claves: las actividades a
realizar y los medios de representación que se utilicen. Con respecto a las actividades
desarrolladas en dichas situaciones, la tarea matemática concreta tiene un papel prominente en la
planificación y en la futura práctica en el aula. Frecuentemente las actividades matemáticas son
presentadas en el aula aisladamente, sin conexión entre ellas, o en todo caso con un vago vínculo.
Sin embargo, desde la perspectiva de la complejidad del conocimiento probabilístico y sus
múltiples interrelaciones con otros conocimientos, es imprescindible plantear las actividades
desde otra visión más compleja que la que ofrece una simple secuencia lineal organizada,
normalmente, de forma jerárquica. Pensamos que la planificación de las actividades debe tener
"un formato abierto y flexible, con un itinerario de las actividades en espiral con posibles
ramificaciones y variantes adaptables a diferentes contextos" (García y Cubero, 1993: 17). En
el caso de la elaboración del conocimiento probabilístico esta idea está representada en lo que
Steinbring (1984) denomina el sistema de tareas, que permite introducir variaciones del más
diverso tipo en el proceso, respetando una estructura sistémica entre ellas.
Para realizar las actividades y tareas propuestas en las distintas situaciones
probabilísticas podemos utilizar variados materiales. Todos los materiales que pueden ser
utilizados en situaciones de juego o de simulación: dados, barajas, ruletas, bolas, peonzas, dianas,
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 32
monedas, tablas de recuento, ordenadores, informaciones periodísticas, datos estadísticos de
diferentes fenómenos, etc. Y para su estudio empírico podemos utilizar múltiples
representaciones como: diagramas de árbol, circuitos, figuras geométricas, diagramas de barras,
etc. En ellas podemos recoger los datos e informaciones procedentes de las diferentes actividades
realizadas. Las diferentes representaciones se suelen presentan en función del tipo de problema
que se esté trabajando, sin embargo, las mismas situaciones pueden ser representadas a través de
diferentes medios; comparando representaciones diferentes se llegan a nuevas intuiciones sobre
la relación existente entre una situación concreta y su modelización matemática. Ello permite
construir un amplio espectro de relaciones entre situaciones concretas y su modelo matemático a
través de las diversas actividades. En los primeros niveles educativos los medios de
representación son los recursos matemáticos por excelencia para enfrentarse con la
aleatoriedad, dadas las características del pensamiento concreto de los niños de esas edades
y la necesidad de moverse con informaciones perceptivas, como datos provocadores de la
reflexión.
En pocas palabras, podemos caracterizar la enseñanza/aprendizaje de la probabilidad en
la educación Primaria como un proceso que, poniendo en juego las ideas iniciales de los alumnos,
se desarrolle a través de un conjunto variado de actividades relacionadas entre sí, en las que se
utilicen diferentes formas de representación y que estén integradas en situaciones didácticas que
reflejen las múltiples interrelaciones que se dan en la realidad y den sentido al proceso (Cuadro
7). Estas situaciones se pueden concretar de múltiples formas: centros de interés, unidades
didácticas, proyecto de investigación, etc. que han de estar en relación con la realidad socio-
natural, donde los aspectos aleatorios son fácilmente localizables. El esquema metodológico
desarrollado en el tratamiento de dichas de dichas situaciones sería el representado en la figura 1,
adaptado en cada momento al problema propuesto.
Pero ahora, una vez definida brevemente, nuestra propia concepción de la
enseñanza/aprendizaje del conocimiento probabilístico, nos enfrentamos con un nuevo problema
¿Cómo trabajar estos contenidos en nuestras aulas para facilitar su elaboración comprensiva por
los estudiantes-profesores?
PROCESO METODOLÓGICO
El esquema metodológico seguido en el desarrollo de esta unidad es el que hemos
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 33
descrito en el proyecto (Cuadro 8). Por tanto, se desarrollaran actividades de diferentes tipos
orientadas al análisis de su propio conocimiento sobre el tema y al estudio de la problemática de
la enseñanza/aprendizaje del conocimiento probabilístico en las aulas de Primaria. Estas
actividades giraran, por un lado, en torno al estudio teórico sobre el tema mediante actividades de
diferente rango, que culminan con la elaboración de un informe final de conclusiones. Y, por
otro, al estudio de carácter práctico focalizado en la planificación de una unidad didáctica en la
que esté implicado el conocimiento probabilístico. Ambos tipos de actividades son simultáneos e
interaccionan entre ellos, aunque hay un tiempo específico de aula para cada uno de ellos. Su
tratamiento en el aula es de, aproximadamente, dos semanas.
Relación de actividades tipo propuestas
En cuanto al trabajo práctico, entendido este como actividad práctica de carcácter
profesional, las tareas que se realizan en el aula se focalizan en:
* Elaboración de un Diseño Didáctico
Con respecto al estudio teórico del tema, se proponen actividades de diferentes rangos,
según los momentos del proceso y el objetivo perseguido:
* Presentación de situaciones iniciales de análisis
* Debates en pequeño grupo y colectivos
* Lecturas seleccionadas
* Actividades teórico-prácticas a realizar por los grupos
Proceso de evaluación
A lo largo de todo el proceso son objeto de valoración, la implicación y participación de
los estudiantes-profesores en las diferentes actividades, la naturaleza y profundidad de sus
reflexiones, los conflictos surgidos, las formas de abordarlos, los logros obtenidos, etc. Para
obtener datos de todo ello, utilizamos las diferentes fuentes de información señaladas en el
proyecto: producciones escritas de los grupos, observaciones, pruebas escritas individuales,
diario de los alumnos.
Las producciones excritas son una de las fuentes de información más significativas pues
en ellas se recogen la evolución rela del grupo, estas son:
⋅ el informe final, que nos aporta datos sobre el trabajo desarrollado por cada grupo y el
nivel alcanzado en sus reflexiones teóricas.
⋅ el diseño realizado, valorado desde su evolución a lo largo del curso y desde el reflejo
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 34
de las conclusiones teóricas aportadas en el informe elaborado tras el estudio teórico.
Por otro lado, son objeto de evaluación, por parte de los alumnos, los documentos
aportados, su pertinencia y su validez, las actividades desarrolladas y el interés y nivel alcanzado
por el grupo clase como parte integrante y, en muchos casos, determinante del proceso.
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 35
2.1. INTRODUCCIÓN
En este capítulo nos adentraremos en el estudio de la naturaleza del conocimiento
probabilístico. Para ello nos centraremos en el análisis de las nociones de azar, aleatoriedad y
probabilidad, por considerar que la comprensión de dichas nociones es el núcleo de la
elaboración del pensamiento probabilístico.
La revisión histórica realizada la hemos analizado desde una doble perspectiva:
* Una, de carácter histórico-crítico, que nos permita analizar la evolución de dichas
nociones y su sentido cultural a lo largo de la historia, como saber socialmente
reconocido.
* Y otra, de carácter epistemológico, que nos permita conocer y analizar las concepciones
que, sobre el significado de dichas nociones, se han presentado en los distintos momentos
históricos.
Dicho análisis nos permitirá reconocer la existencia de estados de conocimiento,
cualitativamente diferentes, en función de la propia maduración sociocultural de la sociedad y de
la evolución de sus necesidades. La revisión de las distintas formulaciones que se han ido
sucediendo a lo largo de la historia, sin tener un correlato estricto con el proceso de evolución del
pensamiento individual, sí pueden ilustrar sobre el necesario camino a recorrer, los problemas
claves, las posibles soluciones o explicaciones dadas, las controversias específicas de cada época,
los obstáculos que se han ido detectando, etc.
Quizás, lo más difícil en el tratamiento del tema ha sido acotar la información y decidir el
enfoque con el que profundizar en el desarrollo de su estudio. A medida que penetramos en el
mundo del azar, más aspectos de la realidad y del conocimiento se relacionan con él, el árbol se
ramifica, aparecen nuevos matices, las relaciones se multiplican y las perspectivas de análisis se
hacen inconmensurables. ¿Cuál es la más idónea?, ¿hacia cuál dirigir el estudio?, ¿qué
información considerar y cuál desechar? La propia finalidad de este trabajo pudo determinar las
respuestas. En nuestro caso, como ya señalamos en páginas anteriores, intentábamos obtener
información significativa sobre la naturaleza de estas nociones, para facilitar su correcto
tratamiento didáctico en el aula. Esperamos haber seleccionado, conjugado y sintetizado la
información oportuna en la dirección adecuada y no haber dejado en el camino datos importantes
o significativos; aunque sin duda, se habrán quedado muchos interesantes y complementarios.
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 36
La información seleccionada la hemos organizado en tres grandes bloques (Figura 11), en
cuyo orden de exposición hemos querido reflejar el propio orden histórico. Aunque siendo
conscientes de que muchas veces quedan solapados entre sí, creemos que su diferenciación nos
permite tener una visión más compleja de la evolución de este campo del conocimiento. Estos
bloques son:
A) Síntesis histórica de la evolución de la noción de azar, donde analizamos sus distintos
significados asociados al campo semántico del azar, como modelo filosófico del mundo
de la incertidumbre, y su relación con la modelización matemática, a través de la noción
de aleatoriedad.
B) Análisis de la revisión histórica realizada sobre el desarrollo de la teoría matemática
de las Probabilidades desde sus inicios, hace pocos siglos, hasta su actual construcción
axiomática.
C) Estudio de la gestación y significado de las distintas interpretaciones filosóficas de la
probabilidad, que hoy manejamos. Dichos significados reflejan, en general, puntos de
vista contrapuestos.
Figura 11: presentación CII
En el Cuadro 4 se puede ver reflejada una imagen del proceso histórico comparado, en el
podemos observar el paralelismo entre los tres procesos históricos.
Esta reflexión, de carácter epistemológico, es fundamental a la hora de diseñar y
desarrollar procesos de formación, entre cuyos objetivos está la elaboración de un conocimiento
profesional significativo sobre esta temática específica. Por ello, cerrando el capítulo,
aportaremos aquellas consideraciones didácticas que hemos de tener en cuenta desde el
reconocimiento de la naturaleza del conocimiento probabilístico.
2.2. LA IDEA FILOSÓFICA DE AZAR Y SUS RELACIONES CON LA
NOCIÓN DE FENÓMENO ALEATORIO
Un objetivo del hombre siempre ha sido poder explicar, comprender y dominar los
sucesos y fenómenos que acontecían a su alrededor. Desde los inicios de la evolución del
pensamiento humano, encontramos datos significativos que nos muestran el interés de las
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 37
civilizaciones antiguas por la búsqueda de relaciones causales en los fenómenos de la naturaleza,
así como posibles interpretaciones de su existencia. Los humanos siempre hemos considerado
que todos los hechos pueden ser explicados a través de un conjunto de leyes, más o menos
elaborado. En general, el ser humano tiene una inclinación natural hacia la búsqueda del orden y
sus causas (Hoemann y Ross, 1982; Pozo, 1987).
Cuadro 4: cronología comparada
En esta búsqueda sistemática de explicaciones, para llegar a comprender todo aquello que
acontece ante sus ojos, el hombre se ha enfrentado siempre con un conjunto de fenómenos
"extraños" que no podían ser ni explicados nicontrolados, que se rebelaban a toda regularización
y cuya existencia provocaba siempre desconcierto. Históricamente podemos detectar una clara
tendencia en el pensamiento humano a "reducir la incertidumbre de los sucesos, remitiéndolos a formas de
determinación más controlables" (Pozo, 1987; p.83). El estudio del azar, como expresión de lo
indeterminado o bien es eludido o se afronta a través de la simplificación de los hechos. Actitud
que provoca, en muchos casos, la pérdida de información relevante, en aras de encontrar
explicaciones que nos permitan conocer y actuar sobre esos fenómenos "extraños".
Por lo demás, la incertidumbre, lo irregular y lo indeterminado está presente en gran parte
de los sucesos que rodean nuestra vida cotidiana. Si hay algo característico del período histórico
actual es el progresivo reconocimiento de la incertidumbre en todas las esferas de nuestras vidas,
"la duda, la perplejidad, la inseguridad y una incertidumbre general se han instaurado en toda mente profundamente
reflexiva" (Martínez, 1993; p.14). La búsqueda de explicaciones a su existencia y de su
comprensión está presente a lo largo de toda la historia del pensamiento humano, siempre en
controversia con el estudio de lo regular, lo ordenado y lo determinado. Dichas explicaciones han
configurado la idea de azar como modelo de carácter filosófico que intenta explicar la existencia
de la incertidumbre.
Al principio, para justificar su existencia, se les achacaba un sentido oculto, misterioso o
sagrado, pero sin intentar realizar juicios ni valoraciones sobre su posible predicción. Sólo a
partir del momento en que se consideraron los hechos en sí mismos, sin relacionarlos con dioses
o astros, comenzó en verdad su posibilidad de estudio. Es decir, el propio significado de la
noción de azar ha sido un obstáculo de tipo epistemológico para el inicio del estudio de las
posibles leyes del azar que regulan este tipo de fenómenos, obstáculo epistemológico en el
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 38
sentido del término planteado por Brousseau (1983), ya introducido por Bachelard (1948); es
decir, son obstáculos ligados a la propia evolución del conocimiento y que pueden reflejarse en
obstáculos de tipo cognitivo en el desarrollo de los sujetos.
Las sucesivas explicaciones dadas a la existencia de estos fenómenos son reflejo de la
propia evolución de la idea de azar. Dicha evolución va paralela a la transformación gradual del
modo de pensamiento simbólico/mitológico/mágico, característico de las civilizaciones más
antiguas, hacia un modo de pensamiento de carácter empírico/técnico/racional (Morin, 1988).
Hoy, la comprensión del azar como el reflejo de la complejidad presente en todos los aspectos de
la realidad permite un salto epistemológico relevante, al configurar una nueva visión de la
realidad. Es un concepto cuya adquisición permite una reorganización del conocimiento al
integrar la relatividad de los fenómenos que nos rodean, la complejidad que estos conllevan y la
incertidumbre en su resolución.
Para aceptar el estudio de estos fenómenos, los que en el lenguaje común achacamos al
azar o a la suerte, como una rama importante del conocimiento científico, ha sido necesario un
largo proceso en el que la idea de azar ha pasado por numerosas interpretaciones relacionadas con
el propio devenir del pensamiento humano, sin llegar a tener, aún hoy, una definición única, clara
y concisa. El mundo científico, dominado por el pensamiento más empírico y racional, ha
mantenido al mundo de lo indeterminado fuera de su ámbito de estudio, hasta hace pocos siglos.
Como matemáticos, en realidad podemos prescindir de la idea de azar y considerar sólo la
modelización matemática de este tipo de fenómenos. Desde nuestra perspectiva, aquellos
fenómenos sobre los que conocemos algunas circunstancias pero sin ser enteramente caóticos, los
reconocemos como aleatorios, su resultado concreto es impredecible (Kyburg, 1974). Sobre la
noción de aleatoriedad y su propia problemática, trataremos en el apartado 2.2.2., pero, en primer
lugar, nos centraremos en el estudio de la evolución de la noción de azar (apartado 2.2.1.), por
considerarla de especial significatividad para interpretar la evolución del estudio de estos
fenómenos. Estudio que, por otra parte, nos aportará una información sustancial a la hora de
caracterizar las concepciones personales de los sujetos sobre la idiosincrasia del mundo de la
incertidumbre, objetivo de la investigación empírica que presentamos en el Capitulo V.
2.2.1. LOS DISCURSOS DEL AZAR
En una rápida visión por la historia podemos diferenciar, a grandes rasgos, ciertas etapas
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 39
significativas en las que enmarcar las sucesivas explicaciones dadas a la existencia de los
fenómenos indeterminados, lo que Vázquez (1982) ha dado en llamar los distintos "Discursos del
Azar". Revisión histórica que hemos realizado desde el esquema siguiente:
* Discurso del ORDEN (Civilizaciones antiguas: egipcia, babilónica, griega, etc.).
* Discurso de AZAR/NECESIDAD (Civilización grecorromana).
* Discurso de la PROVIDENCIA (Edad Media y Renacimiento).
* Discurso de la RACIONALIDAD/IGNORANCIA (Finales del XVI a principios del
XX).
En el desarrollo del conocimiento científico actual, o más bien del conocimiento humano
en general, podemos reconocer un nuevo discurso del azar presente ya en algunos estudios de
principio de siglo pero no tratado explícitamente hasta la segunda mitad del siglo XX, es lo que
hemos denominado como el:
* Discurso de la COMPLEJIDAD (Segunda mitad del XX)
Analizaremos brevemente cada una de estas posibles explicaciones.
El Discurso del ORDEN
Los diversos pueblos primitivos fueron dando diferentes explicaciones a aquellos
fenómenos o hechos cuyo origen era desconocido para ellos. En general, eran atribuidos a la
acción de alguna fuerza oculta o mágica que rompía el orden establecido.
Todos los mitos arcaicos de la humanidad están relacionados con la idea del Caos como
origen del Universo (Morin, 1986). Posteriormente, el Caos inicial fue superado y dominado por
las fuerzas del orden, imponiendo sus procesos de orden y organización entre los distintos
elementos. Desde entonces, el caos y el orden coexisten en la naturaleza, "los pueblos antiguos creían
que las fuerzas del caos y el orden formaban parte de una tensión inestable, una armonía precaria" (Briggs y Peat,
1990; p.19). Su coexistencia estaba controlada por los Dioses, quienes dirigían y determinaban el
destino de todos los seres.
En las distintas mitologías encontramos signos de este poder del orden sobre el caos, con
diferentes matices (Guirand, 1970). Así, por ejemplo:
* Para la civilización egipcia, Maât, mitológicamente relacionado con el Dios RA,
significaba el orden primigenio que venció al universo caótico inicial. Este orden o
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 40
armonía a veces se rompía por la irrupción de las fuerzas del mal o el desorden
representadas por Seth.
* En la mitología babilónica el poder del caos originario se llamaba Tiâmat y
representaba las fuerzas ciegas de la naturaleza. De forma similar, encontramos el triunfo
de Marduck, que significa el orden, sobre Tiâmat, que desde entonces rige el destino de
todos los seres (Guirand, 1970).
* En los primeros textos de la civilización griega, también es recogida esta idea en
la representación de la gran batalla que libró Zeus con Tifeo o Tifón, Dios de las fuerzas
del mal, y que culminó con la victoria definitiva del primero. Zeus es el más grande de los
dioses del Panteón helénico, que mantiene el orden y la justicia en el mundo.
Puede establecerse un paralelismo entre Seth - Tiâmat - Tifeo como representantes de las
fuerzas rebeldes e incontroladas de la naturaleza que a veces rompen el orden y la armonía del
universo establecido por Maât - Marduck - Zeus.
Posteriormente, en el mundo griego se van introduciendo nuevos elementos provocadores
de sucesos inesperados o incontrolados como son las Moiras, que representaban el destino o la
suerte que a cualquier ser le ha tocado vivir. La Moira es inflexible, encarna una ley que ni los
mismos dioses pueden transgredir sin poner en peligro el orden del universo.
En los distintos textos las Moiras toman nombres y matices diferentes. Así aparece
Láquesis, que designa la necesidad que tiene el hombre de elegir su propia suerte o destino, es la
suerte entendida como oportunidad frente a Tyché, la suerte ciega, inaprehensible, a la que se
asocian los sucesos inesperados e incontrolados, favorables o desfavorables y va estrechamente
unida al destino, idea cercana a las fuerzas ocultas e incontroladas. Como nos dice Rose (1970),
los designios de Tyché caen inexorablemente sobre los hombres, representando el poder, mitad
providencia mitad casualidad, al que está sometido el mundo. De ahí expresiones como "caer en
suerte", que aún hoy utilizamos cuando queremos expresar el dominio incontrolado del azar.
Sus designios también dan origen a hechos inesperados o fortuitos pero que tienen una
razón de ser, no son sino sucesos del propio destino que cada ser tiene marcado, "por ello, para la
mitología griega el AZAR/TYCHÉ y el DESTINO/MOIRA son uno y aparecen conjugados en la trayectoria vital de los
mortales" (Vázquez, 1982; p.14).
Podemos observar cómo en las primeras civilizaciones, lo indeterminado e incontrolado,
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 41
es decir, aquello que es atribuido habitualmente al azar, se asocia al viejo desorden inicial que a
veces surge a través de las fuerzas incontroladas. Para el mundo primitivo no hay hechos
fortuitos, hay causas desconocidas que, ante la ausencia de justificaciones para su
existencia, se relacionan con lo mágico o lo divino. El azar, como causa desconocida que
produce sucesos inesperados o "extraños", es atribuido a fuerzas ocultas de origen mágico o
divino, y en algunos casos, vinculadas estrechamente con el propio destino.
El Discurso del AZAR/NECESIDAD
La civilización griega, a diferencia de otros pueblos como los babilónicos, egipcios,
indios, etc., no sólo da gran importancia a las ideas y a "las verdades" sino que busca el por qué
de esas verdades, intentando sistematizar los resultados y construyendo sistemas de
explicaciones; de hecho, según Crombie (1985), ellos inventaron realmente la Ciencia.
La evolución gradual de la filosofía griega se reflejó en la búsqueda de explicaciones de
los fenómenos de la naturaleza a través de elementos de la propia naturaleza, evitando recurrir a
fuerzas sobrenaturales o divinas. Paralelamente, se les va dando a los dioses significados
semiracionales, concibiéndolos más como fuerzas de la realidad natural que de naturaleza divina.
Uno de los síntomas más significativos de esta evolución es el estudio de los términos del
léxico donde se pone de manifiesto. Por ejemplo, la dualidad Ananké/Tyché - Necesidad/Azar, en
donde el sentido de Tyché está de nuevo matizado. La necesidad o Ananké es lo que viene dado,
lo establecido, lo que no se puede evitar, donde los hechos acaecen por causas necesarias;
representa la personificación de la obligación absoluta (Grimal, 1989). Lo que se escapa de este
orden o aparente necesidad es el azar o Tyché. La problemática planteada por esta dualidad de la
naturaleza existe ya desde los presocráticos, aunque su sentido no es clarificado (Kirk y Raven,
1969). Un claro ejemplo lo tenemos en las interpretaciones y explicaciones de la Física
Atomística griega, defendidas por figuras tan significativas como Demócrito o Epicuro.
El problema del azar, su existencia o no, su significación, carácter y relevancia, está
presente en gran parte de las reflexiones de la filosofía griega. Discusiones sobre él y sobre la
relación azar/necesidad encontramos en las obras de figuras tan representativas como Platón o
Aristóteles, el mayor sistematizador del saber antiguo. Sus ideas, contrapuestas a las de
Demócrito, serán las que dominen el trabajo del mundo científico durante siglos. En los
numerosos estudios y tratados sobre la historia de la Ciencia, la Filosofía o sobre la Filosofía de
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 42
la Ciencia encontramos recogidas las ideas de Aristóteles (Ross, 1957; Taton, 1972; Crombie,
1985; Mason, 1985; etc.).
Aristóteles recoge y estudia las ideas de los filósofos precedentes y a su vez fundamenta
sus propias tesis. Reconoce la suerte y el azar como causas accidentales, provocadoras de los
eventos fortuitos o inesperados, pero establece ciertas diferencias entre ambas (Ross, 1957;
Hamelin, 1978). Considera a Tyché, la Suerte, como una causa accidental que actúa en los
procesos causales en los que interviene el hombre, el cual, como ser responsable, tiene capacidad
de elegir y, por tanto, la elección puede conllevar "buena" o "mala" suerte. Mientras que el Azar,
Automatón, es un concepto más amplio que incluye la Suerte y hace referencia a procesos en los
que intervienen también seres inanimados o animales y sobre los que no hay control posible.
Aristóteles explica el Azar como el encuentro imprevisto de procesos causales
independientes, es una mera apariencia que atañe a las cosas de la naturaleza y a las humanas,
nunca a las celestes, a las que considera de otra categoría y pertenecientes a lo que llama el
mundo supralunar, donde no existe indeterminación alguna. Su concepción del problema del azar
se manifiesta, por tanto, dentro de un no determinismo aplicable sólo al mundo terreno, nunca al
celeste al que considera perfecto y ordenado, como indica Ross (1957). Aunque, según Crombie
(1985), hay otros muchos autores que piensan que en las tesis de Aristóteles no hay
indeterminismo alguno, el azar lo considera simplemente como una apariencia, producto de un
encuentro imprevisto de lo determinado.
Estas ideas tienen también su reflejo en el mundo romano donde se habla de la diosa
Fortuna como la Suerte y de Casus como el Azar, al que designa, al igual que el azar aristotélico,
como la confluencia de series causales. Sin embargo, con respecto a la diosa Fortuna hay un
matiz diferente en el mundo latino: la asociación progresiva de un sentido positivo a la suerte,
perdiendo su acepción neutra original.
Gran parte de estos términos y significados han llegado hasta nuestros días, como el del
vocablo "Fortuna", cuyo significado hoy sigue unido a la buena suerte, como algo que no se
puede controlar y, en muchos casos, unida intrínsecamente al destino de las personas.
En resumen, el mundo grecorromano admite en general que la determinación total no es
una característica propia del mundo terreno, en él existe algo indeterminado que no
permite una aserción absoluta y segura sobre el futuro. Las reflexiones desarrolladas en esta
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 43
época sobre el tema, son de carácter teórico y metafísico, sin cuestionarse el posible control y
estudio de esos sucesos inesperados o fortuitos producidos por "causas accidentales". Sus
trabajos se centraron en el estudio del Universo Celeste, al que sí consideraban totalmente
determinado y ordenado. El azar, reconocido como algo desconocido, es explicado como un
simple reflejo del cruce inesperado de un conjunto de hechos que son producto de causas
necesarias, establecidas por series causales independientes. Un significado similar al que hoy
otorgamos al término casualidad, al que en muchos casos diferenciamos de suerte.
El Discurso de la PROVIDENCIA
Las formas históricas de magia y mitología se transformaron progresivamente en las
grandes religiones que hoy conocemos; aunque, según Morin (1988), "la magia arcaica ha devenido
residual y periférica en las civilizaciones en las que se han impuesto las grandes religiones" (p.180). Esta
transformación provocó (en el Medievo) una modificación sustancial de las ideas y concepciones
sobre el azar, sin embargo, no podríamos decir que dicha modificación realmente representara
una evolución. La existencia de la incertidumbre del mundo grecorromano se transformó en el
poder de la Providencia, que garantiza el orden y la armonía del Universo. Durante la Edad
Media, con el apogeo del Cristianismo, las ideas de la Iglesia adquieren un peso significativo en
la sociedad. Su persistencia en el papel de la Providencia Divina como causa única y última de
todas las cosas condena a lo indeterminado y por tanto al azar a la inexistencia,
relacionándolo con un sentido cabalistico y mágico del mundo, y prohibiendo en múltiples
ocasiones cualquier alusión a él. En general, durante esta etapa de la historia, fundamentalmente
en los primeros siglos de la Edad Media, se dejan de lado y se ignoran todas las reflexiones y
conocimientos del mundo antiguo, algo no exclusivo del conocimiento sobre el azar, ya que se
puede generalizar a casi todos los campos del saber.
Según Sánchez Albornoz (1976), en el Medievo se pueden diferenciar dos
interpretaciones de la noción de azar. La oficial y, por tanto, la de todos los creyentes, y la vulgar
o del incrédulo. Para los primeros, el azar no existe, el hecho que observamos como inexplicable
es una proyección de la suprema voluntad de Dios, cuyo sentido no lo puede captar la deficiente
razón humana; sin embargo, para el no creyente, el azar es una fuerza de la naturaleza ciega,
inexplicable y mágica, reflejando las concepciones primitivas sobre lo incontrolable.
Manteniendo este significado divino, se admite la existencia del azar en el sentido
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 44
aristotélico de confluencia de series causales independientes, pero provista de finalidad. Las
manifestaciones de Dios, como aquél que gobierna y ordena todos las cosas, son a veces
inescrutables para el hombre, lo que le lleva a considerarlas como acontecimientos inesperados,
fortuitos, sin causa aparente.
Según Gilson (1978), Stº Tomás plantea que la Divina Providencia no elimina la suerte o
la casualidad; lo que realmente no tiene cabida en el universo cristiano es el azar entendido como
reflejo de lo desordenado, lo incontrolado o lo no causal. El mundo medieval resuelve la dualidad
Necesidad/Azar considerando que la Providencia, que todo lo gobierna, determina que coexistan
lo necesario como necesario y lo aparentemente contingente como contingente, pero todo con un
fin prefijado por la voluntad divina. Una idea típica en el Medievo es el "Milagro", explicación
alternativa a la existencia de sucesos "extraños" e "inexplicables", considerándolos como una
manifestación inexplicable de la Providencia Divina. En el intento de realizar juicios sobre ellos
surge una primera noción de "probable", con un significado muy distante del actual, las
manifestaciones "probables" o probadas son aquellas apoyadas en las opiniones y razones de las
autoridades doctas, generalmente relacionadas con la Iglesia (Hacking, 1975), como analizaremos
posteriormente.
El poder de la Providencia preside todo el discurso medieval y mantiene como
inexplicable para el ser humano los designios de Dios. Progresivamente el individuo va
adquiriendo relevancia como sujeto central del cosmos y, en aras a su progreso, se admite la
búsqueda de explicaciones. Se comienza entonces a estudiar la Naturaleza, manteniendo la idea
de Dios como algo "ajeno" y "omnipresente", no cuestionable, pero que no impide la búsqueda
sistemática de explicaciones sobre la realidad que nos rodea, poniendo los pilares de la
Revolución Científica, la cual forjará un nuevo discurso sobre el significado del azar.
Así, los acontecimientos extraños e inesperados, resultado de la convergencia
accidental de procesos causales para los aristotélicos o del poder de fuerzas ocultas y mágicas
para los paganos, para el hombre docto medieval son simplemente producto de la voluntad
divina, que se justifica como causa última ajena al hombre. Cabría apuntar que en la cultura
actual esta concepción está identificada con los grupos fatalistas y fundamentalistas.
El Discurso de la RACIONALIDAD/IGNORANCIA
El pensamiento de los siglos XVI y XVII se caracterizó por la progresiva separación del
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 45
poder y la voluntad de Dios a través del cultivo del hombre y la naturaleza, superando la visión
cristiana del mundo y de los fenómenos que en él acontecen; ello representó la búsqueda de una
nueva imagen del mundo donde la realidad, regida por sus propias leyes, se concebirá como
imagen del "Cogito" o Pensamiento; leyes a las que se le asociaba un carácter universal. Se
impone la recuperación del mundo sensible desde el sujeto, cuya esencia fundamental es el
pensar. Es ejemplificadora del espíritu de esta época la famosa frase de Descartes "Cogito ergo
sum". Para Descartes, se desecha como improbado todo aquello que no puede ser considerado
como evidente para un espíritu atento, admitiendo como "probable" no sólo los argumentos de las
autoridades, sino también lo probado por la evidencia explícita de las cosas (Taton, 1972; Morin
1988).
Durante estos siglos se da un papel relevante al desarrollo del saber científico, lo cual
provocó un profundo estudio de los fenómenos físicos y de sus causas, dirigido hacia la búsqueda
de las leyes universales que los regulan. La síntesis de todo ese trabajo, su expresión máxima, son
las Leyes de la Mecánica de Newton, publicadas en 1686 en su libro Philosophiae naturalis
principia mathematica, primer código de la ciencia moderna de la Mecánica, como lo llama
Taton (1972). Su elaboración reflejaba el poder del "Logos", pensamiento empírico/racional,
sobre el "Mitos", pensamiento simbólico/mitológico. En la última etapa de la historia occidental,
esta ruptura entre la razón y el mito ha llevado a la separación definitiva entre ciencia y religión
(Morin, 1988).
Esta situación provocó una era de crisis y convulsiones. El mundo científico estaba
centrado en ese intento de explicación y control de los fenómenos de la naturaleza. En dicho
contexto, toda noción que estuviese relacionada con el desorden, la incertidumbre o lo
indeterminado era relegada a segundo plano y desechada como parte del saber científico. Estas
ideas provocaron un "retroceso del poder del azar en función del progreso del conocimiento" (Wagensberg,
1981; p.16), entrando en una época de gran confusión en torno al problema del azar.
Aunque su estudio no fue considerado por gran parte de la comunidad científica, sí se
producen en estos siglos importantes debates que originan significativas controversias surgiendo
numerosas posturas complejas y contradictorias entre sí. Así, entre los autores de esta época,
encontraremos desde negaciones absolutas del azar, postura defendida por el Racionalismo de
Descartes, hasta manifestaciones que defienden su presencia en todo suceso de la realidad, tesis
planteada por Pascal. Este último autor, concibe al azar como un principio no controlado del
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 46
mundo natural y humano. Otros muchos autores de los siglos XVI, XVII y XVIII reivindicaron la
importancia e influencia del azar. Por ejemplo, Crombie (1985) nos habla de Maupertius quien,
en el siglo XVIII, estudió la influencia del azar en la evolución de los seres vivos, o las ideas
expuestas por Voltaire que, según Boursin (1968), llegó a escribir: "Su Majestad el Azar todo lo
decide".
A partir de la formulación matemática de las leyes fundamentales de la Mecánica Clásica,
se consolidó, definitivamente, la teoría determinista; se tenía la certeza de que se habían
descubierto las bases de las Leyes Universales de la Naturaleza. Desde los presupuestos de la
teoría determinista, se reconocían en la naturaleza dos tipos de fenómenos:
* Aquellos que se regían por leyes armónicas y, por tanto, eran previsibles en su
evolución y repetición.
* Y otra serie de fenómenos que, aparentemente, eran inexplicables e impredecibles,
sobre los que se tenía una clara ignorancia.
Estos últimos son los que, desde el pensamiento newtoniano, se atribuyen al azar. Desde
él, el mundo se regía por leyes estrictamente causales y no se podía ni pensar que existiesen leyes
del azar o de lo irregular y mucho menos que éstas pudieran ofrecer una alternativa válida para el
estudio de la realidad. Como plantea Hacking (1991), "a ninguno de ellos se le ocurría pensar por un
instante que las leyes del azar podrían suministrar una alternativa de las leyes estrictamente causales" (p.18). Se
consideraba que todo fenómeno tenía una causa, por mínima que ésta fuera y, que aunque un
fenómeno pareciera fortuito, ello sólo era producto del desconocimiento sobre las causas y leyes
que lo regían. El azar era simplemente el efecto de la ignorancia humana a la hora de traducir
científicamente, según leyes causales y deterministas, ciertos acontecimientos de la Naturaleza.
Según esta concepción, no existe el azar en sí mismo, es nuestra ignorancia lo que nos hace
recurrir a él, como instrumento explicativo.
En paralelo al retroceso sufrido en el estudio de la significación del azar como expresión
de lo indeterminado, se produce la progresiva emergencia de la noción de probabilidad. En
realidad, es un hecho fácilmente explicable ya que el espíritu de la época se caracterizaba por la
obsesión por el control de todos los fenómenos de al naturaleza. Ante los hechos fortuitos, cuyas
leyes eran ignoradas, el Cálculo de Probabilidades posibilitaba adentrarse en el estudio de
algunos de estos fenómenos, aunque fuera provisionalmente. Su objeto de estudio, por tanto, son
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 47
los denominados sucesos aleatorios, sobre los que si bien se dispone de alguna información a
través de la experiencia, no son previsibles sus resultados.
El Cálculo de Probabilidades surge en 1662 a partir del estudio de los juegos y de la
necesidad de prever los posibles resultados que en ellos se podían presentar. Si analizamos lo
dicho en las líneas anteriores, el interés por el desarrollo del Cálculo de Probabilidades tiene su
justificación desde el intento de controlar, en cierta manera, las posibilidades del juego, buscando
alguna ley o regla que regulase su funcionamiento, a través de su observación y sistematización.
Nace así como instrumento matemático neutralizador, a un determinado nivel, de la ignorancia
humana y se va conformando definitivamente en esta época.
Los trabajos de importantes autores de esta época provocaron avances significativos en el
campo del Cálculo de Probabilidades, entre ellos podemos nombrar a Huygens, De Moivre,
Bernoulli, etc., cuyos escritos analizaremos más detalladamente en el apartado siguiente,
dedicado al desarrollo histórico del Cálculo de Probabilidades.
En este momento de la historia, se hacía una clara distinción entre la noción de azar y la
noción de probabilidad. El azar designaba el carácter indeterminado y fortuito de la realidad
física, sin interés para el estudio científico; la probabilidad, sin embargo, era una categoría
epistémica derivada de la imposibilidad humana para conocer de manera absoluta el fundamento
de ciertos procesos reales, los aleatorios; aportaba información, aunque fuera parcial, sobre su
funcionamiento.
Una expresión significativa de esta distinción la encontramos en los escritos de B. Pascal,
gran científico del siglo XVII. Pascal, adepto de la racionalidad y cristiano ferviente, sabe que
Dios no puede ser probado racionalmente (Morin, 1992). Utiliza la duda y el cálculo racional
para justificar una apuesta, sobre cuál será la mejor decisión aceptar o negar la existencia de
Dios, postulado que considera no sometido al azar sino a la probabilidad, la de hacer una elección
con una mayor o menor probabilidad de equivocarse. Se trata de un problema de decisión y no de
naturaleza azarosa, como podemos analizar en los pensamientos de Pascal recogidos en sus
Obras (Pascal, 1983). El trabajo de Pascal es considerado por algunos autores - Hacking (1975) -
como el principio de la Teoría de la Decisión.
La consagración del azar como ignorancia se alcanza curiosamente en el discurso
laplaciano, al principio del siglo XIX. Laplace, en su famoso Ensayo filosófico sobre las
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 48
probabilidades (Laplace [reeditado], 1985), expone el ideal determinista cuando imagina una
inteligencia infinita que, "en un momento determinado conociera todas las fuerzas que animan a la naturaleza, así
como la situación respectiva de los seres que la componen, además fuera lo suficientemente amplia como para someter a
análisis tales datos, podría abarcar en una sola fórmula los movimientos de los cuerpos más grandes del universo y los
del átomo más ligero; nada le resultaría incierto y tanto el futuro como el pasado estarían presentes ante sus ojos"
(p.25). Es decir, como analizan Briggs y Peat (1990), según su filosofía llegaría un día en que los
científicos encontrarían una expresión matemática que permitiría la explicación y control de todo
fenómeno de la Naturaleza, ese día quedaría eliminada la incertidumbre. Mientras esto no ocurra,
no queda otra opción que acudir a las probabilidades, como "mal menor".
A finales del siglo XIX el estudio del azar empieza a ocupar un lugar relevante en las
investigaciones, a través de la aplicación del Cálculo de Probabilidades en los fenómenos socio-
naturales. Junto a esta progresiva extensión del Cálculo de Probabilidades, considerado por
Laplace como una posible salida a nuestra ignorancia, concebida ésta como una imperfección, la
noción de azar como ignorancia persistió durante largo tiempo en el mundo científico, aunque el
significado de esa ignorancia fue adquiriendo diferentes matices y valoraciones. Estas tesis
deterministas van a cuajar fuertemente en los ámbitos escolares.
Sin embargo, ante la inmensa variedad de acontecimientos socio-naturales que no podían
ser explicados desde leyes deterministas, era necesario una reelaboración del concepto de
fenómeno fortuito. A finales del siglo XIX, ya en los umbrales del siglo XX, se comienza a
vislumbrar la existencia de sucesos socio-naturales que, por su carácter complejo o por la
multitud de variables que intervienen en ellos, son imposibles de controlar intrínsecamente. Esta
imposibilidad es evidentemente producto de nuestra ignorancia o incapacidad, pero ya no
considerada como una imperfección, sino como el reflejo de la existencia en la Naturaleza de
eventos que no obedecen a leyes causales y regulares. Como afirma Poincaré "es necesario entonces,
que el azar sea otra cosa más que el nombre que damos a nuestra ignorancia" (Poincaré [recopilación], 1963;
p.54).
En busca de una noción de azar que representara algo más que el nombre dado a la
ignorancia humana, Poincaré (1979), a caballo entre el siglo XIX y el siglo XX, describió tres
tipos de sucesos cuyo comportamiento era atribuido normalmente al azar:
* En un primer análisis de estos fenómenos, observó cómo algunos de ellos
pueden estar producidos por causas insignificantes que se nos escapan perceptivamente,
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 49
pero que determinan un efecto considerable. Al observar el efecto, sin poder apreciar la
causa que lo origina, éste se atribuye al azar. Una pequeña diferencia en la situación
inicial del fenómeno puede producir grandes diferencias en los efectos que producen, y la
predicción resulta imposible. Un ejemplo claro de este tipo de eventos indeterminados
son los fenómenos atmosféricos, en los que una pequeña perturbación puede causar un
efecto desproporcionado; es famoso el ejemplo del posible efecto sobre la situación
atmosférica del vuelo de una mariposa, problema estudiado por el meteorólogo E. Lorenz
en la década de los 60, ya en el presente siglo.
* Desde otra aproximación a estos fenómenos surgen aspectos algo diferentes. Existen
fenómenos en los que lo sorprendente no es la pequeñez de las causas que lo provocan, sino la
complejidad de las interacciones entre ellas. Estamos ante fenómenos complejos cuyo desarrollo
no depende de una causa determinada sino de una complicada relación entre muchas causas.
Tenemos entonces un conjunto de causas, cada una produce su efecto correspondiente, su reunión
e interacción lleva a determinar grandes efectos que son los que observamos. Todos los elemen-
tos del sistema empiezan a interaccionar entre sí y al no poder predecir la cadena de conexiones
que originan, ni la situación final que provocan, la predicción resulta imposible. Tenemos de
nuevo un fenómeno indeterminado ante nosotros. Un ejemplo representativo es el movimiento de
las moléculas de un gas, desarrollado en la Teoría Cinética de los Gases por J. Maxwell a
principios de este siglo.
* Por último, considera aún otra forma más de afrontar la presencia del azar, quizás de
menor importancia que las dos anteriores. Cuando queremos prever un acontecimiento,
generalmente nos remontamos a analizar las situaciones previas a él, pero como no podemos
abarcar todo el universo que le rodea, nos limitamos a indagar en lo que parece tener alguna
relación con el entorno directo de dicho acontecimiento. Nuestras propias limitaciones nos
impiden abarcar todas las partes del universo a la vez y actuamos, por tanto, de forma aislada
considerando sólo los aspectos directamente implicados. Al no tener en cuenta que esas partes
que hemos ignorado siguen actuando sobre el proceso, produciendo un cierto efecto sobre los
acontecimientos, el efecto resultante, al presentar un desfase con lo esperado, nos parece
achacable al azar, aunque a veces no lo sea realmente. El caso más simple es el del accidente
fortuito, donde se pueden controlar ciertos elementos del sistema (nuestra prudencia), pero otros
quedan fuera de nuestras posibilidades de control (imprudencia de otros), y no contamos con su
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 50
posible influencia.
Estas visiones de los fenómenos fortuitos eran intentos explicativos de Poincaré sobre
cómo se concibe el azar, sin llegar a una definición precisa del mismo. Era una explicación del
tipo de fenómenos que se relacionan con el azar, bien por no tener causa directa conocida, bien
por ser su causalidad remota y compleja. En cualquier caso, eran necesarios modelos no causales
para poder representarlos de una forma más precisa (Díaz Godino, Batanero y Cañizares, 1988).
Todavía será necesario esperar algunos años para retomar estas ideas planteadas por
Poincaré y dar la entrada definitiva del nuevo discurso del azar en el mundo científico.
El Discurso de la COMPLEJIDAD
A lo largo de este siglo hemos entrado en una vertiginosa crisis en los fundamentos del
conocimiento: la incertidumbre, el desorden y la relatividad de su validez, se han introducido
hasta sus raíces más profundas; como analiza Morin (1988), "todos los avances del conocimiento nos
acercan a un algo desconocido que desafía nuestros conceptos, nuestra lógica, nuestra inteligencia" (p.24).
Las grandes convulsiones y avances del siglo XX en todos los campos del saber:
Economía, Ciencia, Arte, etc., han puesto al hombre ante un mundo complejo en continuas
transformaciones donde todo sufre constantes cambios y modificaciones, que no siempre pueden
ser controladas. Todo este cúmulo de conocimiento, como expone Wagensberg (1986), ha
llevado al hombre a buscar nuevas posiciones en las cuales acomodar sus creencias y
conocimientos, situadas entre las posturas extremas del determinismo y su negación; así, "la
ciencia de hoy no se sitúa ni en procesos puramente deterministas ni en procesos puramente aleatorios....el mundo real se
encuentra en algún punto intermedio" (Prigogine, 1986; p.192).
En los avances producidos en el presente siglo, ya a punto de finalizar, se ha roto el ideal
laplaciano: el conocimiento y control completo de la Naturaleza no existe. El desarrollo de
teorías como la Mecánica Estadística, la Mecánica Cuántica o la moderna Ciencia del Caos han
puesto en entredicho la culminación de tal ideal y han llevado al mundo científico a buscar
nuevas relaciones lógicas superadoras de la lógica clásica. Wagensberg (1986) en la sesión
inaugural de un seminario celebrado en Figueras entre pensadores de diferentes disciplinas sobre
"determinismo versus indeterminismo", dejó en el aire una pregunta: "¿Es el azar un producto de la
ignorancia o un derecho intrínseco de la Naturaleza?" (p.15).
Cuando intentamos analizar hoy el comportamiento de un fenómeno o predecir su
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 51
evolución, nos basamos en la información que sobre él poseemos. De los llamados vulgarmente
fenómenos fortuitos carecemos en general de información esencial y exacta que nos permita su
estudio absoluto. De forma general, y en función de la naturaleza de la información o de la
ausencia de ella, podemos distinguir, según Ekeland (1992), dos tipos de sucesos imprevisibles:
* Aquellos en los que la carencia de información sobre los mismos emana de la propia
naturaleza del fenómeno. Sus causas, por razones semejantes a las señaladas por
Poincaré, nos son totalmente desconocidas y su funcionamiento incontrolable. Estamos
ante el azar esencial, natural u ontológico. Sobre estos fenómenos, el Cálculo de
Probabilidades nos podrá informar parcialmente, en algunos casos y, en otros, será
necesario elaborar nuevos y más sofisticados instrumentos, conceptuales y de cálculo.
* Aquellos cuyo funcionamiento depende de leyes empíricas, fruto de la observación del
hombre, y sobre los cuales tenemos aún una información parcial de sus posibles causas.
La carencia de información se debe en muchos casos a nuestra insuficiencia o ignorancia.
Se trata de un azar relativo, humano o epistemológico. Sobre ellos el Cálculo de
Probabilidades nos puede informar provisionalmente y nos ayudará a su posible
predicción a falta de una mejor información.
A partir de su reconocimiento y estudio se va conformando un nuevo discurso, el azar
como elemento provocador de la complejidad existente en la realidad, donde su significación
puede estar ligada a un carácter más ontológico. En él comienzan a definirse los límites de la
comprensión humana de la Naturaleza.
Por un lado, la regulación y modelización científico-matemático del azar a través del
Cálculo de Probabilidades le ha desprovisto definitivamente de su significado mágico. El
acontecimiento aleatorio es aquel cuyas variables no pueden ser determinadas en su totalidad y
por lo tanto, su control se realiza a través de modelos probabilísticos y estadísticos.
Posiblemente, desde un punto de vista epistemológico, uno de los mayores éxitos alcanzados por
el pensamiento humano es la modelización matemática de los fenómenos aleatorios. Su
formalización se realizó a través de la axiomática de Kolmogorov, dentro del marco asociado a la
lógica clásica (Trillas, 1980).
Pero aún quedan numerosos fenómenos de la Naturaleza que presentaban un
funcionamiento esencialmente irregular y sobre los que no es posible aplicar el Cálculo de
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 52
Probabilidades y para cuya modelización no es aplicable la estructura de la lógica clásica.
Ya en pleno siglo XX, en la década de los 70, un grupo de científicos de campos tan
diversos como la Física, la Fisiología, la Biología o la Matemática intentan dar sentido a la
complejidad de la vida real con una mayor comprensión de las irregularidades que presenta la
naturaleza (Gleick, 1988; Stewart, 1991). De sus estudios surgen los primeros trabajos
relacionados con lo se ha dado en llamar la Ciencia del Caos o más recientemente Ciencia de la
Complejidad. Esta ciencia, todavía en fase de hipótesis, estudia la realidad bajo una nueva luz: la
complejidad que provoca el azar.
Hoy se reconoce que, en la generalidad de los sistemas dinámicos, aparecen trayectorias o
comportamientos perfectamente regulares, junto con otros de gran complejidad que producen
efectos incontrolables, produciendo un movimiento en principio impredecible, desordenado y, en
cierta manera, caótico (Fernández-Rañada, 1990). Pero el mayor descubrimiento fue que no sólo
los sistemas complejos presentaban esa particularidad: "Algunos sistemas deterministas muy simples, con
sólo unos pocos elementos pueden generar comportamiento aleatorio. El azar es algo fundamental del sistema; la
información no lo esfuma. A la aleatoriedad así generada hoy le llamamos caos." (Crutchfield y col., 1990; p.68).
La ciencia de la complejidad emerge en el desarrollo de la teoría de los sistemas
dinámicos no lineales, aquellos que no tienen un comportamiento regular, factible de ser
estudiado mediante el instrumento matemático de las ecuaciones diferenciales lineales; es decir,
son sistemas que reflejan un comportamiento estocástico (Crutchfield y col, 1990). El
comportamiento de estos sistemas, cuya génesis parte de las explicaciones de Poincaré sobre el
origen del azar, produce unos efectos macroscópicos observables que son el objeto de estudio de
dicha ciencia: "En el mundo no lineal, que incluye la mayor parte de nuestro mundo real, la predicción exacta es
práctica y teóricamente imposible" (Briggs y Peat, 1990; p.24)
Desde sus presupuestos, la posición del azar en el dominio del conocimiento se ha
transformado profundamente. Ha pasado de ser un obstáculo, una carencia o ignorancia que el
Cálculo de Probabilidades pretendía ocultar, a convertirse en un instrumento para la investigación
de procesos caracterizados por su irreductible complejidad.
Así, el crecimiento de las poblaciones, las oscilaciones de los circuitos eléctricos, el flujo
de un fluido turbulento, el mercado bursátil, el medio atmosférico, el diseño de válvulas
cardíacas, el campo inmunológico, las reacciones químicas oscilantes, la descripción de la
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 53
superficie terrestre, las sinuosidades de una línea costera, los pensamientos humanos, etc., son
algunos de los fenómenos que se han analizado desde esta perspectiva, recogidos en los escritos
de Gleick (1988), Stewart (1991), Ekeland (1992), Hayles (1993), etc.
El estudio del caos o de la complejidad no es sólo una teoría, progresivamente se va
transformando en una nueva forma de hacer ciencia y puede tener una influencia determinante en
la sociedad, al ser su objeto de estudio los fenómenos cotidianos, por tratar, en suma, con el
mundo que vemos y tocamos. Su estudio ha provocado nuevos planteamientos, tanto en el mundo
de la ciencia tradicional como en el campo de las ciencias sociales, donde está aportando una
reorganización de los conocimientos. No tendría sentido que en el mundo complejo de las
realidades humanas se mantuviera la validez del principio determinista simplificador.
En este sentido, es significativo el trabajo de E. Morin sobre la naturaleza del
conocimiento, pues como expone Porlán (1989), este autor se sitúa "en un lugar difícil e incómodo, pero
no por ello menos apasionante y fructífero: en el multiespacio fronterizo existente entre las ciencias experimentales y las
sociales, entre éstas y la filosofía y entre todas ellas y la teoría política" (p. 42). En su estudio, Morin introduce
la dimensión azar en el origen de toda forma de desorden y complejidad presente en un sistema:
"El azar o "alea" constituye una dimensión presente en todas las formas de desorden" (Morin, 1987; p.424). Es la
conjunción entre el orden y el desorden la que rige la interacción entre los distintos elementos del
sistema, dando origen a la organización del propio sistema.
Siguiendo el análisis de Porlán (1989), Morin "no se conforma con describir la naturaleza actual de
la ciencia o de los criterios de racionalidad de la misma desde una posición estrictamente filosófica, tan frecuente entre
epistemólogos, sino que desde una concepción crítica y socio-política elabora alternativas favorecedoras de un nuevo
conocimiento: el conocimiento complejo" (p.44). El trabajo transdisciplinar de E. Morin es una reflexión
sobre el conocimiento desde diversas perspectivas: física, biológica, antropológica, socio-cultural
y organizativa, asentando las bases de una nueva epistemología, la "epistemología compleja", que
permitirá abrir y complejizar el punto de vista epistemológico, introduciendo nuevos elementos y
relaciones que permitan otra manera de observar, pensar y transformar la realidad.
Su discurso, por otra parte, tiene importantes implicaciones en el estudio de los sistemas
educativos. Toda situación escolar está integrada en un sistema dinámico con un funcionamiento
interactivo no lineal, es decir en un sistema complejo: "La complejidad aporta una nueva ignorancia. La
problemática del pensamiento complejo no es eliminar sino trabajar con la paradoja, la incertidumbre y el desorden"
(Morin, 1987; p.414), como superación de todo reduccionismo o simplificación.
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 54
Como analizábamos en el capítulo anterior, el reconocimiento de la realidad educativa
como un sistema complejo es uno de los principios fundamentales de los que partimos en nuestro
trabajo. Esta confluencia de ideas es una de las razones por las que consideramos que la
comprensión del concepto de azar, como origen de la complejidad y como algo intrínseco a los
sistemas, es un elemento clave en el desarrollo profesional. Su integración permite una
reorganización del conocimiento en su sentido más amplio.
En nuestro rápido recorrido para situarnos en el tema (Cuadro 5), hemos visto cómo
desde un primer significado del azar como algo cercano a lo mágico o a lo divino, la
humanidad y, en particular, el mundo científico, ha evolucionado hacia una clara
aceptación de la influencia del azar en numerosos fenómenos de la realidad. Durante siglos,
la consideración de estos fenómenos como algo de origen mágico o divino, y por tanto
inalcanzable, los mantuvo fuera del mundo científico, siendo un claro obstáculo para su
posible estudio. Sólo a partir del reconocimiento de la existencia de una posible predicción
de su funcionamiento, aunque de naturaleza diferente a la presente en los sucesos
determinados, hizo posible su tratamiento sistemático desde el mundo matemático. La
ciencia actual admite, cada día más, la existencia de la indeterminación o la irregularidad
de ciertos fenómenos como algo intrínseco a ellos, ya no sólo como efecto de una parcial
ignorancia humana sobre su funcionamiento, sino como efecto de su propia complejidad,
efecto de un azar esencial en la Naturaleza.
Cuadro 5.- azar
2.2.2. NOCIÓN DE FENÓMENO O EXPERIMENTO ALEATORIO
En el apartado anterior hemos ido identificando las distintas ideas que sobre el azar se han
presentado a lo largo de la historia de la filosofía y de la filosofía de la ciencia. Esta evolución
está ligada en su primer momento a la propia elaboración de la noción de aleatoriedad, hasta sus
formalizaciones sucesivas como modelo matemático.
Para la Matemática, un experimento o fenómeno aleatorio es aquél que se caracteriza
por la posibilidad de dar lugar, en idénticas condiciones, a diferentes efectos. Los posibles
resultados de un experimento aleatorio es lo que reconocemos como un suceso aleatorio. Es
decir, son fenómenos sobre los que, si bien disponemos de alguna información sobre ellos y
sobre su funcionamiento, dicha información no nos permite anticipar su resultado con seguridad.
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 55
Para analizar sintéticamente la elaboración de dicha noción, podemos apoyarnos en las
etapas propuestas por Polya (1962). Este autor plantea que todo concepto científico pasa por
diferentes etapas en su desarrollo histórico:
* Una fase inicial exploratoria, a menudo incompleta y errónea, en la que las
ideas emergen desde el contacto con la realidad. En el caso de la noción de aleatoriedad,
esta fase comienza con las ideas presentes en las primeras civilizaciones, hasta la Edad
Media, con una evolución paralela a la comprensión de la noción de azar. Entre la Edad
Media y los inicios del siglo XIX se detecta un estado transitorio entre esta fase y la
siguiente en la que el reconocimiento empírico de lo aleatorio se va trasladando del juego
a los fenómenos naturales en la medida que se va configurando el Cálculo de
Probabilidades.
* Una segunda fase, denominada de formalización, en la que se define el
concepto y se introduce con la terminología apropiada. Con respecto a la noción de
aleatoriedad, ésta comienza, como veremos en el apartado 2.3., cuando Laplace y Gauss
formalizan el teorema del límite central (Bennett, 1993) y se va desarrollando a lo largo
de estos dos últimos siglos, en los que surgen distintas definiciones matemáticas con
ciertas matizaciones que han dado origen a innumerables debates.
* Polya diferencia una tercera fase de asimilación, representada por la etapa en la
que el concepto se extiende en su comprensión y aplicación. Fase que en nuestro caso aún
está en desarrollo, constatando cómo el campo de aplicación de la noción de aleatoriedad
y del Cálculo de Probabilidades se extiende.
La noción de aleatoriedad aparece por primera vez definida en el libro de Venn, Logic of
Chance. En su tercera edición, en 1888, Venn dedica un capítulo completo al concepto de
aleatoriedad y su tratamiento; en él caracteriza lo aleatorio como el orden global frente a la
irregularidad individual. Según Bennett (1993), Venn consideraba la cuestión de la aleatoriedad
como un hecho estadístico.
Años más tarde, en 1939, Von Mises definía la probabilidad como el limite de la
frecuencia relativa de un suceso en una secuencia aleatoria, expresión "considerada el punto de partida
de la definición matemática moderna de la aleatoriedad" (Bennett, 1993; p.130). Ya aquí podemos detectar
la dependencia entre la caracterización de la aleatoriedad y la definición de la probabilidad, hecho
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 56
que es una constante en gran parte de las definiciones posteriores. Así, según el sentido que
otorguemos a la probabilidad, la consideración de suceso aleatorio puede ser diferente, bien como
elemento de una larga secuencia de sucesos repetibles indefinidamente en idénticas condiciones,
bien como la expresión de nuestra ignorancia sobre los posibles resultados del fenómeno, o bien
como reflejo de la complejidad del proceso generador del suceso. El hilo común a todas estas
perspectivas es la impredecibilidad del resultado futuro, inmediato, del fenómeno o experimento
aleatorio en función de los resultados obtenidos en el pasado. En cualquier caso, acecha siempre
una potencial circularidad entre la definición de la noción de aleatoriedad y la noción de
probabilidad (Kyburg, 1974).
Hay una cierta controversia sobre cómo se podría definir la aleatoriedad
independientemente del concepto de probabilidad. Como alternativa Kyburg (1974) nos ofrece
una interpretación epistemológica de lo aleatorio independiente de la noción de probabilidad que
nos aporta un importante referente a la hora de tratar con estas nociones en el ámbito educativo.
Considera la relación "ser miembro aleatorio" de una clase como una relación de cuatro términos
que implica:
* Una referencia al objeto que queremos reconocer como miembro aleatorio de una clase
o conjunto de sucesos.
* Una referencia, por tanto, al conjunto al que ha de pertenecer o no el objeto.
* Una referencia, aunque sea implícita, al cuerpo de conocimiento, desde el cual
valoramos la pertenencia o no pertenencia. El ser aleatorio o no puede depender de lo que
conozcamos sobre el objeto y sobre la clase considerada.
* Y por último, la propiedad que implícitamente determina dicha pertenencia del objeto a
la clase. Es decir, respecto de la cual el suceso es miembro de esa clase.
Considera que la aleatoriedad es, por tanto, "un concepto relacionado con nuestro cuerpo de
conocimiento, el cual, de algún modo, refleja lo que conocemos y no conocemos" (p.217). No parece absurdo
aceptar que el conocimiento que un observador tiene de las cosas no es uniforme, sino que
cuando menos depende del contacto físico y conceptual que hay tenido con tales cosas. Este nivel
experiencial va a influir significativamente en la opinión que las personas configuren sobre la
aleatoriedad de los distintos fenómenos o situaciones.
La aleatoriedad es un concepto ambiguo que sólo puede ser definido en función de los
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 57
instrumentos de los que se disponga para probar el carácter aleatorio del fenómeno ante el que
nos enfrentamos; no existe una forma única y precisa, universalmente válida, para definir la
aleatoriedad: "La aleatoriedad no es simplemente una propiedad empírica de una situación real dada, es
simultáneamente un concepto teórico que debe ser desarrollado, redefinido y analizado" (Steinbring, 1991; p.145).
Su elaboración depende tanto de la actividad racional del sujeto como de la información empírica
disponible.
Un ejemplo de dicha ambigüedad lo encontramos al analizar las definiciones de
aleatoriedad realizadas por diferentes sujetos. Al enfrentarnos a una cierta secuencia parcial, de
ceros y unos, o de caras y cruces, ¿cuál es el modelo o patrón de referencia que nos determina
que estamos realmente ante una sucesión aleatoria? Konold y Falk (1992) describen cómo los
sujetos dan razonamientos muy diversos y, en muchos casos, sin relación aparente entre sí, para
justificar la aleatoriedad de una serie presentada. Ayton, Hunt y Wright (1989), a través de sus
investigaciones, plantean la imposibilidad de dar una definición rigurosa de secuencia aleatoria
como explicación de la variedad de criterios que presentan los sujetos.
En nuestro entorno cercano podemos detectar cómo para unas personas lo aleatorio es
todo aquello relacionado con la "suerte" y por tanto incontrolable, dado su origen desconocido;
mientras que para otras es simplemente producto de nuestra propia ignorancia sobre las
características y el funcionamiento de los fenómenos. En otros casos se le considera más
relacionado con la complejidad intrínseca de los fenómenos y por tanto, con la imposibilidad de
una predicción exacta de su resultado. Explicaciones detectadas, todas ellas, en los distintos
momentos históricos sobre la idea de azar y que es previsible que se reproduzcan, en cierta
manera, en el desarrollo de los individuos. Konold y otros (1991), en su investigación sobre el
reconocimiento y justificación de sucesos aleatorios, detectan claramente cuatro modelos de
razonamientos, en las respuestas de los sujetos: "equiprobabilidad", "múltiples posibilidades",
"incertidumbre" y "causalidad". Algunos de estos modelos de razonamiento pueden ser un
obstáculo de tipo epistemológico para la comprensión de los conceptos probabilísticos.
Como analizan estos autores, "la noción de aleatoriedad es ambigua y compleja, pero mantenemos que
las variantes del concepto son, sin embargo, el corazón del pensamiento probabilístico y estadístico" (p.2). Hay
muchos autores, como Hietele (1975), Steinbring (1991) o el propio Konold (1991), que
consideran que el nivel de comprensión de la aleatoriedad influye sustancialmente en la
comprensión del conocimiento probabilístico. La capacidad de reconocimiento y tratamiento de
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 58
los sucesos aleatorios depende a su vez del nivel de reconocimiento de la incertidumbre y la
complejidad presentes en los fenómenos, es decir, de la comprensión de la noción de azar.
Aspectos, por tanto, básicos que han de ser considerados a la hora del tratamiento del
conocimiento probabilístico en el aula.
El estudio de los fenómenos aleatorios ha sido posible en gran parte gracias al desarrollo
de una teoría matemática que ha permitido su sistematización, el Cálculo de Probabilidades, de
cuyo origen, desarrollo y significado nos ocupamos a continuación.
2.3. DESARROLLO HISTÓRICO DE LA NOCIÓN DE PROBABILIDAD
Es difícil determinar el comienzo del tratamiento de la probabilidad como ciencia
matemática. Sus orígenes la reducen a una ciencia empírica ligada a los juegos de azar. Su
transformación cualitativa fue el resultado de un lento y paulatino proceso, con grandes
connotaciones de tipo filosófico.
Hemos podido detectar, en la revisión precedente, cómo la propia noción de azar ha
pasado por muy diversas visicitudes. Hemos visto cómo la noción de azar es ajena al
pensamiento primitivo. Desde Aristóteles, se admite una idea cualitativa del azar: como reflejo
de una aparente intención humana (suerte); o de una aparente finalidad natural (azar). Más tarde,
el cristianismo sustituye el azar por el poder de la Divina Providencia, sólo será al final del
Renacimiento cuando aparece algo parecido a un estudio del azar. Durante un largo período de la
historia, el propio significado asociado al azar fue un obstáculo para el desarrollo de un estudio
sistemático de los fenómenos fortuitos.
Al final de la Edad Media, el desarrollo del comercio hace que los contratos de seguro se
multipliquen, siendo necesario estudiar sus condiciones, ligadas generalmente a procesos no
controlables; pero fue realmente la generalización del juego y los problemas relacionados con él,
el origen del estudio matemático de las llamadas leyes del azar (Trillas, 1980; Bisson, 1983;
Hacking, 1991; Bennett, 1993; etc.).
No es menos difícil descubrir el momento de la aparición de los juegos de azar. Los
juegos de azar han sido algo inherente al hombre, quien los ha dotado, en muchos casos, de un
sentido mágico. Se sabe, por medio del estudio de manuscritos antiguos y restos arqueológicos,
que ya en las civilizaciones más antiguas como Egipto, Grecia o Roma existían juegos de
distintos tipos. Por ejemplo, son significativos los juegos que utilizaban las "tabas" o huesos de
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 59
astrágalo, claro predecesor del dado, costumbre que aún existe en nuestros días en determinados
núcleos rurales. El primer dado cúbico que se conoce fue construido en cerámica y encontrado en
el norte de Iraq; su antigüedad se remonta al tercer milenio antes de Cristo. Otros dados, con
distintas posiciones y valores de los números, aparecen en el antiguo Egipto.
Llama la atención que, aunque los instrumentos de los juegos de azar existían desde hacía
miles de años en numerosas civilizaciones, la teoría de la probabilidad, como una abstracción
conceptual de las leyes del azar, no inicia su andadura hasta el final del Renacimiento.
El desfase producido entre el reconocimiento de la imprevisibilidad en ciertos fenómenos,
presentados generalmente en contextos de juegos de azar, y su conceptualización y estructuración
en una teoría matemática, es atribuido por Hacking (1975) a la no existencia de las
"precondiciones" necesarias para el nacimiento de la probabilidad como objeto intelectual. El
concepto de probabilidad está relacionado con todo un conjunto de ideas que fueron el resultado
de un largo y necesario proceso; proceso que permitió a la humanidad dar cabida a una nueva
forma de concebir la realidad y los sucesos que en ella acontecen y que constituye en sí mismo
parte de la fase exploratoria del concepto de probabilidad.
Otros autores dan numerosas razones para dicho desfase, como las siguientes: el poder del
determinismo, la falta de ejemplos empíricos de alternativas equiprobables, la ausencia de un
problema económico que la ciencia de la probabilidad satisfaciera, la superstición de los
jugadores, las barreras morales o religiosas, etc. (David, 1962; Maistrov, 1974; Daston, 1988;
Kline, 1992; etc.). Desde una perspectiva más científico-matemática, Kendall (1978) enuncia
como otras posibles causas: la ausencia de un álgebra combinatoria y de una noción clara del
suceso aleatorio, ya que, sin dichos instrumentos, era difícil pensar en el estudio matemático de
los sucesos dominados por el azar.
Analizando los pasos que han guiado la elaboración del concepto de probabilidad y la
teoría que lo integra a lo largo de la historia, podemos diferenciar ciertas etapas (Polya, 1962),
reflejo de las tres fases antes señaladas:
* Una primera etapa que constituye su fase exploratoria en la que se gestaron las
principales ideas relacionadas con el concepto de probabilidad y se inicia el estudio de
hechos concretos. Momento de la historia que reconocemos como la Prehistoria del
Cálculo de Probabilidades (hasta el sigo XVI).
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 60
* Una segunda etapa intermedia en la que se inicia realmente las posibilidades de
su estudio sistemático, aunque sin alcanzar niveles de formalización matemática, en la
que se inicia su fase de formalización. A la que denominamos Iniciación del Cálculo de
Probabilidades (siglo XVII).
* Ya en la tercera etapa entramos en la fase de formalización configurándose la
teoría matemática y el concepto de probabilidad. Nos referimos, por tanto, a la etapa de
Formalización y Configuración del Cálculo de Probabilidades (siglo XVIII,
principios del XIX).
* En una cuarta etapa entramos en la fase de asimilación de los avances teóricos
dados desde la teoría, desarrollándose en paralelo su nivel de profundización y extensión,
ampliándose significativamente el campo de sus aplicaciones. Es una etapa de
Profundización y Sistematización (siglo XIX).
* Por último, consideramos una quinta etapa que constituye la Consolidación
definitiva del Cálculo de Probabilidades (siglo XX), a nivel de su estructura
matemática, tras la elaboración de su axiomática y a nivel del reconocimiento científico y
social de los modelos probabilísticos como sistemas para interpretar e intervenir en los
hechos de la realidad.
Analizaremos brevemente los hitos más significativos, desde nuestra perspectiva, de cada
etapa de la historia.
2.3.1. LA PREHISTORIA DEL CÁLCULO DE PROBABILIDADES. PRIMERAS
REFLEXIONES (hasta el siglo XVI)
El concepto de probabilidad no siempre existió como tal y no siempre tuvo las
características con las que hoy le conocemos. Para tener una visión completa de la génesis del
concepto hemos de analizar el proceso a través del cual surge el concepto (Hacking, 1975). En las
siguientes páginas tomamos como base de la exposición el trabajo de Hacking, The Emergence of
Probability, pues, como reconoce Shaughnessy (1992), es "quizás el mejor informe crítico sobre el
desarrollo histórico y filosófico del concepto de probabilidad" (p.468); éste ha sido contrastado con la
información aportada por otros autores que han estudiado sobre el tema, como Sheynin (1974),
Daston (1988) o Hald (1990), aunque este último autor ha tratado el término desde una
perspectiva más técnica que filosófica.
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 61
Pero, ¿qué existía en el conocimiento humano en el lugar de la probabilidad antes del
siglo XVII, cuando realmente se inicia su estudio?
La Prehistoria de la probabilidad puede empezar con un estudio de los primeros
significados de las palabras y conceptos que ocupaban su lugar. El papel de lo indeterminado en
la Antigüedad está descrito en las primeras páginas de este capítulo. En ellas analizamos los
diferentes sentidos que se le daba al azar en las primeras épocas de la Historia, buscando siempre
una explicación a la existencia de sucesos "extraños" y cuán lejos se estaba de intentar realizar
juicios sobre su predicción, salvo el estudio a través de Artes Adivinatorias de muchos tipos,
hasta ya bien entrada la Edad Media.
En la epistemología medieval se consideraba una clase de fenómenos que podían ser
conocidos a través de la demostración (Ciencia) y otra clase de fenómenos que solamente podían
ser testificados por signos dados por Dios, reconocidos por hombres con manifiesta autoridad, en
base a los cuales emitían oráculos, siguiendo la tradición clásica. La "probabilidad" era un
atributo de "opinión" en contraste con el conocimiento que era obtenido por demostración
(Byrne, 1968). Una "opinión" probable para el mundo de la Edad Media no es la apoyada en la
evidencia de las cosas, sino aquélla que es confirmada por alguna autoridad, son creencias
resultado de alguna reflexión o argumentación, como por ejemplo, se refleja en la filosofía de Stº
Tomás de Aquino en el mundo cristiano o en la Cábala en el mundo judaico (Taton, 1972;
Mason, 1985). En su estudio sobre el tema, Byrne (1968) explica los posibles significados y
relaciones entre lo que hoy conocemos como "probabilidad" y lo que entonces denominaban una
"opinión probable". "La atribución de "probabilidad" a la "opinión" tiene varias connotaciones. En primer lugar,
está referida a la autoridad de aquéllos que aceptan la opinión dada, y desde este punto de vista "probabilidad" sugiere
APROBACIÓN con respecto a la proposición aceptada y PROBIDAD (rectitud, honestidad) con respecto a la autoridad
que la aceptó. En segundo lugar, "probabilidad" está referida a los argumentos que se presentan en favor de la opinión
en cuestión, y desde ese punto de vista, ello sugiere EVIDENCIA, que es la capacidad para ser evidenciado (pensamiento
no necesariamente demostrable). En tercer lugar, "probabilidad" tomada con una cierta connotación peyorativa
justamente hasta donde la proposición en cuestión es meramente probable, desde este punto de vista la proposición está
solamente PROBADA y no estrictamente demostrada" (p.188).
En el medievo se manejaba otra idea de carácter más empírico, pareja al de "opinión", era
el concepto de "signo", conjunto de síntomas que pueden prever un hecho, muy usado en
Medicina. Estos signos provenían de la naturaleza y de las cosas, lo cual podía entrar en
controversia con el poder absoluto de Dios, controversia que quedaba eliminada al considerar que
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 62
al fin y al cabo la naturaleza es un reflejo de la voluntad de la Divina Providencia.
El concepto de "signo" era propio de ciencias como la Alquimia o la Medicina, las
llamadas ciencias bajas, en las que sus hechos y conocimientos no eran demostrables como lo
eran en la Astronomía o la Mecánica, sino más bien relacionados con la opinión de los expertos.
Ateniéndose a los "signos" podían establecerse en algunos casos "opiniones probables" en
función de la frecuencia con que estos aparecían asociados a ciertos sucesos, pues no todos los
signos eran igual de fiables y algunos era necesario testificarlos, combinando implícitamente la
noción de probabilidad, como opinión, con la de frecuencia de las observaciones.
Este concepto de "signo" ocupa un papel significativo en el origen de la idea de
probabilidad pues será, a partir de su transformación, como se crearán las condiciones necesarias
para el surgimiento del concepto de probabilidad. Este salto sería la modificación, y en cierta
manera construcción del concepto de "evidencia" a partir del propio concepto de "signo".
La evidencia que se concebía en la época medieval estaba sólo relacionada con los
testimonios de la autoridad y provenía por tanto de las personas. Al principio del Renacimiento,
testimonio y autoridad eran primero y las cosas podían mostrar una evidencia siempre que ésta
fuera similar al testimonio del observador y a la autoridad de los libros. En el transcurso del
Renacimiento se da una gran valoración a los manuscritos antiguos, se redescubre la cultura
clásica. A la vez se intenta superar la palabra escrita y acercarse al estudio de la naturaleza a
través de la experimentación, dándole un lugar importante a los datos que de ella se extraían
(Taton, 1972; Crombie, 1985).
Durante el Renacimiento se retoma la concepción aristotélica de ciencia según la cual ésta
procedía por demostración de los efectos a las primeras causas, pero introduce una modificación
significativa: en la nueva ciencia se preconizaba que las causas eran inferidas desde los
experimentos y no de forma especulativa. Se intentaba "...comprender la estructura racional del mundo sin
alusión a los milagros y a la revelación divina" (Ponomariov, 1992; p.351). El papel de la prueba en el
pensamiento científico fue modificado; en la vieja ciencia las pruebas eran demostrativas sin
más, en la nueva filosofía de la ciencia el resultado de pasar una prueba o experimento era,
simplemente, una buena evidencia inductiva para la hipótesis de partida. La ciencia ya no se
apoyaba en la mera especulación, sino en la experimentación y progresivamente en la
formulación matemática de las demostraciones (Koyré, 1982).
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 63
Esta nueva comprensión del papel del experimento fue la que permitió la transformación
señalada del "signo" en "evidencia", condición básica para la emergencia del concepto de
probabilidad. La nueva "evidencia", la que nació a partir de la transformación del concepto de
"signo", es la "evidencia" de las cosas o de los hechos. En la lógica de Port Royal aparece, por
primera vez, claramente la distinción entre las dos clases de evidencias: la evidencia que proviene
de las cosas, a la que denominan "interna" y la evidencia basada en testimonios, que nombran
como "externa".
La primera clase de evidencia "interna" que surgió en el Renacimiento fue la que provenía
de las cosas particulares a las cosas particulares, en una fase transductiva; más tarde fue
manifestándose la posibilidad de una mayor generalización desde la observación y
experimentación. El método experimental de razonamiento empezó a ocupar un papel
significativo, ya no sólo se observaba a la naturaleza, sino que se comenzó a estudiarla, a realizar
experimentos, registrando los resultados con números, comprobando o desechando hipótesis. De
esta forma, fueron desarrollándose progresivamente los procesos de inferencia, enunciando
manifestaciones universales, como probables, a partir de la observación de hechos singulares. La
validez de dicho proceso fue cuestionada por primera vez por Hume en su A Tratise of Humna
Nature, al formular lo que se conoce como "el problema escéptico de la inducción" (Popper,
1962; Taton, 1972; Hacking, 1975; Koyré, 1983; Ponomariov, 1992).
En pocas palabras y resumiendo las ideas fundamentales (Figura 12), hemos visto cómo la
vieja probabilidad medieval era materia de opinión. En la epistemología escolástica, una opinión
era probable si era sostenida por testimonios de la autoridad, es decir, estaba bien confirmada.
Con la llegada del Renacimiento se acepta una nueva clase de testimonio, el de la naturaleza,
capaz de testificar a través de signos; el signo probable es aquél a través del cual el mundo da
habitualmente testimonio. Lo probable siempre estaba relacionado con la autoridad, pero, cuando
la "opinión" de la autoridad estaba fundamentada en signos naturales, era de una especie
diferente, provenía en cierta forma de las cosas y de los hechos, no exclusivamente de las
personas. La consideración de éstos como evidencia válida, y base para la inferencia de
resultados más generales, originó el salto definitivo. El espacio donde podía surgir la
probabilidad estaba completo (Hacking, 1975).
La idea de probabilidad unida a los juegos de azar comienza su andadura, como ya
anunciábamos, en el Renacimiento con L. Pacioli, primer matemático, según Boyer (1986), del
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 64
que se tiene una cierta imagen de su trabajo.
Figura 12: prehistoria
Al final del siglo XV, Pacioli publica un pequeño tratado, Summa de arithmetica,
compuesto por cinco partes. La primera trata sobre aritmética y
álgebra, la última sobre geometría y las otras tres partes del libro están dedicadas a distintas
aplicaciones al comercio. En estas partes encontramos una discusión sobre el reparto de la
apuesta entre dos jugadores antes de terminar un juego de azar, al que considera un problema
comercial; emplea relaciones aritméticas y no lo resuelve satisfactoriamente. El problema sería
retomado un par de siglos después por Pascal y Fermat (Rey Pastor y Babini, 1985).
Fue realmente G. Cardano, ya en pleno siglo XVI, en su libro Liber de ludo aleae, el
primero en realizar un argumento teórico para calcular las posibilidades de los distintos
resultados relacionados con el juego de los dados. Enunció ciertas reglas válidas para resolver
problemas de dados y dio una relación de precauciones a tomar para evitar las trampas en los
juegos de azar. En él se encuentran los gérmenes de un estudio reflexivo del azar. También
Galileo en algunos de sus escritos resolvió problemas propios de los juegos con los dados, sin
aportaciones significativas para el conocimiento matemático del azar (Todhunter, 1965; Collette,
1985; Rey Pastor y Babini, 1985). Paralelamente, en el mismo siglo XVI, empiezan a aparecer
consideraciones de tipo probabilístico relacionadas con ideas intuitivas sobre el grado de
posibilidad, con algunos cálculos de frecuencia teórica, pero, como analiza Ríbnikov (1987), aún
no son reconocidas como un tratamiento sistemático de la probabilidad, por su carácter
anecdótico y aislado. Todos estos trabajos están inmersos en la época reconocida como
prehistoria de la probabilidad, durante la cual se gestaron las ideas más que las teorías.
De todo lo expuesto en las páginas anteriores, hay dos elementos que son de particular
importancia por su posible implicación en la enseñanza/aprendizaje de la probabilidad: en primer
lugar, la trama de conceptos y relaciones implicados en el discurso de la probabilidad, no obvias
ni de inmediata comprensión y, en segundo lugar, la no separación, en su origen, del carácter
empírico/objetivo de la probabilidad del carácter epistemológico/subjetivo. Ambos elementos
pueden determinar las condiciones del aprendizaje probabilístico y por tanto, de su enseñanza. A
continuación nos adentramos en la elaboración de la propia teoría matemática.
2.3.2. INICIACIÓN DEL CÁLCULO DE PROBABILIDADES, DE PASCAL A
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 65
BERNOULLI (siglo XVII)
El siglo XVII es reconocido como el del nacimiento oficial del cálculo de probabilidades,
ignorando todas las fuentes italianas anteriores que representaban Cardano o Pacioli, pues, como
explica Ore (1960), gran parte de los escritos anteriores eran totalmente desconocidos en aquella
época. Nace en un contexto fundamentalmente empírico, relacionado directamente con los juegos
de azar y como resultado del intercambio de correspondencia entre Pascal y Fermat sobre las
soluciones de la "Regla de los Repartos", ya tratado por Pacioli. Un problema de juego
presentado por el caballero De Meré a ambos científicos fue la justificación. El problema era el
siguiente: un juego entre dos jugadores se interrumpe de común acuerdo antes de su final y
quieren hacer un reparto justo de las cantidades apostadas, ¿en qué proporción ha de repartirse la
apuesta de acuerdo con la probabilidad que cada uno tenía de ganar?
Las soluciones encontradas por ambos científicos, aunque diferentes, estaban relacionadas
con el análisis combinatorio y las proporciones de las posibilidades. La solución a que llega
Fermat es de tipo combinatorio, Pascal utiliza las proporciones para calcular el reparto y opina al
principio que el método de Fermat es excesivo, que el suyo es más corto y más claro. No
obstante, según se puede intuir de la última carta de Pascal, fechada el 27 de Octubre de 1654, en
la que leemos: "Admiro vuestro método para los repartos, tanto más cuanto que lo entiendo muy bien; es totalmente
vuestro y no tiene nada de común con el mío, y llega al mismo fin pero fácilmente" (Pascal [recopilación], 1983;
p.672), al final queda satisfecho con el método de Fermat. Pascal murió en 1662, Fermat en
1665; ninguno de ellos publicó el resultado de su trabajo. De todas formas, como nos recuerda
Shafer (1990), ni Pascal ni Fermat usaron la palabra "probabilidad" en su correspondencia,
solamente estaban pensando en repartos justos.
Pascal en su obra aporta otra visión importante sobre la probabilidad distinta de la
numérica. Su argumentación sobre lo que se reconoce como "la apuesta de Pascal" puede
considerarse como una primera contribución a la Teoría de la Decisión. Como apuntábamos en el
apartado 2.1.1., dicha apuesta estaba relacionada con la creencia o no de la existencia de Dios y
en ella analizaba las distintas argumentaciones posibles al tomar una postura o decisión sobre ello
(Pascal, 1983). Encontramos en Pascal un doble significado de la probabilidad: por un lado, un
estudio de carácter más empírico, relacionado con el análisis de las posibilidades de ciertas
situaciones de juego y, por otro, sus consideraciones, más de carácter epistemológico,
relacionadas con la creencia de la existencia de Dios. Este carácter dual de la probabilidad será,
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 66
como comprobaremos más tarde, una constante de la historia de la probabilidad (Hacking, 1975;
Daston, 1988; Hald, 1990; etc.).
La probabilidad nace desde su aplicación al estudio de situaciones de juego ligadas a
contextos empíricos. A lo largo de todo su desarrollo, el estímulo principal vendrá dirigido por la
necesidad de dar respuesta a los problemas planteados desde sus aplicaciones en contextos
específicos. El campo de sus aplicaciones, en continuo desarrollo y ampliación, es el motor de su
evolución; como plantea Steinbring (1980a), "la teoría de la probabilidad puede considerarse, en cierto
modo, como "modelo" de una teoría orientada a la aplicación" (p.416), proceso que a su vez provoca su
progresivo avance teórico en una relación dinámica e interactiva entre la práctica y la teoría.
Durante el medio siglo siguiente, el estudio de la probabilidad avanzó muy poco. Lo más
característico de estos años es:
* El trabajo de Huygens, quien, en su libro De ratiociniis in ludo aleae, recopiló
las soluciones propuestas por Pascal y Fermat, añadiendo algunos problemas sobre juegos
resueltos por él, siendo la primera obra teórica sobre la probabilidad.
* En este mismo siglo, Leibniz, precursor junto con Newton del análisis
infinitesimal, establece la teoría combinatoria sobre una base científica en el primer
monográfico sobre el tema, Ars combinatoria. Obra que constituyó uno de los pilares
sobre los que se desarrolló la Teoría de la Probabilidad en sus comienzos, aunque
progresivamente se iría independizando de ella, en la medida en que se enriquecieron los
métodos de la propia teoría de las probabilidades con la introducción de los instrumentos
desarrollados desde el Análisis Matemático.
* Ya al final de siglo, J. Bernoulli, estudiando el aparente desorden que
presentaban los resultados obtenidos en las situaciones de juego, observó una cierta
regularidad en la aparición de dichos resultados, hallazgo que tomó la forma de la
primera ley probabilística. Su trabajo fue recogido en una obra póstuma denominada Ars
Conjectandi. En él desarrolla un tratado de análisis combinatorio sobre permutaciones y
combinaciones, recoge toda la obra de Huygens y, por primera vez, plantea la aplicación
de la probabilidad a temas de interés del momento, fuera ya de los contextos de juego.
Constituye el primer trabajo teórico importante del Cálculo de Probabilidades.
En la obra de Bernoulli aparece la primera y más simple formulación de la que hoy
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 67
conocemos como "la ley de los grandes números". Es la primera ley probabilística de carácter
empírico y se refiere a la estabilidad de la frecuencia en la repetición de un gran número de
ensayos semejantes: "la probabilidad constante de un suceso es p si al realizar la experiencia n
veces, dicho suceso tienen lugar m veces, y el cociente m/n se acerca tanto como se quiera a p,
con tal que el número de pruebas n sea suficientemente grande"; esta ley es un caso particular
del teorema central del límite tal como lo conocemos hoy. En la formulación de este teorema se
hace visible por primera vez la circularidad del conocimiento probabilístico: el contenido del
concepto de probabilidad no se puede definir sin que la probabilidad tenga que ser presupuesta de
alguna forma.
Este teorema posibilitó la progresiva aplicación de la probabilidad a fenómenos aleatorios
reales, desde un análisis combinatorio de los fenómenos; sólo aquéllos en los que todos los
resultados posibles presentaban iguales posibilidades de ser obtenidos podían ser analizados
desde el modelo probabilístico. Esta limitación inicial de la aplicación de la probabilidad a
fenómenos con un conjunto finito de resultados equiprobables influyó significativamente en el
campo de sus aplicaciones y ligó durante años la probabilidad a situaciones de estas
características, no muy comunes entre los hechos socio-naturales. Cuestión que también ha tenido
su influencia en las personas a la hora de conceptualizar los fenómenos aleatorios y que ha de ser
considerada a la hora de su tratamiento didáctico, como veremos en el capítulo siguiente.
En su obra Bernoulli considera por primera vez, la probabilidad como algo personal y, por
tanto, susceptible de variación en función del conocimiento individual. Estaba interesado no sólo
en poder estimar las probabilidades desconocidas de un suceso aleatorio, sino también en cómo
poder conseguir una declaración sobre ellas que reflejase la creencia personal en dichas
probabilidades.
A lo largo de todo el siglo XVII se fueron formulando nuevas aplicaciones del Cálculo de
Probabilidades. Tras el estudio de los juegos de azar se empieza a intuir la posibilidad de prever,
en cierto grado, el futuro a partir de los datos que podemos observar. Se inicia la búsqueda de una
organización de la información del pasado que permita una iluminación sobre el futuro y obrar
consecuentemente con ello.
Una figura significativa en este tipo de trabajo es J. Graunt. Su estudio, realizado en 1662
sobre las leyes de mortalidad es un modelo prototípico de análisis estadístico descriptivo: "Los
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 68
métodos estadísticos de Graunt raramente se pronuncian directamente pero pueden encontrarse en sus ejemplos" (Hald,
1990; p.86). El estudio sobre las leyes de mortalidad y los cálculos de seguros de vida son un
campo de aplicación de vital importancia para el desarrollo de la Teoría de Probabilidades.
De hecho, estas dos situaciones, los problemas planteados desde los juegos de azar y los
estudios estadísticos sobre la población, fueron las fuentes principales que aportaron los datos
necesarios para que la probabilidad se transformara en objeto de estudio matemático; sin ellos
hoy no dispondríamos de la idea actual de probabilidad (Hacking, 1991).
En todo caso, como expone Fienberg (1992), no podemos olvidar que todos estos autores
están inmersos en un mundo determinista y utilizan la probabilidad para describir cierto tipo de
fenómenos sobre los que la ignorancia humana es manifiesta. Hasta aquí podemos considerar el
primer momento de la evolución de la Teoría de la Probabilidad, entrando a continuación en una
época de gran desarrollo durante todo el siglo XVIII y el primer tercio del XIX.
2.3.3. FORMALIZACIÓN Y CONSOLIDACIÓN DEL CÁLCULO DE
PROBABILIDADES (siglo XVIII, principios del XIX)
En esta tercera etapa se inicia realmente la teoría matemática de las probabilidades. En los
comienzos del siglo XVIII se había acumulado un conjunto considerable de conocimientos de
carácter teórico sobre la probabilidad. Sin embargo, el Cálculo de Probabilidades no era aún una
rama significativa dentro del conocimiento matemático. Su desarrollo estaba condicionado por "la
obligatoria estrechez del material concreto (juegos de azar y tablas de resultados de observaciones) y lo elemental de los
métodos (aritméticos y combinatorios)" (Ríbnikov, 1987; p.210). Es durante este siglo y comienzos del
siglo XIX cuando sufre un avance considerable, tanto en su formulación teórica como en el
campo de sus aplicaciones.
El primer producto importante fue el trabajo realizado por De Moivre en 1730. Con el
trabajo de De Moivre se puede considerar cerrada la hoy llamada Teoría Clásica de la
probabilidad. A lo largo de su vida precisó algunos de los principios del Cálculo de
Probabilidades, encontró extensiones de la ley o teorema de Bernoulli y enunció la regla de las
probabilidades compuestas. En su obra tuvo un interés especial por desarrollar métodos y
notaciones generales para la Teoría de la Probabilidad; es decir, por darle cuerpo como
conocimiento formal matemático (Boyer, 1986). Idea que contrasta con su posición filosófica
respecto al azar, al que consideraba como una "mera palabra", simple apariencia sin esencia real.
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 69
Posición que también se refleja al interpretar las leyes probabilísticas, así, para De Moivre, la
estabilidad de la frecuencia relativa era un signo de la acción divina, el hombre simplemente la
detectaba y estudiaba, en el más puro discurso de la Providencia (Hacking, 1991).
Un eslabón significativo para el desarrollo de la modelización matemática fueron los
trabajos del clérigo T. Bayes. Este autor analizó el problema de la determinación de la
probabilidad de las causas a través de los efectos observados. El problema básico se centró en
estimar la probabilidad de las diferentes hipótesis planteadas sobre las causas que han producido
un determinado suceso, hipótesis elaboradas en base a los resultados observados. Para ello
formuló la expresión de la probabilidad inversa conocida como el Teorema de Bayes, mediante el
cual se podía determinar la probabilidad de un suceso "a posteriori" en función de una
probabilidad "a priori", producto de la creencia personal o de una información ya establecida y
de la información muestral obtenida a través de la experiencia. Fue el primero que utilizó la
probabilidad matemática en el razonamiento inductivo y sus estudios abrieron un nuevo campo
de aplicación, intuido siglos atrás pero nunca sistematizado, el de la inferencia estadística. El
trabajo de Bayes fue retomado y completado definitivamente por Laplace a principios del siglo
XIX.
El esquema del teorema propuesto por Bayes refleja, en gran parte, el funcionamiento
ideal de los sujetos ante situaciones aleatorias: se considera una cierta probabilidad de ocurrencia
de un determinado suceso "a priori", en función del conocimiento personal basado tanto en
creencias como en la evidencia de las cosas; posteriormente esta probabilidad es matizada y
modificada si fuera necesario, a la luz de la experiencia, obteniendo una probabilidad "a
posteriori" del suceso. Según Hawkins y Kapadia (1984), el teorema de Bayes es un instrumento
potencial para el desarrollo del pensamiento analógico. Como veremos en apartados posteriores,
su esquema nos puede servir como punto de referencia a la hora del diseño de procesos de
enseñanza/aprendizaje del conocimiento estocástico. Su estructura es una síntesis potente entre el
funcionamiento racional del sujeto y su interacción con los datos empíricos.
A partir de este momento de la historia, aparecerán dos perspectivas reconocidas desde las
que abordar el estudio de la probabilidad, relacionadas con el contexto de aplicación. Una de
estas perspectivas, la bernouillana, atenderá al estudio de las frecuencias relativas; la otra, la
bayesiana, se presentará más relacionada con los grados de credibilidad y sus necesarios ajustes
con la realidad. Dualidad objetivismo/subjetivismo que será origen de diferentes interpretaciones
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 70
del significado de la probabilidad, sobre los que trataremos en el apartado siguiente.
El campo de aplicación de la probabilidad fue ampliándose progresivamente, "hacia la mitad
del siglo XVIII la teoría de la probabilidad comienza a aplicarse más y más en diferentes áreas, primero en demografía,
seguros, estimación de errores observables, organización de loterías, etc." (Maistrov, 1974; p.101),
extendiéndose al estudio, no sólo de los fenómenos naturales, sino también de los sociales. Como
consecuencia de este reconocimiento en el mundo científico y social de la época, se iniciaron,
paralelamente a los estudios teóricos, elaboradas investigaciones de recopilación de información
sobre las poblaciones. Se realizaron recuentos, registros de mortalidad, nacimientos, casamientos,
etc. que se convirtieron en el "dominio de ejercicio" por excelencia del conocimiento
probabilístico, apoyado por el desarrollo de la Estadística Descriptiva (Condorcet [recopilación],
1990; Hacking, 1991).
Ante la avalancha de datos proporcionados, el interés se centró en la búsqueda de
regularidades que permitieran hallar leyes de la sociedad semejantes a las leyes de la naturaleza,
establecidas por Newton. En un momento de su obra Condorcet (1990) dice "Las ciencias morales se
fundan en hechos y en el razonamiento de manera que su certeza será la misma que tienen las ciencias físicas" (p.80).
El hombre nunca olvida su principal objetivo: explicar y dominar los fenómenos de la realidad.
Esta consideración de la ley probabilística como ley universal fue un grave obstáculo para la
interpretación de los datos obtenidos.
En sus estudios, Condorcet insistió en una doble distinción del concepto de probabilidad.
En primer lugar entre la definición matemática y su interpretación, y luego entre los dos
sentidos de dicha interpretación, bien como estimación objetiva a partir de la observación y la
distribución de frecuencias, o bien como estimación subjetiva en función de las creencias.
Una aplicación importante del Cálculo de Probabilidades, por sus grandes repercusiones,
fue el trabajo de Gauss sobre la Teoría de los Errores en las observaciones. La aplicación de la
probabilidad al estudio de los errores en las observaciones, emprendida por Gauss, conduce al
desarrollo de un concepto fundamental, la distribución de probabilidades, que culminó en la
elaboración de una ley universal de los errores en forma de distribución normal, cuya
representación es la conocida curva acampanada o "curva normal", como la llamó años después
Galton.
A partir de este momento, el objeto de estudio del Cálculo de Probabilidades deja de
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 71
ser los sucesos aleatorios aislados en sí mismos, para centrarse en la idea de distribución de
probabilidades, germen de la caracterización de un sistema de variables aleatorias.
Conformándose, de esta forma, el concepto de sistema como un modelo de especial relevancia
para la comprensión probabilística del funcionamiento de los fenómenos: ya no eran
considerados los sucesos elementales, sino el sistema que caracterizaba al conjunto de los
sucesos posibles (Steinbring, 1980a)
Al final del siglo XVIII y comienzos del XIX, como consecuencia de la liberalización que
provoca la Revolución Francesa, surge en la sociedad de la época un número notable de grandes
científicos-profesionales. En el campo de la Matemática son significativos los trabajos de
estudiosos como Lagrange, Legendre o el propio Gauss, que fundamentaron y desarrollaron una
de las ramas más importante de la Matemática: el Análisis Matemático; su aplicación sucesiva al
Cálculo de Probabilidades le permitió independizarse progresivamente de los instrumentos
aritméticos y combinatorios. La disponibilidad de instrumentos más sofisticados y la ampliación
de los campos concretos de aplicación facilitaron su transformación en la rama de la Matemática
pura que hoy conocemos.
El primer paso en este camino fue dado por P.S. Laplace, quien a comienzos del siglo
XIX, recopiló todos los conocimientos existentes sobre la probabilidad en sus escritos y
memorias. La obra más conocida es Essai philosophique sur les probabilités, de carácter más
divulgativo, en la que presenta una introducción, no técnica, a las leyes del azar. La obra más
importantes de Laplace, publicada en 1812 fue: Théorie analytique des probabilités. Obras que
hoy se reconocen como la base de la Teoría Clásica de la probabilidad, en ellas desarrolla todos
los conceptos básicos, definidos de forma precisa; enuncia diez principios fundamentales sobre
los que se desarrolla la Teoría de la Probabilidad, entre los que se encuentran los principios de la
probabilidad total y la compuesta; recoge distintas aplicaciones a la filosofía natural, las ciencias
morales, problemas demográficos y a problemas jurídicos. Expone también los fundamentos
psicológicos del Cálculo de Probabilidades y "las diversas formas de acercarse a la verdad" y
enuncia el teorema de Bayes de forma definitiva que, como indica el propio Condorcet (1990),
Laplace consideraba su uso como indispensable para quienes deseasen aplicar la Teoría de la
Probabilidad a la vida civil.
El estudio de la probabilidad de las causas inició el camino para utilizar la probabilidad
en la valoración de afirmaciones hipotéticas en el campo de la investigación y de la toma de
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 72
decisiones, confrontadas luego con la experiencia, adentrándose en el campo de la probabilidad
subjetiva. De hecho, Laplace tenía una concepción de la probabilidad cercana a la subjetivista y
su cálculo lo consideraba como una salida, ante la falta de conocimiento sobre el suceso. Es "el
buen sentido reducido a cálculo" (Laplace [reedición], 1985; p.140).
Laplace no llega a definir explícitamente la probabilidad, pero sí su medida, una de sus
contribuciones más importantes. Define la medida de la probabilidad como la proporción entre
los casos favorables de un suceso y los casos posibles de un conjunto de alternativas
equiprobables. Esta dependencia de la existencia de resultados equiprobables - producto del
propio origen del estudio de la probabilidad: el estudio de los juegos - es lo que mantiene a la
Teoría Clásica con estrechos márgenes de aplicación. Por otro lado, podemos observar de nuevo
la circularidad, antes señalada, entre el concepto de equiprobable y la probabilidad en la propia
definición (Boyer, 1986; Taton, 1972; Steinbring, 1984; Laplace, 1985; Ríbnikov, 1987).
La concepción determinista de Laplace, descrita en el apartado 2.2.1, no le permitió saltar
de un tratamiento causal a una concepción estadística de los acontecimientos, pues lo consideraba
un saber transitorio, útil sólo por desconocimiento de la pura explicación causal. Los trabajos de
Laplace se pueden considerar como el final de la tercera etapa en la evolución de la teoría
matemática de la probabilidad.
2.3.4. PROFUNDIZACIÓN Y SISTEMATIZACIÓN (siglo XIX)
Después de los trabajos de Laplace a principios de siglo y de sus contemporáneos, el
interés por la Teoría de la Probabilidad tuvo una caída importante. El estudio teórico realizado
era tan considerable, en relación con el desarrollo de las ideas de la época, que realmente poco
más que una labor de crítica, precisión y perfeccionamiento, quedaba por realizar. Se entra, en
consecuencia, en un período de profundización en el que se pondrían las bases para la futura
sistematización. En general, los progresos teóricos realizados durante esta etapa, correspondiente
más bien a las dos terceras partes del siglo XIX, no son significativos en comparación con los que
se realizarán en la última etapa, ya en el siglo XX.
Sin embargo, durante esta época se extendió de forma significativa el uso del Cálculo de
Probabilidades, abarcando todos los campos del conocimiento. Estas aplicaciones, efectuadas en
muchos casos de manera incorrecta y en campos muy diversos, provocaron un gran número de
juicios sin fundamentos y de conclusiones erróneas que tuvieron una influencia directa en la
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 73
reputación científica de la Teoría de la Probabilidad y su aparente abandono (Ríbnikov, 1987).
Entre todos los trabajos desarrollados en la primera mitad del siglo XIX, podemos destacar, por
su posterior influencia en el desarrollo de la teoría, los siguientes:
* Es significativo el trabajo de Poisson sobre los jurados y sus fallos
condenatorios. Ya antes, tanto Condorcet como Laplace habían abordado este problema
pero, al no existir datos recopilados sobre el tema, sus deducciones eran apriorísticas, sin
relación directa con la experiencia. En 1826 se publican las primeras estadísticas de fallos
de los jurados. Poisson realiza un estudio sobre los mismos y establece leyes
probabilísticas de las conductas de los miembros de los jurados, analiza su composición y
la calidad de sus fallos para estimar la fiabilidad de los jurados. En 1837 publica su gran
obra sobre estos temas Recherches sur la probabilité des jugements en la que demuestra y
generaliza la "ley de los grandes números" de Bernoulli y le da en verdad este nombre. En
"su libro distinguía con mayor claridad que cualquiera de los anteriores entre ̀ frecuencia relativa' y ̀ grado de
credibilidad' en lo tocante a los enfoques de las probabilidades" (Hacking, 1991; p.144). Pero, como
indica Daston (1988), la obra de Poisson era más un tratado político que matemático,
integrado en la Ciencia Moral, por lo que sus aportaciones fueron ignoradas durante largo
tiempo.
* Al trabajo del filósofo A. Cournot sobre las probabilidades le sucedió algo
parecido a lo ocurrido con el trabajo de Poisson, pasó desapercibido por los estudiosos de
la época y fue retomado años después desde el campo de la Economía. Cournot
encuentra en el Cálculo de Probabilidades el origen de sus meditaciones y fundamenta
sus teorías a partir de la idea de "chance" o azar (Bisson, 1983). Define a la "probabilité"
y a la "chance" como dos cosas diferentes. La probabilidad la relacionaba con el grado
razonable de credibilidad en la ocurrencia de un suceso, mientras que la posibilidad o el
azar, la relacionaba con la facilidad que tiene un fenómeno, por su misma naturaleza, para
ocurrir, basada en términos de frecuencia. Volvemos a encontrar una clara distinción
entre la interpretación subjetiva y objetiva de la probabilidad, "creencia versus
frecuencia", ya antes señalada.
* La aplicación de la probabilidad a la Sociología y a la Antropología fue obra
del matemático y astrónomo belga A. Quetelet, sucesor de las ideas de Condorcet. Fue el
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 74
primero en concebir la estadística fundamentada sobre el Cálculo de Probabilidades; sus
trabajos pueden considerarse como los pioneros de la estadística moderna, ya en pleno
siglo XIX. A través de la observación de regularidades en las tablas de registro de rasgos
humanos, Quetelet llegó a la conclusión de que éstos podían representarse en una gráfica
o distribución, semejante a la encontrada años antes por Gauss para la distribución de los
errores en las observaciones, la llamada "curva de distribución normal". Otra
contribución esencial en el análisis estadístico de datos sociales fue el concepto de
homme type. Quetelet no identificaba este concepto con las características del género
humano en general, sino con las cualidades de una raza o un pueblo.
Para caracterizar el "hombre tipo", trabajó con el concepto de término medio de
ciertos atributos de la población (altura, perímetro de la caja torácica, etc.) y la dispersión
encontrada con respecto a dicho término medio, llamada por entonces "error probable".
Dio un paso decisivo al considerar que ese término medio del atributo considerado,
obtenido a nivel empírico, era una propiedad ideal o abstracta referente al atributo
estudiado, factible de ser sometida a las técnicas formales. De esta forma, las leyes
estadísticas, que hasta entonces sólo representaban ciertas regularidades en las
observaciones registradas, se transformaban en leyes de la naturaleza y la sociedad
(Hacking, 1991).
* Siguiendo la revisión a través de la historia del siglo XIX, encontramos
aplicaciones a otros campos del conocimiento científico. En el campo de las ciencias
biológicas, merecen especial interés las investigaciones sobre la herencia realizadas por
Galton, recogidas en su libro Hereditary Genius: An Inquiry into its Laws and
Consequences. Su trabajo se dirigió fundamentalmente al estudio de las características
físicas, cómo se distribuyen y cómo se heredan. Tomó como base de sus estudios la ley
gaussiana de las distribuciones, pero, a diferencia de Quetelet, su interés se centró más en
el análisis de las desviaciones con respecto al término medio, es decir en la dispersión. A
partir del estudio empírico de las medidas antropométricas de una cierta población y sus
relaciones, surgieron el concepto de regresión y correlación, conceptos que van a ser
determinantes en todos los planteamientos teóricos posteriores (Stigler, 1986).
Según avanza el siglo XIX, los estudios sobre aplicaciones de la probabilidad y sus
posibles interpretaciones se multiplicaron. Se acumula información sobre las características de la
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 75
sociedad. El estudio de dicha información permite conocer las condiciones y los funcionamientos
propios de la sociedad, intentando elaborar a partir de dicho conocimiento las leyes sociales. Se
mantiene la idea de que la conducta humana se regía por esas nuevas leyes estadísticas y
probabilísticas que, al igual que las leyes de la física, no podían violarse. Las probabilidades
quedan atrapadas dentro de la estructura de la ley estadística por excelencia, "la ley de los
grandes números", la cual era considerada como el modo de funcionar de las cosas mismas, una
ley de carácter universal, no como algo que debiera verificarse y ajustarse con la experiencia.
Hecho que, como ya hemos indicado, representó un claro obstáculo a la hora de interpretar los
datos aportados desde la aplicación de la teoría: "La ley de los grandes números, no el teorema de Poisson,
sino una proporción sobre la estabilidad de los fenómenos tomados en masa, se convirtió para las siguientes
generaciones en una verdad sintética a priori." (Hacking, 1991; p.156).
Los investigadores del comportamiento humano ante situaciones de incertidumbre han
detectado un funcionamiento similar a nivel individual. Cuando se enfrentan a situaciones de
incertidumbre, el sujeto analiza las condiciones en comparación con los datos que le aporta la ley
general, realizando una transferencia directa de la ley a situaciones puntuales (Kahneman, Slovic
y Tversky, 1982). Por ejemplo, espera que en una muestra cualquiera de nacimientos haya igual
número de niños que de niñas. Sobre este punto volveremos en el capítulo siguiente.
Al final del siglo XIX, se retoman las discusiones teóricas sobre el azar y la probabilidad.
Durante esta época se publican varios estudios sobre el azar, la probabilidad y sus diversas
concepciones:
* En 1866, el lógico inglés J. Venn expuso de forma clara la distinción entre las
diversas ideas de probabilidad, implícitas en todos los trabajos anteriores. Asociaba la
idea de probabilidad con la noción estadística de frecuencia relativa, por primera vez de
forma explícita. Para él, la probabilidad sólo tiene sentido en relación con una serie, en la
que combina la irregularidad individual con la regularidad colectiva, característica que
asocia a la aleatoriedad de la serie, como ya apuntamos. Esta idea, latente desde el
principio del estudio de la probabilidad, aparece siempre en contraposición de las
concepciones subjetivas de la medición de la probabilidad, pero es la primera vez que
aparece definida y reconocida como tal, considerando la probabilidad de un
acontecimiento como su frecuencia dentro de un serie (Newman, 1979). Este cambio del
concepto subjetivo de la probabilidad, inherente a toda la teoría clásica al concepto
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 76
frecuencia, es, según Poter (1986), una consecuencia lógica del auge de las estadísticas
sociales y la observación de regularidades estadísticas en grandes muestras.
* Una figura significativa de esa época es H. Poincaré, el último gran matemático
universalista como lo llama Bell (1965) en su libro sobre grandes matemáticos. Dedicó
parte de su trabajo al estudio del concepto de azar, buscando una definición más precisa y
que lo relacionara con algo más que con la ignorancia de las causas, ideas ya analizadas
en el apartado anterior. Pero su aportación más original partió de un estudio sobre la
estabilidad del sistema solar. En una de sus publicaciones planteó que un sistema
completamente determinista y estable, como era el sistema solar podría tener resultados
indeterminados al entrar en acción los pequeños efectos no controlados. En las leyes de la
Mecánica Celeste, perfecta imagen de lo determinado, la interacción de dos cuerpos
(Sol/Tierra) no tiene problemas, pero la de tres (Sol/Tierra/Luna) se transforma en un
desastre; Poincaré descubrió que un mínimo tirón gravitatorio de un tercer cuerpo podía
causar que una órbita se comportara de manera errática (Stewart, 1991). Esto contradecía
una de las máximas deterministas, según la cual los hechos del azar que perturban los
sistemas estables sólo podían estar originados en contingencias aleatorias exteriores,
nunca desde el propio sistema, en el que todo estaba controlado.
Según Briggs y Peat (1990), "Poincaré reveló que el caos, o el potencial para el caos, es la esencia de un
sistema no lineal, y que aun un sistema completamente determinado como los planetas en órbita podían tener resultados
indeterminados" (p.28). Fue el primero en percibir lo que hoy llamamos "Caos", su complejidad y a
la vez sus posibilidades, pero hubo que esperar aún muchos años para contar con los medios y las
ideas necesarias para su estudio.
El siglo XX asistirá a una renovación total de la Teoría de la Probabilidad, sus
aplicaciones y sus interpretaciones, configurando la última etapa del desarrollo del Cálculo de la
Probabilidad.
2.3.5. CONSOLIDACIÓN DEFINITIVA DEL CÁLCULO DE PROBABILIDADES (siglo
XX)
En los inicios del siglo XX entramos en el último período de la evolución de la Teoría de
la Probabilidad, en el que se llega a conformar sobre rigurosas bases matemáticas.
Durante el primer tercio del siglo XX van consolidándose definitivamente diferentes
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 77
escuelas de estadísticos y probabilísticos, en cuyo seno se produjeron la mayoría de los
desarrollos teóricos de esa época (García Alvarez, 1971). Entre estas escuelas, dos grupos son
significativos: la escuela de San Petersburgo y la escuela anglosajona.
* En Rusia encontramos un grupo muy significativo en el estudio de la Teoría de
la Probabilidad, integrado en la Escuela de San Petersburgo. Este grupo, encabezado por
Chebishev, inició su andadura al final del siglo XIX; sus trabajos pueden considerarse
"como el punto de partida de todo el desarrollo contemporáneo ulterior de la teoría de probabilidades"
(Ríbnikov, 1987; p.462), que llevó definitivamente al Cálculo de Probabilidades al rango
de ciencia matemática. Markov y Liapunov desarrollaron las ideas de Chebishev. Entre
los logros más significativos de esta escuela está la demostración general y rigurosa del
teorema central del límite y la teoría de las cadenas de Markov, con aplicación a
numerosos campos y ampliamente estudiadas.
* La escuela anglosajona está representada por los trabajos teóricos desarrollados
por K. Pearson y la escuela biométrica, cuyo órgano de difusión era la revista
"Biometrika", fundada por Galton y Weldon, en 1901. Esta escuela contribuyó bastante al
desarrollo de la Teoría de la Probabilidad y a la creación de la moderna Estadística
(Pearson y Kendall, 1978). A ella se debe la fundamentación de nociones como
correlación, regresión, esperanza matemática, la introducción de otros como la dispersión
condicionada y el test de la chi-cuadrado para la bondad del ajuste en tablas de
contingencia. Una de las figuras más representativa es A. Fisher. Desarrolló los conceptos
de verosimilitud, aleatorización, modelo estadístico e introdujo la teoría del diseño
experimental y el método de análisis de la varianza. Las ideas estadísticas de Fisher
tuvieron un impacto inmediato en el análisis de datos científicos (García Alvarez, 1971;
Fienberg, 1992).
Con las armas matemáticas desarrolladas en el último siglo, la Teoría de la Probabilidad
dio el salto definitivo. En 1933 aparece la primera axiomática, formulada por A.N. Kolmogorov a
partir de la teoría de conjuntos y de la teoría de funciones, elevando la probabilidad a la categoría
de rama separada e identificable dentro de la Matemática, proporcionando por un lado los
fundamentos a la primitiva Teoría Clásica y, por otro, una poderosa base para la demostración de
resultados matemáticos en teoría estadística (Gigerenzer y col., 1989). En palabras del propio
Kolmogorov (1973) "la Teoría de Probabilidades se puede considerar como parte de una teoría más general que se
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 78
llama Teoría de la Medida" (p.298). La Teoría de la Probabilidad entra así en el dominio definitivo de
la Matemática pura.
El presente de la teoría de las probabilidades y sus aplicaciones
Durante este siglo, la Matemática se ha separado definitivamente de la realidad, del
mundo sensible, llegándose a las máximas cotas de generalización y abstracción. Las
investigaciones de los matemáticos tienen como fin último la Matemática en sí misma,
abandonando claramente su intención de buscar la verdad acerca de la naturaleza. Ello ha
provocado un progresivo distanciamiento entre la matemática pura y la matemática aplicada
(Kline, 1985). Dentro de esta tendencia, la Teoría de la Probabilidad ha tenido un desarrollo
significativo en este siglo formulándose distintas axiomáticas y alcanzándose un alto nivel de
abstracción. Paralelamente, el campo de sus aplicaciones ha continuado extendiéndose de forma
generalizada, lo cual ha generado graves controversias a la hora de interpretar sus resultados.
La Probabilidad y la Estadística son hoy dos de las ramas más fecundas de la Matemática.
A lo largo del siglo XX, el desarrollo de los modelos probabilísticos y estadísticos ha ocupado un
lugar relevante al lado de la matemática de los procesos deterministas, pero sin contacto entre
ellos; como dos códigos diferentes, uno estudiaba el orden y el otro el desorden en los fenómenos
de la realidad.
Un modelo válido para el estudio de distintos procesos aleatorios y de múltiples
aplicaciones es el movimiento browniano; su estudio ha conducido a la elaboración de
importantes instrumentos matemáticos para la investigación de procesos estocásticos en cualquier
disciplina en la que se estudie los efectos de una variable aleatoria. El movimiento browniano fue
observado por primera vez por R. Brown a primeros del siglo XIX, pero no ha sido hasta el
presente siglo cuando se han desarrollado los medios necesarios para estudiarlo y explicarlo. Al
suspender una partícula en un fluido, ésta se ve sometida al bombardeo continuo de las moléculas
del fluido, el efecto observado es una trayectoria desordenada y aleatoria de la partícula
reconocida como movimiento browniano. Su análisis ha contribuido a la comprensión de
sistemas dinámicos no lineales y ha sido aplicado en infinidad de campos, como en el estudio del
comportamiento de los precios de mercado o la evolución de los ecosistemas (Mandelbrot, 1988;
Lavenda 1990).
Otro campo actual de la Matemática donde se recogen las ideas de la probabilidad,
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 79
utilizado como modelo de análisis en múltiples situaciones, es la Teoría de la Decisión, producto
final de las reflexiones de Pascal sobre la problemática de la toma de decisiones. La Teoría de la
Decisión trata de fundamentar, bajo las leyes básicas de la Teoría de la Probabilidad, la forma
coherente de tomar decisiones en ambientes de incertidumbre, al considerar "el conjunto de todos los
acontecimientos posibles y asignarles probabilidades que traduzcan su mayor o menor plausibilidad" (Ekeland,
1992; p.149), donde la calidad de la información disponible sobre los posibles acontecimientos es
un factor decisivo a la hora de optar por una u otra opción.
Un instrumento fundamental de esta teoría es el teorema de Bayes, aplicado para reducir
la incertidumbre de las distintas situaciones, confrontando las probabilidades "a priori" con la
incorporación de información adicional (Lindley, 1977; Rosenkrantz, 1977; Hadley, 1979;
Scholz, 1983; etc). Este modelo de análisis, como ya indicamos en otra ocasión, puede ser útil
para estudiar la toma de decisiones de los individuos ante situaciones de incertidumbre. El
esquema del teorema de Bayes ofrece una oportunidad para el aprendizaje del conocimiento
probabilístico a partir de la experiencia y en contraste con las ideas intuitivas y previas de los
sujetos, llegando a determinar una probabilidad "a posteriori" de carácter más objetivo, desde una
probabilidad "subjetiva", reflejo de las creencias y conocimientos de los sujetos, y desde una
observación empírica (Steinbring y Von Harten, 1983). Es, por tanto, también, un instrumento
válido para el diseño de los procesos educativos, coherente con nuestra forma de entender el
aprendizaje.
Pero donde su aplicación ha tenido más claras repercusiones ha sido en el campo de la
Física. Son de capital importancia los trabajos de Maxwell sobre la aplicación de la Teoría de la
Probabilidad en el estudio de la Teoría Cinética de los Gases, en 1877, la que le llevó a la
formulación de la Mecánica Estadística: "una pequeña arruga se crea en el corazón mismo del orden físico"
(Morin, 1986; p.54). Teoría que tiene un papel determinante en la transformación de la
concepción del concepto de probabilidad, del significado de la propia Teoría de la Probabilidad y
de su objeto de estudio. Boltzmann, en 1909, desarrolló los fundamentos de la Mecánica
Estadística y formuló el concepto de entropía, "como una medida de la aleatoriedad, o del desorden, en un
sistema cerrado" (Hayles, 1993; p.63).
Es curioso observar que Maxwel y Boltzmann llegaron a la formulación de la misma
Mecánica Estadística partiendo de dos concepciones diferentes, tal como analiza Wise (1987).
Para Maxwel, la Mecánica Estadística era totalmente indeterminista y sus leyes de carácter
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 80
probabilístico, mientras que Boltzmann mantenía la tesis de las causas subyacentes de carácter
determinista para explicar el comportamiento de los sistemas. Realmente con su trabajo intentaba
demostrar la validez de la mecánica newtoniana a nivel molecular, sin embargo, abrió la puerta
del azar en el programa newtoniano (Fernández-Rañada, 1990).
En el estudio del movimiento de las moléculas de un gas, estamos ante un sistema
complejo con tantas variables que resulta imposible seguir la evolución de cada una de ellas; sólo
se pueden manejar variables a nivel macroscópico, que en realidad son el valor promediado de las
variables que afectan al conjunto de moléculas, como la presión o la temperatura. La Mecánica
Estadística formulada por Boltzmann y Maxwell enuncia leyes para magnitudes promedio y
asigna probabilidades a las variables y a los estados de las moléculas individuales. Esta fue la
primera ruptura del poder del mecanicismo, interpretación radical del determinismo newtoniano.
La concepción del concepto de probabilidad se transforma: pasa de ser un método de
ayuda "externo" a un medio de conocimiento básico. Se pone de manifiesto que la Mecánica
Clásica y la Teoría de la Probabilidad son ambas necesarias para explicar el estado de las cosas,
no pueden reducirse una a la otra (Steinbring, 1980a). Por otro lado, a partir de este momento su
objeto de estudio se modifica definitivamente, pasando del estudio de las distribuciones de
la probabilidad al estudio de los procesos estocásticos, considerados como la sucesión de
estados por los que pasa un "sistema" en unos instantes de tiempo; cuando el conjunto de instante
es finito, obtenemos un proceso estocástico en un tiempo discreto. El "sistema" puede seguir
distintas trayectorias, podemos estudiar la probabilidad de que el sistema se encuentre en un
instante determinado en un cierto estado, en función de la información disponible.
Después de la elaboración por Maxwell y Boltzmann de la Mecánica Estadística, la física
determinista sufrió un segundo gran golpe al proponer M. Plank su hipótesis cuántica: el
intercambio de energía entre materia y radiación de frecuencia "v" se hace por múltiplos enteros
de "hv", siendo "h" una constante universal. Esta hipótesis entra en contradicción con toda la
experiencia anterior de la física clásica, la naturaleza de la partícula se cuestiona, "su identidad se
disloca divida entre el estatuto corpúsculo y el estatuto de onda. Su sustancia se disuelve, convirtiéndose el elemento
estable en evento aleatorio, ya no tiene localización fija e inequívoca en el tiempo y en el espacio" (Morin, 1986;
p.55).
Años más tarde, Einstein justificó la ley de la radiación de Plank mediante la asignación
de probabilidades a los procesos elementales, a través de los cuales los átomos absorben o emiten
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 81
radiaciones electromagnéticas, introduciendo las probabilidades en el mundo atómico. Las
propiedades de los átomos, moléculas y otros objetos cuánticos no están definidas y no son más
que potencialidades más o menos probables: "La forma de los átomos y todos los procesos operados en éste
están sujetos a las leyes de la Teoría de la Probabilidad....Las ecuaciones de la mecánica cuántica permiten calcular las
probabilidades de estos procesos, comprobándolos luego con la experiencia" (Ponomariov, 1992; p.187). Un
dogma central de esta teoría es el principio de incertidumbre de Heisenberg (1959), que afirma
que hay una limitación fundamental en la exactitud con la que se puede determinar la posición y
velocidad de una partícula. La generalización de este principio ha tenido gran influencia en el
mundo de la filosofía, al tratar sobre los límites del conocimiento.
Sin embargo, tanto Plank como Einstein consideraban que las probabilidades usadas en
Física tenían un carácter puramente metodológico y sólo expresaban la ignorancia de los
verdaderos procesos deterministas subyacentes; es famosa la frase de Einstein recogida en gran
número de manuscritos: "Dios no juega a los dados". Ambos creían en la existencia de variables,
aún desconocidas, que describirían el mundo microscópico, y mientras éstas no fueran
descubiertas, la Teoría Cuántica no representa sino un estadio provisional de conocimiento en el
que las probabilidades constituyen un recurso útil mientras tanto, según la más pura esencia de la
filosofía laplaciana y del determinismo. Sin embargo, en las últimas décadas se ha comprobado
que las probabilidades de la Mecánica Cuántica son esenciales, y no reductibles a ninguna forma
de determinismo, es decir, no provienen de una relación causal subyacente (Fernández-Rañada,
1990; Ponomariov, 1992).
Sin embargo, la lógica subyacente en la Mecánica Cuántica presenta una desviación con
respecto a la lógica clásica que, según analiza Trillas (1980), proviene de la no-distributividad del
retículo. Esto ha provocado discrepancias a lo hora de aplicar en el campo de la Mecánica
Cuántica el Cálculo de Probabilidades, pues, como ya apuntábamos, su axiomatización está
construida dentro del marco de la lógica clásica.
La emergencia de nuevos modelos explicativos
La utilización de modelos probabilísticos como instrumento explicativo y de control de
gran número de sucesos es hoy una opción cada vez más generalizada, tanto desde el mundo
científico como desde las ciencias humanas y políticas. Pero el progresivo estudio de los
fenómenos socio-naturales ha permitido constatar la insuficiencia de dichos modelos para
estudiar lo indeterminado. Ello ha llevado al mundo científico a buscar nuevos modelos
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 82
explicativos.
Como afirma Gleick (1988), la contingencia, el caos y la imprecisión ocupan hoy una
parte considerable de la investigación científica en innumerables y variados campos. Su
desarrollo supera indiscutiblemente las posibilidades de los propios modelos probabilísticos.
En la realidad encontramos multitud de problemas y fenómenos que, por su naturaleza,
presentan diferentes grados de incertidumbre, imprecisión o vaguedad en algunos de su
elementos. El estudio de la probabilidad, como medida del azar, inició el análisis matemático de
fenómenos que presentaban cierta incertidumbre, focalizada en el conjunto de sus resultados.
Pero el continuo avance de la ciencia ha llevado al tratamiento de otros tipos de fenómenos que
comportan un cierto grado de incertidumbre o de imprecisión, aunque ligada a otros elementos.
Su estudio supone la ruptura con el esquema de la lógica clásica pues no pueden ser descritos en
su totalidad dentro del marco booliano y "requieren de la elaboración de modelos matemáticos que involucren
la vaguedad" (Trillas, 1980; p.33).
Desde una perspectiva matemática, la consideración del estudio de la vaguedad para la
modelización de ciertas situaciones supone la modificación y superación de planteamientos
lógicos anteriores. La lógica clásica, cuyo principio fundamental es la ley de la bivalencia, ya ha
sido alterada en anteriores ocasiones a lo largo de la historia.
Como ejemplo podíamos nombrar la lógica propuesta por los intuicionistas, los cuales no
admiten que todo enunciado tenga que ser verdadero o falso, pero a dichos enunciados no les
asignan otro valor de verdad. Rechazan, por tanto, el principio del Tercero Excluido. O también
la lógica subyacente en el caso de la Mecánica Cuántica, en la que la desviación viene por la no
distributividad del retículo. Admite, sin embargo, el principio de No-contradicción y el del
Tercero Excluido.
La lógica trivalente, como ejemplo de la multivalente, fue introducida por Lukasiewicz,
aunque luego han surgido otras lógicas terciarias. En ellas el valor 1/2 no está siempre definido
igual. Para Lukasiewicz, el 1/2 corresponde a las proposiciones contigentes. Otros autores lo
asocian simplemente a aquellas proposiciones sobre las que no se sabe si es verdadera o falsa
(Trillas, 1980). La no validez universal de los principios del Tercero Excluido y el de No-
contradicción, son las únicas propiedades reticulares que diferencian el cálculo proposicional
binario del cálculo proposicional de la lógica multivalente.
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 83
Las nuevas situaciones científicas imponen una falta de definición y de límites precisos en
las clases de objetos y fenómenos con los que tratan. Al irse difuminando los límites de las clases
de objetos, surge la idea de límite borroso o conjunto borroso, como conjuntos con distintos
niveles de nitidez. Cuanto mayor sea el número de valores, más suave será el progreso del valor 1
al 0, considerados como los extremos. Históricamente se ha ido percibiendo la necesidad de la
construcción de un lógica continua como base para la formulación de modelos matemáticos
alternativos (Negoita y Ralescu, 1975).
La teoría de los conjuntos borrosos, The Fuzzy Sets, propuesta por Zadeh (1965), puede
considerarse como un modelo matemático de la lógica multivalente de Lukasiewicz. Esta teoría
introduce el análisis de la vaguedad en el mundo de la modelización matemática, al tratar con
problemas en los que la fuente de imprecisión es la ausencia de criterios nítidos de pertenencia de
un objeto a una clase. Teoría en pleno desarrollo y cuyo campo de aplicación es cada vez más
interesante.
Las necesidades actuales, por ejemplo en el campo de la comunicación o de la
información, requieren del análisis de la interpretación de las opiniones, de las acciones, de los
juicios, etc. Todo ello comporta evidentes problemas de vaguedad. De hecho, la estadística
moderna, en sus estudios sobre las poblaciones, para el tratamiento de los datos ha debido tomar
como nítidos, conceptos y respuestas que en verdad no lo son.
Interesantes aplicaciones de esta teoría han tenido lugar en el tratamiento matemático de
los procesos de decisión en ambientes de incertidumbre. La mayoría de las veces tomamos
importantes decisiones basadas en una información incompleta. Al disponer de datos incompletos
o inciertos, y no tener la posibilidad de efectuar un estudio previo, situación habitual en el
entorno cotidiano, estamos ante unos márgenes importantes de vaguedad (Alsina y Trillas, 1990).
Como nos recuerda Trillas (1980), "el éxito de la teoría se ha producido en momentos en que la
economía, la sociología, la lingüística, la medicina o la psicología, requieren de un nuevo nivel de matematización para
seguir avanzando" (p.1).
Todo ello no deja de tener claras consecuencias en el campo educativo, dominado en la
mayoría de sus componentes por los presupuestos deterministas, bajo el marco de la lógica
clásica bivalente. Algunos de los elementos aportados desde esta nueva teoría, cuya lógica
subyacente es sustancialmente diferente, pueden ofrecer información relevante para los
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 84
profesores. Por un lado, un estilo de modelización matemática más adecuado para y en el aula y,
por otro, claves de análisis más acordes con los procesos que en dicha aula se desarrollan. Como
apuntan Alsina y Trillas (1990), muchas de las situaciones con las que nos enfrentamos
cotidianamente en un aula son difusas: "Nuestro lenguaje es esencialmente difuso. El proceso de aprendizaje es,
en algún sentido, una evolución con límites difusos" (p.17).
En la misma línea, el estudio de los fenómenos de la realidad socio-natural ha llevado a
un buen grupo de matemáticos, fisiólogos, biólogos, físicos, economistas, astrónomos y
sociólogos a ir conformando una forma diferente de conocer y comprender la complejidad de la
naturaleza, de la sociedad y de su evolución. Sus investigaciones han fraguado una nueva ciencia,
la llamada Ciencia del Caos, que ofrece una manera diferente de observar y estudiar los sistemas
naturales, introduciendo el azar y lo impredecible en la comprensión de gran parte de los
fenómenos de la realidad que surgen ante nosotros como aparentemente caóticos.
Para estudiar estos sistemas era también necesario el desarrollo de un nuevo modelo
matemático, las ecuaciones diferenciales no lineales, y era necesario avanzar desde el
conocimiento matemático en la Teoría General de los Procesos Estocásticos y las Estructuras
Fractales (Gleick, 1988); pero, como confirman Briggs y Peat (1990), para que realmente fuera
posible el desarrollo de las ecuaciones no lineales que nos sirven para ilustrar el caos, era
necesaria la aparición del ordenador de alta velocidad. A través del ordenador se puede simular la
complejidad para estudiarla; como comenta Wagensberg, en una entrevista, "el ordenador nos permite
simular un proceso de 20.000 variables de las que se quieren saber sus relaciones mutuas... Antes hubiera sido de locos
hacer este proceso" (Sousa, 1991; p.208). El uso de los ordenadores también ha facilitado el análisis
del formalismo analítico de los conjuntos borrosos en su aplicación a diferentes campos (Trillas,
1980).
El campo de sus aplicaciones, como ya referimos en el apartado anterior, es muy amplio,
como ejemplo podemos citar:
* En el campo de la Biología, el estudio de la dinámica de población dio origen a
una nueva disciplina, la Ecología, que a su vez desempeñó un papel decisivo en el
nacimiento de la Ciencia del Caos, destacándose en la década de los 70 el trabajo de R.
May. Este autor defendía la necesidad de introducir en la formación ordinaria de un
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 85
científico el estudio del caos, identificable en la terminología actual como el estudio de la
complejidad. May decía en la revista "Nature", en 1976, "la intuición matemática, que tanto se
cultiva, equipa mal al estudiante para enfrentarse con el extravagante comportamiento del más sencillo de los
sistemas no lineales" (recogido por Gleick, 1988; p.88).
* Otro campo de estudio importante donde el caos está dando grandes frutos es en
la Fisiología Humana. En el estudio del funcionamiento de ciertos sistemas aparecen las
llamadas estructuras fractales, "los fractales y el caos son materias asociadas con una disciplina
matemática llamada dinámica de sistemas no lineales, es decir, de sistemas que no responden a los estímulos en
proporción directa" (Goldberger, Rigney y West, 1990; p. 110). Cada vez que un proceso
caótico ha conformado un "contexto" es muy posible que tras de sí haya dejado una
estructura fractal. El caos produce estructuras fractales de manera natural, "dondequiera
hallemos caos, turbulencias y desorden, la geometría fractal está en juego" (Briggs y Peat, 1990; p.95).
En el cuerpo humano abundan las estructuras fractales: redes nerviosas, tubos
pulmonares, vasos sanguíneos, etc.; así como síntomas caóticos: arritmias
cardiovasculares, disfunciones respiratorias, etc. Fue en el campo de la cardiología donde
se hicieron las primeras investigaciones (Goldberger, Rigney y West, 1990), y en general,
podemos afirmar que el estudio de los sistemas dinámicos está teniendo un importante
papel en el progreso del conocimiento médico.
* En el campo de las Ciencias Sociales, resaltamos el estudio realizado por E.
Morin sobre la naturaleza del conocimiento. Su trabajo es un intento de ofrecer claves
para enfrentarse al desafío de la complejidad de los sistemas en general. El trabajo
transdisciplinar de E. Morin es una reflexión sobre el conocimiento, analizado desde las
aportaciones de las distintas áreas, en la que pone las bases de una nueva epistemología,
la "epistemología compleja". Introduce nuevos elementos y relaciones que configuran
otra manera de observar, pensar y transformar la realidad. Epistemología que, desde
nuestro propio modelo didáctico de referencia, modifica sustancialmente la interpretación
e intervención en los sistemas educativos.
El estudio del caos y la complejidad presente en los sistemas naturales ha roto las barreras
de las disciplinas científicas, en pocos años esta nueva ciencia y sus aplicaciones coparán gran
parte de las investigaciones relevantes. El fin de la noción clásica de certidumbre no significa la
crisis de la razón, sino el tránsito de una racionalidad fundamentalista - apoyada en la noción de
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 86
causalidad lineal y en una ontología atomista y mecanicista (paradigma del determinismo)- a una
racionalidad que no reduce el caos, la incertidumbre y la dispersión, sino que los convierte en
herramientas para el estudio de su relación con el mundo (paradigma de la complejidad). Hay
autores que mantienen que estamos ante una nueva revolución científica, un cambio de
paradigma en el sentido de Khun (1975); según Gleick (1988) puede ser la gran revolución del
siglo XX. Las implicaciones de este cambio en los hábitos de pensamiento de los sujetos es
evidente y resulta muy relevante a la hora de enfocar los procesos de enseñanza/aprendizaje.
En todo caso, como afirma Morin (1992), "estamos llegando a la era en la que el gran paradigma (el
de la ciencia clásica) experimenta erosión y usura, y en la que los procesos que él determinó en el universo científico-
técnico-burocrático provocan demasiadas manipulaciones e hipersimplificaciones" (p.229). Asistimos a una
crisis general de los fundamentos tanto del conocimiento científico como filosófico, realidad que
necesariamente impone una reflexión seria de todos aquellos que estamos dedicados a la
profesión docente, en los distintos niveles.
Pensar desde esta nueva categoría cambia sustancialmente nuestra apreciación y
conceptualización de la realidad. Desde ella "nuestra mente no sigue sólo una vía causal, lineal,
unidireccional, sino también, y a veces, sobre todo, un enfoque modular, estructural, dialéctico, gestáltico,
interdisciplinario, donde todo afecta e interactúa con todo, donde cada elemento no sólo se define por lo que es o
representa en sí mismo, sino, y especialmente, por su red de relaciones con todos los demás" (Martínez, 1993;
p.20).
A lo largo de las páginas anteriores hemos podido comprobar cómo la Ciencia, y con ella
la Matemática, ha adolecido de una ignorancia especial del mundo de la incertidumbre y ello ha
llevado a buscar justificaciones de muy distinta índole para explicar lo irregular y a construir
diferentes instrumentos para controlar lo desordenado o reducir/simplificar la incertidumbre. En
este proceso se ha gestado progresivamente la posibilidad de estudiar los aspectos aleatorios de la
realidad. Estudio que, evidentemente, ha alcanzado un lugar relevante como objeto de
conocimiento humano y, por tanto, como parte integrante de la necesaria formación básica de los
individuos del siglo XXI.
CuadroS 6: historia
En la revisión y reflexión del desarrollo de este campo del conocimiento matemático
(Cuadro 6), hemos ido detectando ciertos puntos
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 87
claves que, junto con los señalados en el apartado anterior, han condicionado de
alguna forma su evolución como son: las limitadas condiciones iniciales de su
aplicación; la atadura a fenómenos con espacio muestral finito y equiprobable; la
circularidad presente en sus definiciones; la no disposición de instrumentos
matemáticos idóneos; la relación interactiva entre la extensión del campo de
aplicaciones y su evolución teórica; o la presencia continua de la dicotomía
objetivo/subjetivo en lo referente al significado de la probabilidad en contextos
específicos. En el análisis de este último aspecto nos centramos a continuación.
2.4. LOS DISTINTOS SIGNIFICADOS DE LA PROBABILIDAD
Como acabamos de ver, los científicos y matemáticos han ido construyendo y
clarificando los fundamentos de la teoría matemática del Cálculo de Probabilidades, hasta
su constitución como una rama de la matemática pura, con estructura axiomática. La teoría
matemática de la probabilidad nos permite su obtención a través de un cálculo matemático.
Desde el mundo matemático, no es sino una función matemática desarrollada dentro de un
sistema axiomático-formal. Su objetivo principal, como indica Nagel (1979), es
posibilitarnos calcular a partir de ciertas probabilidades iniciales dadas otras probabilidades
desconocidas y más complejas. El problema es que si bien la teoría matemática permite
operar con las probabilidades iniciales, no resuelve el problema de cómo asignar esas
probabilidades iniciales a los sucesos simples, excepto en el caso de considerar un espacio
muestral finito y simétrico.
Por ser una teoría fundamentalmente matemática, su desarrollo ha correspondido a
los matemáticos que, en general, "se preocupan poco por establecer un puente entre la teoría matemática
que han desarrollado y las aplicaciones a las que se presta" (Fréchet, 1958; p.173). Aunque
habitualmente es a partir de los problemas del mundo natural y social como "la matemática
comienza su propia vida construyendo la teoría abstracta, sólo ocasionalmente se produce un `feedback'"
(Neymann, 1976; p. 149). Como consecuencia, se llega a establecer una separación entre el
mundo conceptual, a partir del cual surgen los axiomas y el mundo físico-natural y social, al
cual se aplican los resultados de la teoría.
Podemos considerar que la validez de los resultados obtenidos desde la teoría, al
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 88
aplicarla a la vida real, dependen de su interpretación, es decir de la concreción de su
significado. Las estimaciones de carácter probabilístico son útiles y usuales en la vida
cotidiana y en el mundo científico, son utilizadas en numerosas ocasiones para elaborar
juicios concernientes tanto a sucesos no observados o futuros, como para la formulación de
hipótesis imposibles de verificar (Black, 1984). El problema se nos presenta al dar
significado y validez a dichas estimaciones, ya sea en lo referente a las posibilidades de
ocurrencia de ciertas clases de eventos, ya sea en el dominio de la toma de decisiones en
situaciones de incertidumbre. Podemos afirmar que "Cualquiera que aspire a la racionalidad, debe
guiarse ante la incertidumbre por probabilidades: cómo se ha de hacer esto y con qué justificación son los
principales temas de la filosofía de la probabilidad" (Black, 1984; p.88).
Es, por tanto, "necesario encontrar una conexión entre esa función matemática abstracta y el
significado del término probabilidad en los distintos contextos donde es utilizado" (Gutiérrez Cabria, 1971;
p.108). Como nos recuerda Black (1984), la teoría matemática es neutral en relación con las
diferentes interpretaciones filosóficas que puedan darse del significado del término
"probabilidad". Pero ninguna teoría matemática puede ser útil sin una interpretación o
significado que nos sirva de puente con la realidad, que dé a sus términos indefinidos y
abstractos interpretaciones complementarias que conviertan a los axiomas en aserciones
significativas.
El término probabilidad no es unívoco en su interpretación; puede presentarse con
diferentes significados en los distintos contextos de la realidad donde es utilizado. En
ámbitos de la vida, como son: la conversación cotidiana, el campo de las teorías Físicas y
Biológicas, la rama de la Matemática Pura del Cálculo de Probabilidades, etc, pueden
aparecer interpretaciones diferentes de las estimaciones probabilísticas efectuadas, unas
más idóneas que otras para determinados contextos (Nagel, 1979). En la actualidad
podemos distinguir diferentes y complejos puntos de vista sobre el significado de la
probabilidad, provocados en gran medida por el alto rango de aplicaciones del Cálculo de
Probabilidades y la amplia variedad de fenómenos aleatorios que encontramos en la
realidad.
Son varias las filosofías que aseguran una comprensión verdadera de las
probabilidades (Ludwig, 1986). Actualmente podemos diferenciar dos grupos de
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 89
interpretaciones de la probabilidad, en función de la dicotomía subjetivo/objetivo. El punto
de vista subjetivo relaciona la probabilidad con el grado de creencia en las posibilidades de
un acontecimiento, esta creencia puede estar o debe estar garantizada por la evidencia; es
una concepción de carácter epistemológico. En el segundo grupo de interpretaciones se
relaciona la probabilidad con la frecuencia de ocurrencia de los sucesos y con la tendencia a
producir frecuencias estables que muestran ciertos sucesos, otorgándole un carácter
empírico. La probabilidad concebida tanto subjetiva como objetivamente no es más que una
interpretación, fundamentalmente con fines prácticos, de la noción abstracta utilizada en la
teoría matemática; el debate entre los subjetivistas y los objetivistas continúa (Fine, 1973).
Estas interpretaciones alternativas aparecen formuladas y desarrolladas en el siglo
XX pero, en realidad, son producto de la propia génesis del término y han ido apareciendo
implícita o explícitamente a lo largo de la historia.
Nuestro actual concepto de probabilidad nace, como ya hemos indicado, en el siglo
XVII con Pascal y Fermat. Desde su nacimiento surge ya con un carácter dual en sí mismo.
Por un lado, aparece relacionada con los grados de creencia (la apuesta de Pascal); por otro,
con el tratamiento de las posibles soluciones de ciertos problemas de juego (el problema del
reparto). Es significativo cómo desde su origen la probabilidad aparece con estas dos
facetas, como dos caras de una misma moneda. Una cara epistemológica aplicada a la
valoración de los grados de creencia razonable en ciertas proposiciones, la otra más de
carácter empírico, que concierne a las leyes estocásticas de los procesos indeterminados. En
algunos autores de la época hay un aspecto más marcado que otro, como por ejemplo: los
escritos de Huygens se centraban principalmente sobre problemas aleatorios; Leibniz sin
embargo, se centró más en una línea epistemológica. Pero en general esta dualidad de la
noción de probabilidad aparece en los autores más importantes como De Moivre, Bernoulli,
Laplace, Poisson, etc., cuyas contribuciones han sido significativas en la elaboración de la
Teoría de la Probabilidad. Información que podemos constatar en numerosos tratados de
historia del pensamiento científico en general y de la probabilidad en particular (Todhunter,
1965; Owen, 1976; Krüger y otros, 1987; Hacking, 1975; Hacking, 1991; Kline, 1992; etc.).
La probabilidad surgida en el siglo XVII era considerada como una categoría
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 90
epistémica, derivada del desconocimiento del hombre sobre los fundamentos de cierta clase
de acontecimientos, juegos de azar en un principio. Para neutralizar el problema que
conlleva dicha ignorancia, se buscaron formas de medir los grados de creencia en las
posibilidades de tal suceso, basados en los datos que se poseían sobre el hecho. La dualidad
entre lo objetivo y lo subjetivo no era percibida en este época, eran los primeros contactos
con la idea de "probabilidad" y ambas concepciones estaban muy unidas (Vázquez, 1982).
Bernoulli, en este mismo siglo, diferencia por primera vez de forma explícita dos tipos de
proposiciones de probabilidad, la subjetiva, relacionada con la creencia, y la objetiva,
relacionada con la observación ( Hacking, 1975).
En la primera definición explícita de una medida de la probabilidad, atribuida a
Laplace, hay una relación equívoca entre la esencia epistemológica y aleatoria de la
probabilidad. Como antes hemos indicado, todos los autores de esta época, asociaban la
probabilidad a los grados de certeza de una creencia y, sin embargo, su medida aparece
relacionada con el carácter aleatorio, considerando, en cierta forma, la frecuencia de
ocurrencia observada o esperada de unos determinados sucesos y recoge, implícitamente, la
necesidad de un espacio muestral limitado y simétrico.
En las primeras décadas de este siglo, estos dos planteamientos iniciales,
objetivo/subjetivo, se han desarrollado dando lugar a diversas teorías filosóficas, que se
diferencian, básicamente, por el significado que dan a sus manifestaciones sobre la
probabilidad; hay muchas circunstancias bajo las cuales cualquiera de las posibles
interpretaciones puede tener sentido, y no está clara la elección entre ellas (Kyburg, 1974).
Desde una perspectiva de naturaleza epistemológica/subjetiva, se han desarrollado diversas
escuelas de pensamiento, dos pueden considerarse como dominantes, la subjetiva o
personalista y la lógica. En contraposición, hay otro conjunto de teorías que han tomado
como base el carácter observable de los fenómenos/objetivos, son las llamadas
frecuencialistas o empiristas. Realmente, como ya hemos indicado, se trata de una
interpretación con fines prácticos y, como nos dice Fréchet, tanto unos como otros "la utilizan
para salir de la teoría y hacer posible su aplicación a la realidad" (Fréchet, 1958; p.232).
Aparte de estas tres posibles interpretaciones básicas, podemos considerar la más
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 91
vieja de las interpretaciones de la probabilidad, la llamada interpretación clásica
desarrollada sobre la propia elaboración de la Teoría Clásica, de probabilidades en la que se
percibe una distinción nítida en la dicotomía objetivo/subjetivo. Hay una última tendencia
que hemos dado en llamar la perspectiva axiomática, quizás la menos considerada como
una posible interpretación, pues es más bien un intento de eliminar la controversia
planteada por las distintas interpretaciones filosóficas. Desde esta perspectiva, bajo
cualquier fundamentación interpretativa del significado de la probabilidad, podemos
construir una axiomática asociada y manejarnos en ella. "Las propias leyes matemáticas (los
axiomas y definiciones de Kolmogorov) representan grados de creencia, frecuencias y grados de evidencia.
Podemos estudiar estas leyes por ellas mismas (matemática pura) o podemos adoptar una de las interpretaciones y
poner las leyes en uso (estadística o probabilidad aplicada)." (Shafer, 1992; p.93).
Cada interpretación admite una variedad de subinterpretaciones, especialmente en el
campo de las interpretaciones frecuenciales. El problema es determinar la idoneidad de cada
elección, en cada momento. Vamos a exponer a continuación una breve descripción de cada
una de las interpretaciones básicas, comenzando por la clásica como el inicio de toda la
conceptualización actual y terminando con la axiomática, planteamiento más ecléctico con
respecto a las interpretaciones filosóficas del tema.
Seguiremos los criterios propuesto por Good (1950) para poder clasificar las
distintas interpretaciones (Cuadro 7):
* Si la teoría que conforma puede depender o no de un sistema axiomático.
* Si se apoya en los grados de creencia de los sujetos y de sus apreciaciones
personales o en observaciones empíricas de los fenómenos.
* Y si asocia a la probabilidad un número o no.
Cuadro 7: características
2.4.1. INTERPRETACIÓN CLÁSICA
La interpretación clásica de la probabilidad esta asociada al desarrollo histórico de
la teoría matemática de la probabilidad, más explícitamente a la teoría expuesta por
Laplace, aunque ya en la obra de Bernoulli elaborada casi un siglo antes, encontramos
muchas de las nociones recogidas y organizadas por Laplace.
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 92
La palabra "probable", según Laplace, se refiere al estado de ánimo o del espíritu en
relación a una afirmación de la cual no existe completa certeza. Ninguno de nuestros
conocimientos es seguro, el grado de fuerza de nuestra creencia sobre una proposición dada
es su probabilidad. Esta noción de "grado de creencia o de confianza" aparece
implícitamente en la obra de Bernoulli, aunque en realidad se refiere más a los grados de
certeza de un proposición que a los grados de creencia en ella (Todhunter, 1965; Hacking,
1975).
En los escritos de los autores de esta época no queda claro cómo hubieran
interpretado de forma explícita el significado de la probabilidad. Sus reflexiones sugieren
que la concepción dominante era la consideración de la probabilidad como el reflejo de un
"grado de razonable creencia". Es decir, representaba el valor de la confianza que el sujeto
tenía en esa manifestación, elaborada desde los datos disponibles (Black, 1984). Dicho
valor quedaba reflejado en la definición de la medida de la probabilidad, dada
explícitamente por Laplace: la proporción que expresa la relación existente entre los casos
favorables y el conjunto de las alternativas igualmente posibles, en los sucesos estudiados.
Estas ideas fueron desarrolladas y sistematizadas por De Morgan quien relacionaba
directamente la probabilidad con un estado de ánimo referente a una proposición sobre la
cual no se tiene una absoluta certeza. Los diferentes grados de certeza son susceptibles de
ser medidos asociándoles un valor numérico. Para su cálculo proponía la definición
planteada por Laplace (Nagel, 1979).
Admitiendo esta definición, un gran filósofo de finales del siglo XIX, Peirce planteó
su posible sustitución por otra, para él más significativa: la relación entre los casos
favorables y los desfavorables, a la que denominó contingencia de un acontecimiento. "La
contingencia de un acontecimiento guarda una íntima relación con el grado de nuestra creencia" (Peirce,
1979; p.30), idea recogida también por Nagel ([recopilación], 1979) y por Hacking (1991).
En principio, el Cálculo de Probabilidades de los sucesos se reducía a problemas
combinatorios y condicionados a la existencia de un conjunto finito de sucesos elementales
con igual posibilidad; este condicionamiento según Fréchet (1958), era producto de su
origen ligado a los juegos de azar, donde los casos posibles habitualmente son
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 93
equiprobables.
Durante mucho tiempo, la definición de la medida de la probabilidad, más
comúnmente admitida ha sido la dada por Laplace. Es una definición incompleta pues sólo
facilita una forma práctica para calcular las probabilidades de algunos sucesos sencillos con
un espacio muestral limitado. Basada en la noción de equiprobabilidad, esta concepción
laplaciana impone una fuerte restricción en sus aplicaciones debido a dicha noción de
equiprobabilidad y es la finitud del espacio muestral. "Es inútil en los numerosos casos en que las
posibilidades a analizar no pueden inventariarse en un conjunto de alternativas simétricas" (Díaz Godino,
Batanero y Cañizares, 1988; p.21), situación muy común en la realidad cotidiana. Otra
objeción importante a esta definición, como se ha indicado anteriormente, es su carácter
circular; la probabilidad está definida en términos de alternativas equiprobables, pero
¿cómo puedo saber que dos probabilidades son iguales antes de definir lo que es
probabilidad? El propio concepto de equiprobabilidad tiene problemas filosóficos, no es
posible determinar que dos sucesos son equiprobables si no es apoyándose en un argumento
tautológico (Fréchet, 1958; Hawkins y Kapadia, 1984; Konold, 1991; etc.).
Fréchet (1958) plantea que esta interpretación de la probabilidad es la más simple
desde el punto de vista pedagógico y parece susceptible de ser utilizada como la
introducción en el mundo probabilístico desde la observación o análisis de casos muy
sencillos, relacionados generalmente con el mundo de los juegos de azar. Sin embargo,
cuando los niños llegan a la conclusión de que la probabilidad de sacar un 6 en un dado
cúbico es 1/6, su grado de expectación entra en conflicto con su experiencia, en la que
obtener un 6 puede costar un gran número de tiradas; el nivel de razonamiento matemático
para superar dichos conflicto no es simple, ni inmediato. Además, en un análisis más
profundo, la aproximación escolar a esta definición se encuentra con grandes escollos, por
un lado, el concepto de equiprobabilidad, si nos salimos del campo de los juegos de azar,
que en general entra en conflicto con la experiencia empírica de los más pequeños; y, por
otro, para su aplicación necesita de cierto conocimiento de las relaciones proporcionales y
de las fracciones, no accesibles en los primeros niveles de la educación (Díaz Godino,
Batanero y Cañizares, 1988).
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 94
En el aula tradicional la aproximación a la probabilidad se realiza desde un nivel
teórico, según Hawkins y Kapadia (1984), como un "a priori". De hecho, en muchos libros
de texto se refieren a esta definición de probabilidad como "probabilidad teórica". En
general, se consideran las posibles alternativas como equiprobables por definición, lo cual
puede provocar graves problemas a la hora de fundamentar su trabajo posterior y establecer
relaciones entre sus propios resultados experimentales y las ideas teóricas.
2.4.2. INTERPRETACIÓN PERSONALISTA
Desde esta concepción, el significado de la probabilidad se identifica con una
expresión de la creencia o percepción personal. Ante un mismo acontecimiento dicha
creencia puede variar de una persona a otra, pues estará en íntima relación con el conjunto
de conocimientos que posee cada persona en cada momento, lo cual lleva a plantear la no
existencia de estimaciones universalmente válidas (Black, 1984). "La probabilidad subjetiva es el
grado de creencia que mantiene una persona sobre un acontecimiento. Se basa en la evaluación del
acontecimiento realizada a partir del mejor uso de toda la información disponible por el sujeto y a partir de su
propia habilidad" (De Finetti, 1974; p.16). Su dominio formal se reduce al conjunto de
creencias de una persona determinada.
Aunque Savage la llama "personalista", hay muchos autores que la reconocen como
"subjetivista". Desde el mundo estadístico son reconocidos como bayesianos, por
considerar el teorema de Bayes el instrumento básico para la inferencia (Kyburg, 1974).
Ellos mismos se reconocen como tales, Savage en unos de sus trabajos dice "Nosotros los
bayesianos radicales, pretendemos demostrar que todo lo que tiene de atractivo la teoría frecuencialista de la
probabilidad, está implícito en la teoría personalista" (Savage, 1961; p.9).
Según De Finetti, los juicios de probabilidad son humanos y no tienen otra finalidad
que reglamentar nuestras acciones en función de lo que se prevé que ocurrirá, sin creer en
ello de forma categórica y generalizable. En la vida real las personas, ante cualquier hecho,
tienen alguna información que les permite tener unas opiniones previas sobre la ocurrencia
o desarrollo de los sucesos, opiniones generalmente no elaboradas desde relaciones lógicas.
Estas opiniones previas sólo pueden ser modificadas como resultado de una introspección,
de un cálculo o como respuesta de una nueva evidencia que entre en conflicto con la idea
previa del sujeto. Por tanto, los juicios probabilísticos son siempre subjetivos aún cuando se
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 95
basen en una información objetiva, pues dicha información será interpretada desde el
conjunto de conocimientos personales (Black, 1984). "Una manifestación probabilística es una
manifestación psicológica empírica, que será verdad o falsa de acuerdo al estado actual o idealizado de las
opiniones de una persona en un momento determinado" (Kyburg, 1974; p.1).
La aproximación bayesiana parece un excelente medio para seguir el rastro sobre
qué aspecto de las probabilidades previas tienen efectos sobre las probabilidades
posteriores. Como analiza Geymonat (1984), según los subjetivistas, el grado de convicción
que un sujeto tiene sobre la verificación de determinado acontecimiento se reflejará en su
conducta efectiva o potencial respecto a dicho evento.
La condición impuesta para la credibilidad de los juicios probabilísticos de un sujeto
es la coherencia. Es decir, el conjunto de los enunciados defendidos por una persona han de
formar un sistema coherente "personal", característica que la diferencia de las teorías
logicistas que estudiaremos a continuación. Se permite cualquier grado de creencia en
cualquier enunciado, pero entre ellos han de constituir un sistema coherente, de tal forma
que será necesario modificar alguna opinión y rectificar una valoración si el sistema
resultara incoherente. Esto es lo que denominan grados de creencia o confianza rectificados
(Gutiérrez Cabria, 1971).
En conclusión, como sugiere Díaz Godino, Batanero y Cañizares (1988), desde esta
perspectiva la probabilidad no está unívocamente determinada, no se apoya en la
repetibilidad de ningún suceso, sino sobre un cuerpo de evidencia analizado desde la
creencia personal. "Para ellos el análisis probabilístico se aplica a los juicios, no a las cosas mismas"
(Trillas, 1980; p.67). La probabilidad es simplemente un argumento que juzga la
posibilidad de ocurrencia de distintas alternativas. El peso de este argumento depende del
conocimiento que posea cada persona antes de los acontecimientos, es una interpretación
subjetiva y generalmente "a priori", y en todo caso, rectificada posteriormente por la
experiencia, aplicando la relación bayesiana (Ludwig, 1986).
El problema surge al plantear la necesidad de la cuantificación. ¿Cómo cuantificar
un grado de confianza o creencia? Los teóricos subjetivistas han adoptado varios
mecanismos para solventarlo.
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 96
Partiendo del supuesto de que las estimaciones probabilísticas son únicas, pues son
personales de cada individuo, su valor numérico, si existe, también ha de ser único. De
Finetti mantiene que estas estimaciones no tienen valor objetivo, son simplemente grados
de confianza en un enunciado. Sin embargo, Ramsey, para determinar los valores de estos
grados de confianza, sugirió un curioso método conocido como "la apuesta del holandés",
consistente en determinar su valor numérico en función de los puntos de ventaja que la
persona en cuestión está dispuesta a dar a un resultado sobre otro, o dicho de otra forma, "la
cantidad máxima que un sujeto está dispuesto a "apostar" en favor de la verdad de una aserción" (Gutiérrez
Cabria, 1971; p.115), que representa el valor de su confianza en esa verdad.
Es sorprendente comprobar que si se considera el sistema de valores o creencias de
una persona como un conjunto coherente y consistente, dichos valores respetan los
principios de probabilidad total y de la composición de probabilidades, es decir, obedecen
las reglas de la adición y multiplicación de una teoría axiomática de la probabilidad. Esto
permite a los subjetivistas acceder a la axiomatización, con la particularidad de que las
probabilidades primarias que intervienen en los cálculos matemáticos reflejan las opiniones
diversas de los diferentes sujetos (Black, 1984). La probabilidad que se aplica a los juicios,
presenta discrepancias técnicas con respecto al cálculo de Kolmogov, centradas en el
concepto de aditividad no-finita (Trillas, 1980).
Estas teorías están en entredicho a la hora de efectuar un análisis correcto del
significado de los enunciados de probabilidad en general. Fréchet, en su análisis sobre el
carácter subjetivo de las probabilidades, nos dice al respecto: "Proponer hacer del Cálculo de las
Probabilidades el estudio de las opiniones individuales, equivale a destacar más la necesidad de las nociones
objetivas en el cálculo de las probabilidades. Siempre que este estudio de las opiniones sea en sí mismo objetivo
podrá ser interesante; pero así se tendrá psicología y no cálculo de probabilidades" (Fréchet, 1958; p.233).
Pero como nos dice Konold (1991) "las teorías subjetivistas son teorías `normativas' que especifican
cómo una persona `racional' debe formular y modificar sus creencias a la luz de nueva información; no son
teorías `descriptivas' de cómo los individuos actualmente formulan y modifican sus probabilidades subjetivas."
(p.143).
El desarrollo de esta interpretación ha tenido una influencia decisiva en la
elaboración de la Teoría de la Decisión, fundamentalmente en la parte de dicha teoría que
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 97
se basa en la utilización sistemática del teorema de Bayes, que nos permite cuantificar
nuestro grado de confianza en un determinado suceso. Ante una situación de incertidumbre,
en la que es necesario tomar una decisión, tratamos de eliminar o al menos reducir el riesgo
de elegir una opción errónea, obteniendo información relevante sobre las condiciones de
dicha situación. Para su coordinación y consideración es útil el teorema de Bayes
estableciendo una relación entre la probabilidad "a priori", que expresa la incertidumbre
inicial, y la información adicional, proporcionada por los datos que resultan del nivel
experimental. Esta relación permitirá revisar y modificar la probabilidad inicial, calculando
una nueva probabilidad "a posteriori" que refleja nuestro nuevo grado de confianza, dando
lugar a lo que hoy llamamos la inferencia bayesiana (Rivadulla, 1991). Sin el teorema de
Bayes es difícil revisar coherentemente las probabilidades a la luz de la información
proporcionada por los datos (Lindley, 1977).
Como ya indicábamos en el apartado anterior, el teorema de Bayes describe cómo
aprendemos, o cómo deberíamos aprender, pues nos muestra cómo debemos modificar
nuestras opiniones, creencias o hipótesis, a través de la interacción con la nueva
información, dando lugar a nuevas ideas revisadas o a mantener las iniciales si los datos
empíricos las confirman. Idea también planteada por Steinbring y Von Harten (1983) en su
trabajo sobre el aprendizaje del conocimiento estocástico. En todo caso, es un buen método
para procesar datos.
Esta perspectiva subjetivista, como analizan Díaz Godino, Batanero y Cañizares
(1988), puede tener un papel en la enseñanza en la medida que sólo depende de
comparaciones de verosimilitud percibidas, sin reglas restrictivas. La propuesta de la
apuesta, por ejemplo, es recogida por Freudenthal (1973) como una idea válida para la
enseñanza de la probabilidad, pues convierte en algo más concreto las probabilidades de los
sucesos. A cada suceso se le puede asignar una probabilidad que toma un cierto valor
numérico con la condición de que uno esté preparado para aceptar una apuesta basada en
dicha asignación. Según Hawkins y Kapadia (1984), es un criterio plausible intuitivamente,
y más útil con la introducción de un oponente real, ya que desde el punto de vista del niño
es más fácil tener un oponente concreto que pensar en términos supuestos. Retomando la
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 98
idea de coherencia, estos autores piensan que "es donde la probabilidad subjetiva ofrece un real
avance al proveer la oportunidad de aprender desde la experiencia" (p.372), y tiene por tanto una clara
aplicación didáctica.
2.4.3. INTERPRETACIÓN LÓGICA
Estas teorías lógicas descienden directamente del punto de vista clásico de Bernoulli
y Laplace. Tienen su origen en la búsqueda de soluciones a los problemas de aplicación de
la Teoría Clásica en casos no equiprobables.
El primero en formularla explícitamente fue Keynes, el cual, siguiendo a B. Russell,
consideraba que la probabilidad era un atributo de las proposiciones más que de los
acontecimientos y no de una sola proposición en sí misma, sino, como nos dice Nagel
(1979), de una relación entre proposiciones. Para Keynes (1979), el conocimiento probable
es aquél que creemos factible de manera racional, tomando como base la evidencia
disponible. Es decir, la probabilidad de una manifestación es algo que está en función de un
cuerpo de evidencia.
Las manifestaciones probabilísticas son construidas a través de un lenguaje que
expresa la siguiente relación, "dada una manifestación M y un cuerpo de evidencia e, hay
exactamente un número real P, determinado por condiciones lógicas, tal que la probabilidad
de M relativa a e sea P" (Kyburg, 1974).
Un enunciado de probabilidad básico del tipo "La probabilidad de M sobre e, es p",
es una relación lógica entre una pareja de enunciados: la proposición evidente y una
proposición considerada como hipótesis a partir de dicha evidencia, y que sólo existe en
virtud de su significación (Gutiérrez Cabria, 1971). La probabilidad es, por tanto, un dato "a
priori", apoyado en la evidencia cuya validez debe buscarse en la experiencia; desde esta
perspectiva se afirma en general que "la probabilidad varía con la evidencia" (Black, 1984; p.129).
No cabe la menor duda de que hay una cierta relación con la interpretación
personalista, pues un cuerpo de evidencia significativo para un sujeto es aquél que es
accesible en un momento determinado desde su propio cuerpo de conocimiento. Pero la
interpretación lógica considera que la probabilidad de una manifestación, relativa a ese
cuerpo de evidencia, viene determinada por reglas lógicas, independientemente de si
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 99
coincide o no con la consideración de un sujeto determinado (Kyburg, 1974).
Es decir, desde estos planteamientos, la probabilidad representa el grado de creencia
"racional" o tasa de confianza que es prudente conceder al proceso que nos lleva, desde un
conjunto de proposiciones conocidas a otras desconocidas, es por tanto considerada como
una relación especial entre proposiciones. El dominio formal de una teoría lógica es el
conjunto de relaciones entre los enunciados, más que los enunciados en sí mismos.
Los logicistas en general consideran a la probabilidad como una "guía en la vida", o
como dice Kyburg (1974) " una guía de expectativa racional" (p.319). Keynes, en su trabajo sobre
la utilización de la probabilidad en el comportamiento humano, considera que las
proposiciones sobre probabilidad nos aportan datos para decidir la conducta supuestamente
más correcta, pero no nos aseguran el éxito, simplemente son la hipótesis sobre la cual es
más racional que actuemos (Kyburg, 1974; Keynes, 1979).
Todos los autores defensores de este enfoque, Keynes, Carnap, o Jeffreys, han sido
realmente los artífices de lo que hoy conocemos como lógica inductiva cuyo germen, según
Hacking (1975), ya estaba en lo que Leibniz denominaba "New Kind of Logic"; pero quien
dedicó el mayor esfuerzo a la justificación y fundamentación de la lógica inductiva fue, sin
lugar a duda, Carnap. El enfoque probabilístico de la inducción fue desarrollado por Keynes
y por Carnap (Rivadulla, 1991).
La inducción está en la base de gran parte de nuestras creencias y acciones
cotidianas. Si analizamos nuestros pensamientos y conductas usuales, observaremos como
en ellas hacemos un gran número de inferencias inductivas, actuamos generalmente sobre la
base de creencias que han sido conformadas inductivamente.
El estudio de los procedimientos inductivos se ha desarrollado extraordinariamente.
En el siglo XVII, F. Bacon fue el primer autor que apoyó, de forma explícita, el desarrollo
de una lógica inductiva paralela a la lógica deductiva imperante, insistiendo en la necesidad
de completar el método inductivo a través de la experimentación (Losse, 1986), aunque sus
planteamientos no tenían relación con la probabilidad. Desde entonces se han sucedido
numerosos intentos de formalizar el proceso de generalización a partir de datos de la
experiencia, aunque aún hoy "no se dispone de ninguna filosofía completamente satisfactoria de la
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 100
inducción" (Black, 1984; p.75). El concepto de inducción lo han definido e interpretado
numerosos científicos y filósofos de la ciencia, defendiendo distintos modelos explicativos,
producto de las diferentes interpretaciones y concepciones de la inducción, y en función de
los contextos científicos en los que aparece (Ortiz, 1993).
Geymonat (1984), en su gran obra sobre la historia del pensamiento filosófico y
científico en el último siglo, nos dice que "el tema de la probabilidad y de la inducción constituye el
tema central de la filosofía de la ciencia y de la filosofía en general" (Tomo I, p.222). Existen grandes
filósofos de las ciencias, tanto en el grupo de los partidarios del procedimiento inductivo,
Reinchebach, Carnap o Hintikka, como en el grupo de sus detractores. Un ejemplo
significativo de este último grupo es K. Popper, quien nos plantea en su libro La lógica de
la investigación científica, que las hipótesis científicas nunca pueden ser verificadas
definitivamente por la evidencia observable, sólo en todo caso confirmarse.
Estos planteamientos pueden considerarse como válidos, pero, como analiza Nagel
(1979), no cabe la menor duda de que son incompletos. Nagel plantea un interrogante,
¿cómo podemos construir la proposición relacionada con la evidencia sin tener en cuenta la
información que nos proporciona la noción de frecuencia?, o dicho de otra forma, ¿cómo
podemos cuantificar el grado de confianza racional en una proposición de carácter
probabilística basada en la evidencia?.
Keynes, en su A Treatise on Probability, argumenta que muchas asignaciones y
comparaciones de probabilidad son necesariamente cualitativas y no pueden ser
representadas por números (Hacking, 1975). Afirma la complejidad, y en algunos casos la
imposibilidad, de cuantificar la probabilidad debido al gran número de dimensiones que es
necesario considerar y a su difícil evaluación. Enuncia conceptos como el de esperanza
matemática, relacionado con la ganancia esperada y con la probabilidad de obtenerla, pero
su valoración deberá estar matizada por el valor de los "pesos" de los argumentos en que se
apoya, es decir, de la evidencia en la que se fundamenta dicha probabilidad y además en el
"riesgo" que supone la toma de una decisión concreta, a la hora de actuar (Keynes, 1979).
Carnap, al contrario de Keynes, no rechaza el concepto de "probabilidad
estadística", relacionada con la frecuencia en una serie de acontecimientos, pero la
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 101
considera de carácter descriptivo, mientras que a la probabilidad considerada como el grado
de confirmación de la relación entre una hipótesis y un cuerpo de evidencia le da una
finalidad analítica (Geymonat, 1984). Carnap se sitúa, por tanto, en un punto intermedio
entre la postura lógica y la posición frecuencialista que analizaremos a continuación.
El problema de la cuantificación fue abordado por Carnap en su libro Logical
Foundations of Probability, dedicando especial atención a la explicación de la noción
cuantitativa del "grado de confirmación", como él lo llama, de una hipótesis "h" con
respecto a una evidencia determinada "e", define las medidas de "h" y "e" como
valoraciones adecuadas en un lenguaje elegido y establece una expresión de relación entre
ellas: c(h,e) = m(h,e) / m(e). La necesidad de elaborar una axiomática llevó a Koopman
(1940) a intentar elaborar una lógica de la probabilidad cualitativa, recogida por Fine
(1973).
Este enfoque del significado de la probabilidad, es difícil de aplicar o utilizar en el
contexto de la enseñanza elemental. Podría afrontarse, en cierta manera, dentro del
desarrollo del pensamiento inductivo del niño, ya que la mayoría de los conocimientos que
el niño adquiere en contextos de experiencia son elaborados a través de procesos
inductivos.
2.4.4. INTERPRETACIÓN FRECUENCIAL
Surgió como consecuencia de las múltiples aplicaciones de la probabilidad a los
fenómenos sociales y físicos, el primer autor que consideró y definió la probabilidad desde
esta perspectiva de forma explícita fue Venn, y sus mayores promotores han sido Von
Misses y Reichenbach. Sin embargo, una anticipación de esta teoría la tenemos en las ideas
Locke y de Peirce (García Alvarez, 1971; Geymonat, 1984; Black, 1984).
Las manifestaciones probabilísticas representan verdades estadísticas sobre el
mundo, su verdad o falsedad no tiene nada que ver con la opinión de ninguna persona o con
la existencia de un cuerpo de evidencia, sino solamente con el estado de las cosas (Kyburg,
1974).
Fue J. Venn quien recogió por primera vez de forma explícita la definición de
probabilidad en relación a la frecuencia relativa de la ocurrencia de un evento en una serie
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 102
de eventos "a la larga", pero fue realmente Von Misses quien definió la probabilidad como
el límite de la frecuencia relativa en un colectivo, en ella es básica su "idea original y
controvertida de "Kollektiv", una serie de eventos en la que los caracteres de interés ocurren al azar" (Black,
1984; p.133). La probabilidad sólo puede ser aplicada a colectivos que satisfagan la
condición de aleatoriedad y en los que además su tendencia a la estabilidad, es decir a
converger hacia un valor determinado, sea observable (Gutiérrez Cabria, 1971).
Los frecuencialistas niegan todo hiato lógico entre frecuencias y razones, sus
planteamientos se apoyan en la consideración de que, si bien ante la repetición de sucesos
de iguales características nos encontramos con un primer desorden aparente, a la larga, en
un número infinito de pruebas, surge una cierta regularidad y la aleatoriedad inicial tiende a
estabilizarse (Díaz Godino, Batanero y Cañizares, 1988). Esta relación con el concepto de
infinito y la imposibilidad real de trabajar con grupos de sucesos infinitos, ha originado
grandes controversias filosóficas.
El dominio formal de estas teorías son las colecciones de clases de sucesos
aleatorios, o posibles resultados experimentales, en los que la frecuencia converge hacia un
determinado parámetro; no se puede atribuir valor a las estimaciones de probabilidad
realizadas independientemente de la idea de repetición de pruebas y con referencia a la
frecuencia relativa. Los objetivistas o frecuencialistas consideran como dato irrelevante
para el Cálculo de Probabilidades toda percepción de incertidumbre no relacionada con la
información que aporta la ocurrencia de sucesos repetidos en idénticas condiciones, es
decir, con la verificación empírica (Bisson, 1983). La probabilidad es una propiedad de la
clase, no de los elementos.
Desde el sentido común, el conocimiento de las frecuencias relativas de ciertas
propiedades tiene una influencia clara en los juicios probabilísticos, pero hay numerosas
situaciones en la realidad en las que no es posible la repetición indefinida del sucesos en
iguales condiciones (Geymonat, 1984). Por otro lado, desde sus planteamientos no se
reconoce el significado de la probabilidad de un suceso aislado, lo que representa un grave
problema y restringe excesivamente el campo de aplicación del concepto de probabilidad
(Díaz Godino, Batanero y Cañizares, 1988). Como analiza Shafer (1992), "muchas personas
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 103
ponen objeciones por la conocida limitación del campo de aplicación de la interpretación frecuencialista.
Numerosos sucesos sobre los cuales desearíamos conocer su probabilidad, no tienen probabilidad en el sentido
frecuencial" (p.96).
Esta interpretación ha recibido un gran número de críticas pues, en la realidad, es
difícil encontrar series de eventos que cumplan las condiciones impuestas, lo que hace de
los enunciados de probabilidad algo que no es verificable, pero tampoco rechazable,
empíricamente (Gutiérrez Cabria, 1971). En general, es una perspectiva que guarda especial
interés para los estadísticos y científicos dedicados al estudio de grandes conjuntos de
sucesos (Black, 1984).
Autores como Neymann, Cramer, Popper o Hacking han propuesto definiciones
alternativas con el objetivo de superar las controversias filosóficas planteadas por la
definición de Von Misses: dando un papel relevante o no al tamaño de la clase de
referencia; o bien considerando la probabilidad como un valor o como una tendencia
(Kyburg, 1974). Pero en cualquiera de los casos, la probabilidad es considerada como una
manifestación empírica sobre el mundo de las cosas.
A pesar de las críticas, esta interpretación cuenta con un gran número de defensores,
por su directa y precisa utilización en ciertos tipos de situaciones. Por ejemplo, si tratamos
con fenómenos de masas, en general no hay mucha controversia en su uso y la
interpretación estadística es fácil. O en el caso de referirnos a un número finito de sucesos
equiprobables, pues entonces tiene un sentido análogo al de "proporción", relacionado con
la definición clásica y muy utilizado en el lenguaje cotidiano (Gutiérrez Cabria, 1971). Sin
embargo, su aplicación no es posible en el caso de sucesos únicos o aislados, como por
ejemplo, la posibilidad de aprobar un examen o de encontrar un trabajo; y además, supuesta
una serie de sucesos, la estimación de la probabilidad es difícil de realizar de una manera
precisa, pues el número de pruebas es siempre limitado y a veces no es factible la repetición
en iguales condiciones. La constancia de las condiciones es algo que no es muy fácil de
garantizar en sucesos reales, como en el caso de contraer una enfermedad, o cualquier otro
tipo de situación repetitiva en la vida cotidiana.
Si nos referimos al mundo educativo, este enfoque puede ser adecuado para trabajar
en la escuela fenómenos con una fuerte evidencia empírica o experimental, como pueden
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 104
ser las situaciones de juego. Esto le daría una ventaja sobre la utilización directa de las
nociones teóricas planteada desde la aproximación clásica; no obstante, tienen graves
problemas conceptuales y prácticos a la hora de ser trabajado en la escuela. En gran número
de libros de texto es reconocida como "probabilidad empírica" y a menudo es la
interpretación apoyada implícita o explícitamente desde gran parte de las propuestas
curriculares, como comprobaremos en el Capítulo siguiente.
2.4.5. PLANTEAMIENTO AXIOMÁTICO
Desde esta perspectiva, se considera al Cálculo de Probabilidades como un modelo
idealizado en el que la probabilidad es un "ente" al que tan sólo se le impone la condición
de satisfacer un sistema de axiomas (Black, 1984). Es más bien, como hemos indicado, un
intento de superar la controversia filosófica que una interpretación del significado de la
probabilidad propiamente dicha. Este planteamiento es defendido por algunos teóricos,
según los cuales el conflicto entre las distintas interpretaciones es simplemente aparente:
"La axiomatización supone abstracción y conceptualización y esto implica una sustitución de objetos empíricos
por ideales. La teoría empieza después de realizar esta sustitución" (Gutiérrez Cabria, 1971; p.131). La
probabilidad de un suceso, en la teoría matemática, es un valor numérico asociado a dicho
suceso, en palabras de Cramer (1958) "una probabilidad es una cantidad numérica que satisface tales y
tales axiomas" (p.14).
Las bases de toda teoría axiomática son los cinco axiomas o principios ya
formulados por Laplace, reducidos hoy a tres:
1) Axioma de no negatividad: para todo suceso la probabilidad está comprendida
entre 0 y 1.
2) Axioma de normalización: el suceso seguro tiene probabilidad 1.
3) Axioma de aditividad: si dos sucesos son incompatibles entre sí, la
P(A+B)=P(A)+P(B).
A partir de estos tres axiomas, Kolmogorov construyó toda la Teoría de la
Probabilidad, en su libro Foundations of the Theory of Probability, publicado en 1950, y en
el que representa a los sucesos como elementos de un conjunto y donde la probabilidad es
una medida normada definida sobre dicho conjunto. La axiomática de Kolmogorov no es
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 105
una teoría filosófica, sino una matematización independiente de las posibles
interpretaciones.
La teoría axiomática, como indicábamos al principio, no mantiene relación en sí
misma con los fenómenos naturales; de hecho, el término probabilidad podría ser sustituido
por otro cualquiera sin que se modificase sustancialmente la teoría. Desde estos
planteamientos se defiende que los diferentes significados de la probabilidad son superados
al poder construir una axiomática que respete los tres principios básicos, desde la cual
podemos calcular lo que Hawkins y Kapadia (1984) llaman "probabilidad formal".
En otras palabras, las hipótesis desde las que se parte para construir una teoría
pueden recoger concepciones tanto subjetivas como objetivas, lo realmente necesario es
elaborar una estructura axiomática que reúna las condiciones precisas de consistencia e
independencia propias de una teoría axiomática (Díaz Godino, Batanero y Cañizares, 1988).
Aunque generalmente cuando hablamos de teoría axiomática pensamos en una axiomática
de la probabilidad relacionada con los sucesos y la frecuencia relativa de los mismos, la
axiomatización no es privativa de las probabilidades empíricas, desde cualquier perspectiva
es posible la elaboración de una axiomática. Un trabajo significativo para la
fundamentación de la teoría de la probabilidad desde las diferentes perspectivas es el
presentado por Fine (1973) en su libro Theories of Probability, en el que hace un análisis de
todas las axiomáticas correspondientes a las diferentes perspectivas tratadas.
Pero, esta propuesta no resuelve el problema planteado por la existencias de
distintos significados para un mismo término, es más bien una evasiva del problema ya que,
al centrar la atención sobre las condiciones de elaboración del modelo matemático que ha
probado suficientemente su utilidad, se deja de lado, como bien recuerda Black (1984), el
origen de la controversia sobre el significado de la probabilidad: establecer un puente de
unión entre la teoría matemática y las aplicaciones prácticas en los diferentes contextos en
donde se presenta. Si bien las consideraciones acerca de la función probabilidad son
independientes de la interpretación que se le quiera dar, la aproximación de la que parte el
sujeto sí que tiene un profundo efecto sobre sus condiciones y sobre los problemas que
puede considerar como accesibles y, por tanto, resolubles desde modelos probabilísticos
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 106
(Kyburg, 1974).
Las dificultades conceptuales que conlleva una aproximación axiomática a la
probabilidad y, su lejanía de la realidad, no hacen posible su tratamiento en la enseñanza
Primaria, donde pensamos que el nivel experiencial debe primar por encima de otros
factores conceptuales.
2.4.6. CONCLUSIONES
En definitiva, ante cualquiera de los análisis presentados no cabe la menor duda de
que la probabilidad es y seguirá siendo desconcertante. El interés que siempre ha suscitado
el concepto de probabilidad y su significado está relacionado con la implicación directa que
tiene con el no menos controvertido concepto de racionalidad. Como plantea Prigogine
(1986), en el mundo de hoy "la racionalidad ya no puede seguir siendo identificada con la "certeza", ni
tampoco la probabilidad con la ignorancia" (p.183). La probabilidad es una característica propia de
los razonamientos no-demostrativos, determinar la validez y el significado de dichos
razonamientos es papel de la filosofía de la probabilidad. A lo largo de las páginas
anteriores hemos podido observar como es un tema sin resolver y sobre el cual se siguen
manteniendo grandes discusiones.
Cada una de las perspectivas analizadas tiene su ámbito de explicación. Hadley
(1979) realiza un rápido análisis de las distintas interpretaciones considerándolas como un
continuo. En un extremo está la interpretación subjetiva que tiene su aplicación más
evidente en sucesos únicos e irrepetibles, en el otro extremo la frecuencialista, cuyo ámbito
de aplicación son los eventos que pueden repetirse indefinidamente (Cuadro 8). La realidad
se mueve entre los dos extremos, ante un fenómeno cotidiano, "se dispondrá de alguna
información frecuencial, pero que no será suficiente, por lo que será preciso una cierta dosis de juicio personal"
(Díaz Godino, Batanero y Cañizares, 1988; p.28).
Una figura tan representativa en el estudio y reconocimiento del papel de la
incertidumbre como Heisenberg, plantea que "la función de la probabilidad contiene el elemento
objetivo de la tendencia y el elemento subjetivo del conocimiento incompleto " (Heisenberg, 1959; p.53).
En su análisis mantiene que las manifestaciones de probabilidad en ciertos sistemas
dependen de nuestro conocimiento del sistema, pero éstas deben ser comprobadas por la
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 107
repetición de experimentos durante algún tiempo para poder ser consideradas.
Esta ambigüedad en el significado del concepto tiene importantes repercusiones en
el campo educativo. Como analizan Steinbring (1984) y Konold (1991), el significado
conceptual de la probabilidad no puede estar basado simplemente en su definición
matemática, como habitualmente ocurre con otros Cuadro 8: Interpretaciones
conceptos; la dificultad no está centrada en la definición sino en cómo el concepto es
interpretado y aplicado apropiadamente en situaciones específicas. Steinbring (1984)
comenta una "curiosa" propiedad de la probabilidad: tan pronto tratamos de caracterizarla
por medio de una definición matemática precisa, se pierde el carácter estocástico; ya no es
un asunto del azar. La comprensión del sentido probabilístico de la realidad no puede ser
reducida a una simple definición matemática. La Educación Matemática ha de tener en
cuenta la idea de que no hay una única y universal interpretación de la probabilidad. Las
primeras intuiciones de la probabilidad que presentan los sujetos son típicamente subjetivas
e incoherentes, y suelen constituir una fuente fundamental de dificultades, al enfrentarse
con los datos reales de la experiencia o con los constructos teóricos formalmente definidos:
"Lo estocástico, en la escuela, debe orgánicamente combinar ideas desde diferentes tradiciones filosóficas"
(Steinbring, 1984; p.69).
Desde lo expuesto en las líneas anteriores, parece plausible pensar que todo
camino fructífero, para un idóneo desarrollo de las ideas probabilísticas de los sujetos,
ha de apoyarse en estructuras que recojan las distintas aproximaciones al significado
de la probabilidad. Aspecto que consideramos importante, desde una perspectiva
didáctica, para la elaboración del conocimiento probabilístico y que, junto con los
datos extraídos en los dos apartados anteriores, pueden conformarnos una visión
general sobre la naturaleza del conocimiento probabilístico.
Reflexión que intentaremos reflejar a continuación en el apartado 2.5, a la luz de
todo el estudio realizado.
2.5. CARACTERÍSTICAS DEL CONOCIMIENTO PROBABILÍSTICO.
IMPLICACIONES DIDÁCTICAS
Desde la reflexión realizada hemos podido ir detectando ciertos aspectos de la
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 108
peculiar naturaleza del conocimiento probabilístico o más extensivamente, del
conocimiento estocástico; ahora, de todos ellos extraeremos los que consideramos más
relevante para su tratamiento en el aula y, por tanto, para ser integrados en el diseño y
desarrollo de una formación adecuada de los maestros. Formación que permita avanzar en
la integración real del conocimiento estocástico en la escuela.
A) Una de las principales ideas que pueden extraerse de la revisión efectuada es la
constante relación interactiva entre las situaciones empíricas y la modelización
matemática a lo largo de todo el desarrollo del Cálculo de Probabilidades. El modelo
matemático y la situación empírica no pueden ser totalmente congruentes, se construyen
modelos adaptados a las distintas situaciones que luego han de ser generalizados, pero sin
olvidar la necesidad de dicho referente real para la construcción del modelo (Dinges, 1982).
"Las manifestaciones estocásticas sobre los fenómenos reales no son la imagen de verdades empíricas, pero
reflejan fundamentalmente posibles conexiones teóricas con la situación concreta" (Steinbring, 1984; p.72).
Es decir, las afirmaciones estocásticas siempre reflejan una vinculación con
situaciones reales y, por tanto, el pensamiento estocástico, a diferencia de otros campos del
pensamiento matemático como el aritmético, el geométrico o el algebraico, ha de tener
siempre un referente real, siendo imprescindible tener en cuenta, desde el principio, la
diferencia entre el modelo matemático y la situación real.
B) La probabilidad es un concepto de difícil comprensión, pues, en general, entra
en clara contradicción con el pensamiento determinista y causal dominante en nuestra
educación. "La probabilidad es un concepto particularmente resbaladizo. Esto hace especialmente difícil la
demarcación de su territorio. A través de la probabilidad intentamos demarcar un estado amorfo situado entre dos
extremos imaginarios: la total ignorancia y el conocimiento perfecto" (Konold, 1991; p.139). Si
consideramos que el concepto se construye en la interacción del signo con el objeto, la
comprensión de su significado no puede ser simplemente el resultado de la elaboración
teórica, sino más bien será el resultado de la síntesis de las diversas interpretaciones
concretas, en las múltiples situaciones donde es aplicado.
Vemos cómo el concepto de probabilidad tiene en su núcleo una estructura
dual: su modelización matemática y los aspectos experimentales específicos; vinculados
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 109
intuitivamente por la relación objeto-signo. Su modelización matemática puede estar a su
vez caracterizada por diferentes posibilidades de interpretación; por un lado, la probabilidad
como caracterización experimental a través de las frecuencias relativas observadas, lo que
le confiere un valor más objetivo; por otro, la probabilidad clásica, considerada como un "a
priori", con un carácter más teórico basada en las propias condiciones del fenómeno; o bien,
la probabilidad considerada como resultado de hipótesis establecidas, unas veces a partir de
las creencias subjetivas de las personas y otras de las estimaciones realizadas a priori, en
función de datos empíricos, relacionadas en ciertos aspectos con la aproximación bayesiana.
Si recordamos el análisis del desarrollo histórico del concepto de probabilidad, ya
desde su nacimiento presenta también una naturaleza dual con su doble significado como
creencia y como dato objetivo extraído de la realidad. Naturaleza que debe respetarse en su
tratamiento didáctico, y es a través de la presencia de las múltiples aplicaciones en las
diversas situaciones como se posibilita no sólo la elaboración del concepto matemático,
sino también la presencia de las distintas posibilidades de interpretación del significado de
la probabilidad, en función de las características de las situaciones particulares.
C) El conocimiento estocástico es un conocimiento complejo, su significado no
puede ser agotado en el conocimiento de la propia estructura matemática ni sus
conceptos reducidos a sus definiciones formales, pero tampoco adquiere su sentido
completo a través del estudio de experiencias empíricas inmediatas sin más, pues
transformaríamos al conocimiento estocástico en una colección de recetas o técnicas
concretas. Esta característica es lo que Steinbring (1984) reconoce como la naturaleza
teórica del conocimiento estocástico.
Este punto de vista es analizado a nivel más general por Otte (1984), quien afirma
que el significado del conocimiento matemático, generalmente, no es algo obvio de forma
inmediata, no existen realmente conceptos básicos evidentes por sí mismos; su
comprensión y significado dependen de las representaciones de los objetos, de las
situaciones relacionadas con dichos objetos y sus representaciones, y del trabajo que se ha
desarrollado con dichas representaciones. Esta característica está representada por lo que
Otte (1984) denomina la relación triangular objeto-signo-concepto del conocimiento
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 110
matemático; esta relación es útil también para caracterizar el conocimiento estocástico y
nos permite evitar trabajar aisladamente los cálculos matemáticos por un lado y los aspectos
empíricos por otro.
En la misma dirección, Castro (1994) propone un modelo que nos permite analizar
los diferentes procesos cognitivos y culturales a través de los cuales las personas asignan
significados a los diferentes conocimientos construidos. Propone para ello la necesidad de
diferenciar para su estudio tres elementos:
1.- Unos instrumentos conceptuales: sistemas simbólicos estructurados con los que
expresar los conocimientos y sus relaciones.
2.- Unos modelos de usos de los sistemas simbólicos: actividades cognitivas que
surgen y encuentran un modo de actuación en contextos concretos.
3.- Un campo de actuación: el conjunto de fenómeno, cuestiones y problemas que
admiten ser analizados mediante los conceptos y procedimientos constituyentes de
los propios sistemas simbólicos.
Kapadia y Borovnick (1990) nos ofrecen también una representación similar,
cuando analizan que la enseñanza desde una perspectiva didáctica refleja la relación
triangular entre S: la materia, organizada social o individualmente; R: las partes de la
realidad, que es el mundo "objetivo"; y T: el conocimiento de esa realidad en forma de
teoría. Cada uno de estos elementos está en un extremo del triángulo, la preponderancia de
uno de ellos, la mayor o menor tensión entre alguno de ellos, o entre los tres, representará
las diferentes tradiciones didácticas en el tratamiento del conocimiento matemático en la
escuela.
La consideración de todos estos elementos y sus relaciones es fundamental para el
aprendizaje significativo del conocimiento matemático y más específicamente para el
conocimiento estocástico. Esta necesaria interacción dialéctica entre los contenidos
concretos de las situaciones empíricas y los modelos matemáticos, sin poder reducir el
significado de los conceptos a su expresión formal, establece lo que el grupo de
investigadores del IDM de la Universidad de Bielefeld denomina como carácter teórico del
───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 111
conocimiento matemático (Jankes, 1978; Steinbring, 1980). El conocimiento matemático no
se puede construir independientemente de los objetos sobre los que actúa pues, coincidimos
con Konold (1991) en pensar que, "es un mito que las matemáticas, ya sea como disciplina o en la mente
del matemático, se desarrollen independientemente de los objetos y relaciones que le conciernen con referentes en
el mundo real" (p.141).
En el caso del conocimiento probabilístico esta naturaleza teórica es más evidente,
pues como ya indicamos, hay una clara contradicción entre el rigor requerido en una
definición matemática y el carácter aleatorio de la probabilidad. "El concepto de probabilidad
tiene una curiosa propiedad: tan pronto como uno trata de caracterizarlo de forma no ambigua por medio de una
definición matemática definitiva, ya no ha lugar a lo estocástico. Ya no es asunto del azar. Lo que queda son
ciertos hechos matemáticos y de cálculo bien determinados, principalmente teoría de conjuntos, cálculo de
proporcionalidad, porcentajes, reglas combinatorias y métodos de contaje, aspectos de geometría elemental,
simples algoritmos, etc." (Steinbring, 1984; p.66).
Por tanto, el propio concepto de probabilidad requiere explícitamente además de su
definición matemática, el signo de un sistema de referencia concreto y el objeto, para la
interpretación tanto de su contenido como de su aplicación. "El concepto surge desde la actividad
del sujeto tratando de comprender la relación entre el objeto y el signo matemático, en aplicación mutua de la
definición matemática respectiva y el caso concreto de aplicación" (Steinbring, 1984; p.76). La
referencia a las aplicaciones es, por tanto, condición imprescindible para el desarrollo y
comprensión del concepto matemático de probabilidad y de su significado como
instrumento para interpretar la realidad. Hecho que hemos venido comprobando a lo largo
de toda su evolución histórica.
D) Pero además nos enfrentamos con otro problema. En el supuesto de que la
probabilidad pudiera ser explícitamente definida desde el punto de vista matemático, su
objeto de estudio, la aleatoriedad y los sucesos aleatorios, presenta también problemas de
caracterización. La naturaleza teórica del conocimiento estocástico es, al igual que para el
concepto de probabilidad, especialmente cierta con la noción de azar; todo intento de
definir el azar o la aleatoriedad muestra que esta idea no puede ser caracterizada a
priori de manera universal y definitiva.
La idea de aleatoriedad y de suceso aleatorio normalmente no es analizada y
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 112
discutida al empezar a trabajar con el concepto de probabilidad; en general, es algo que se
da casi por ya conocido e intuido directamente. Pero, como hemos podido detectar en el
estudio de la evolución histórica y epistemológica de estas nociones, el cómo se conciben y
se explican los sucesos indeterminados y aleatorios constituye un elemento clave en la
comprensión del concepto de probabilidad y en el reconocimiento de sus posibilidades de
estudio. Una inadecuada comprensión del concepto de suceso aleatorio y de aleatoriedad
puede ser un obstáculo epistemológico en la comprensión del conocimiento estocástico.
Idea considerada por muchos autores, como Hietele (1975), Konold y otros (1991),
Steinbring (1991), etc; como ya indicamos en el apartado 2.2.
La aleatoriedad, como nos indica Kyburg (1974), sólo puede ser definida en
función de los instrumentos de los que se disponga para probar el carácter aleatorio del
fenómeno ante el que nos enfrentemos, del cuerpo de conocimiento y de la clase de
referencia que consideremos; no existe una forma única, precisa y universalmente válida
para definir la aleatoriedad o en su caso el azar.
Desde las explicaciones encontradas en los distintos momentos históricos, podemos
suponer que para unas personas el azar y lo aleatorio será, por ejemplo, todo aquello que
tiene que ver con la "suerte" o el "destino" y por tanto incontrolable; para otros simplemente
el producto de nuestra ignorancia sobre ciertos fenómenos, sobre las causas que los originan
o sobre su funcionamiento, lo que conlleva su imposible control; en algunos casos, la
explicación considerada puede estar más en función de la complejidad intrínseca de los
fenómenos y por tanto, de la imposibilidad de una predicción exacta de su resultado; etc.
Todas ellas son susceptibles de ser consideradas pero no todas son idóneas para una
adecuada comprensión probabilística de la realidad. "La aleatoriedad no es simplemente una
propiedad empírica de una situación real dada, es simultáneamente un concepto teórico que debe ser
desarrollado, redefinido y analizado" (Steinbring, 1991; p.145).
Ni la situación empírica por sí misma: el objeto, ni la representación matemática por
sí mismo: el signo o el modelo, pueden expresar el significado completo de la aleatoriedad
y la probabilidad. En términos de Castro (1994), son las actividades cognitivas
desarrolladas por los sujetos, con los signos o modelos construidos, al actuar sobre las
situaciones empíricas concretas, las que permiten la progresiva elaboración y comprensión
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 113
del concepto de azar y probabilidad. El conocimiento estocástico, caracterizado como un
sistema complejo, implica entre otras cosas que se establezca una relación clara entre los
aspectos formales de la teoría y los contextos interpretativos, caracterizada por la relación
triangular objeto-signo-concepto.
Si no se respeta la naturaleza del conocimiento estocástico, el intento de definir
conceptos como aleatoriedad o probabilidad de forma universal y definitiva, sin
consideración a referentes empíricos, nos conduce a un círculo vicioso. En su modelización
matemática, estos dos conceptos, sobre los que se apoya toda la estructura del Cálculo de
Probabilidades, en general no son cuestionados ni analizados y son dependiente uno del
otro. "Uno es capaz de hablar de probabilidad sólo si conoce el concepto de suceso azaroso o aleatoriedad; o
viceversa, el azar sólo puede ser comprendido y caracterizado matemáticamente después de ser introducido el
concepto de probabilidad" (Steinbring, 1991; p.142).
Esta característica peculiar la encontramos en otros muchos conceptos estocásticos,
y es lo que Harten y Steinbring (1984) denominan circularidad del conocimiento
estocástico. Un ejemplo histórico muy conocido, y apuntado en ocasiones anteriores, es la
introducción del concepto de equiprobabilidad. Cuando autores como Laplace o Bernoulli
introducen el concepto de equiprobabilidad se basan en el reconocimiento de sucesos con
igual posibilidad de ocurrencia, es decir en sucesos equiprobables; la definición del
concepto se basa en la idea subyacente del propio concepto, que depende a su vez del
concepto de probabilidad. Esta simbiosis entre ambos conceptos ha sido determinante tanto
a la hora de su evolución, limitando su campo de aplicación, como en las concepciones de
los sujetos. Investigadores como Konold y otros (1991) o Lecoutre y Duran (1988) han
detectado la presencia de explicaciones basadas en la equiprobabilidad como característica
intrínseca de los sucesos aleatorios. Ideas que pueden representar un claro obstáculo
epistemológico a la hora del desarrollo del pensamiento probabilístico.
Reflexiones finales
Todas las ideas expuestas en las líneas anteriores sobre las peculiaridades del saber
estocástico y sus implicaciones didácticas, se pueden sintetizar en las consideraciones
recogidas en el Cuadro 9. Comprender un concepto estocástico requiere explorar el
concepto en sí mismo por extensión y aplicación, no es posible obtener una comprensión
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 114
completa del concepto por deducción lógica o definición única; son conceptos que alcanzan
su máxima significación en un proceso en espiral, según el cual ampliando el campo de
aplicación se aumenta la comprensión del concepto, lo que a su vez permite ampliar de
nuevo el campo de aplicación en una continua interacción entre modelo-objeto. Steinbring
(1980) describe esta necesaria relación dinámica entre la teoría y las aplicaciones a través
del principio de complementariedad. Este principio determina que los conceptos
estocásticos, como aleatoriedad o probabilidad, han de ser simultánea y
complementariamente comprendidos, como elementos teóricos del Cálculo de
Probabilidades y como objetos relacionados con un contexto de aplicación. Es la
interacción entre ambos aspectos lo que permite la evolución en el conocimiento
estocástico.
Cuadro 9: implicaciones
Es necesario disponer, por parte de los profesores, de una perspectiva histórica,
epistemológica y cultural del conocimiento estocástico, sus relaciones con otros dominios
de la ciencia y de la práctica, así como de las ideas filosóficas básicas más relevantes, para
poder llegar a caracterizarlo comprensivamente. Este metaconocimiento, como le llama
Biehler (1990), es parte fundamental del conocimiento profesional de los profesores, y
especialmente de los profesores de Primaria, responsables de su introducción en las aulas y
en los modos de pensamiento de los niños.
La comprensión del carácter teórico de este conocimiento y de sus consecuencias
permitirá establecer un equilibrio adecuado entre los aspectos subjetivos y objetivos en los
procesos de enseñanza y aprendizaje, y recogiendo en una proporción adecuada las
relaciones entre la probabilidad y la aleatoriedad, a través de las diferentes formas de
representación e interpretación. La idea de que su desarrollo conceptual es un proceso en
espiral, dependiente de la necesaria complementariedad entre lo teórico y lo empírico, no
solamente es útil para explicar la evolución del conocimiento, sino también para
comprender y planificar los procesos de interacción en el aula. Todo lo anteriormente
expuesto supone evitar los caminos unilaterales y lineales en los procesos de enseñanza. El
trabajo desarrollado en el aula debe establecerse desde perspectivas que reflejen un proceso
cíclico, con avances progresivos en la complejidad de las situaciones, de sus
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 115
representaciones y de la actividad desarrollada.
La teoría formal matemática sólo puede adquirir su total significado en el
desarrollo del proceso de enseñanza contextualizada, éste debe reconocer las
peculiaridades del conocimiento estocástico y su faceta epistemológica.
Todos estos aspectos son elementos de lo que hemos denominado conocimiento
profesionalizado del contenido, pues, al ser características fundamentales de la
naturaleza del conocimiento estocástico, han de ser tenidas en cuenta, a la hora de su
tratamiento en el aula de Primaria, como condiciones ineludibles para la iniciación
idónea de los niños en el pensamiento probabilístico. Y, como consecuencia directa, la
consideración de estos aspectos y la reflexión sobre ellos y sus implicaciones, han de
estar presentes en el diseño y desarrollo de aquellos procesos de formación cuyo
objetivo sea la elaboración de un conocimiento profesional significativo sobre el tema.
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 116
3.1. INTRODUCCIÓN
Este capítulo está dedicado al estudio y reflexión sobre las condiciones del
aprendizaje y de la enseñanza del conocimiento estocástico en general y de las nociones de
aleatoriedad y probabilidad en particular. Aspectos que consideramos como elementos
imprescindibles del conocimiento profesional de un profesor que ha de tratar esta temática
en el aula, y por tanto, referente obligado en los procesos de formación. Como indicábamos
en el primer capítulo, dicho estudio nos aportará información significativa sobre las
características del conocimiento cotidiano, entendido éste como el que tiene el adulto medio
y está enraizado en la "cultura" media de nuestra sociedad, así como su posible evolución
hacia formas más elaboradas.
Esta información es relevante a la hora de intervenir en los procesos de aprendizaje
escolar desarrollados en las aulas. Como nos dice Rodrigo (1994), el niño, "debe compatibilizar
su conocimiento cotidano con las nuevas interpretaciones que recibe en la escuela,...,necesariamente va a tener
que partir del conocimiento cotidiano como base constructiva sobre la que edificar el conocimiento escolar",
además, "los alumnos no cuentan con procedimientos eficaces, certeros y sistemáticos para construir su
conocimiento escolar. En principio, cuentan con los mismos procedimientos que el hombre de la calle..." (p.12-
13). Por ello, los estudios sobre el desarrollo, el aprendizaje y las formas de intervención en
dicho proceso, son fuente fundamental del conocimiento práctico profesional.
En primer lugar, y antes de introducirnos en el estudio específico del campo
psicogenético, dedicaremos unas líneas a un breve estudio sobre "el sentido común" de los
términos "azar", "aleatorio", "probabilidad" y sus equivalentes; es decir, sobre el uso y
significado que tienen en la vida cotidiana. Todo proceso de adquisición y, por tanto, de
comprensión de un concepto, parte de las creencia e ideas previas que sobre él posea el
individuo. Un reflejo de estas concepciones es el uso de los términos que lo representan en
el lenguaje informal. El sentido que se da a estos términos en el lenguaje ordinario, y su
posible influencia en la toma de decisiones de los individuos en situaciones de
incertidumbre. Según Sierpinska (1991), el análisis de las palabras y expresiones utilizadas
en describir o interpretar situaciones relacionadas con el concepto a estudiar, en nuestro
caso el azar, lo aleatorio y la probabilidad, puede facilitarnos un acercamiento a la
comprensión de las concepciones en que se apoyan. Este análisis será básico para
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 117
comprender el desarrollo del pensamiento probabilístico en el individuo, puesto que sobre
estas creencias primarias se cimentará toda la evolución posterior.
En segundo lugar, nos acercaremos al mundo probabilístico desde una perspectiva
de carácter psicogenético que nos permita conocer el proceso de formación de estas
nociones en los sujetos, y detectar los estados de conocimiento cualitativamente diferentes
en función de las condiciones individuales y contextuales, así como detectar el sentido de
su evolución.
Para analizar la problemática del desarrollo del pensamiento probabilístico, y en
consecuencia del aprendizaje del conocimiento probabilístico, hemos acudido en primer
lugar a una ciencia básica, la Psicología, y dentro de ella a las distintas teorías que sobre el
desarrollo del razonamiento probabilístico coexisten. La revisión efectuada, nos permite
acercarnos a las distintas perspectivas desde las que se discute el desarrollo y adquisición
del conocimiento probabilístico, analizar su complejidad y la dificultad no sólo de su
elaboración, sino también de su utilización en las situaciones de la vida cotidiana.
Información de vital importancia para el desarrollo de la actividad docente.
A continuación, ya más centrados en la información procedente de la Didáctica de la
Matemática, hemos analizado las investigaciones realizadas sobre las concepciones e ideas
de los niños acerca de estas nociones, los niveles conceptuales que manifiestan, y sobre los
procesos de instrucción experimentados en relación con este campo de conocimiento,
focalizadas en los primeros niveles de la escolaridad. Esta es una información que también
consideramos parte importante del conocimiento profesional, pues la información sobre las
concepciones de los alumnos y sus formas de razonamiento es un referente necesario para la
toma de decisiones curriculares. En este campo del conocimiento matemático hay un
número reducido de trabajos, en comparación con otros campos como el aritmético o el
geométrico, y aún más si nos restringimos a niños comprendidos entre 6 y 12 años, edades
propias de la Educación Primaria.
Nos detendremos después en una revisión y reflexión sobre las propuestas y
materiales curriculares que se han desarrollado sobre el tema, reflejo directo del progresivo
reconocimiento de su papel relevante en la sociedad y en la formación de los individuos.
Analizaremos la propuesta para el nivel de Primaria recogida en el nuevo proyecto
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 118
curricular del sistema educativo español, contrastándola con algunos proyectos o propuestas
puntuales centradas en el desarrollo del tratamiento del conocimiento probabilístico en las
aulas. Nos interesa analizar tanto el contenido reflejado en las distintas propuestas
curriculares, como las orientaciones metodológicas recogidas. La información acerca de las
diferentes propuestas metodológicas nos permitirá apreciar los presupuestos
epistemológicos subyacentes sobre su naturaleza y su aprendizaje.
Por último, analizaremos la problemática peculiar y compleja de la enseñanza de
este campo del conocimiento matemático, condicionada por su especial naturaleza
epistemológica y por las condiciones de su aprendizaje. Trataremos también de la
formación necesaria de los profesores de Primaria para afrontar esta problemática y del
papel de las concepciones de los profesores en el proceso formativo.
3.2. EL LENGUAJE DEL AZAR. UNA VISIÓN FENOMENOLÓGICA
SOBRE LOS JUICIOS PROBABILÍSTICOS
Es una premisa fundamental de la epistemología actual que toda construcción de
conocimiento se apoya en las ideas iniciales de los individuos; en particular la comprensión
de todo concepto matemático tiene como punto de partida nuestras concepciones o
intuiciones primarias. Esta primeras ideas son producto de la interacción con el entorno y se
reflejan en el lenguaje ordinario utilizado en la vida cotidiana. El lenguaje traduce y
transfiere en enunciados lo que se ha ido construyendo en la mente. Hay un fuerte consenso
en aceptar que para traducir gran parte de nuestro pensamiento necesitamos la mediación
del lenguaje (Chomsky, 1968; Piaget, 1966; Vygotski, 1981).
"El lenguaje, que es el instrumento del pensamiento, utiliza para constituirse una infraestructura
computante (fónica, alfabética, sintáctica/gramatical `profunda') (Morin, 1988; p.137). Un elemento
constituyente de esa infraestructura son los "signos". Los "signos" (caracteres escritos y
sonidos) están asociados generalmente con el contenido de alguna experiencia, como decía
Leibniz "los signos son todo aquello que utilizamos en lugar de las cosas y las ideas
cuando pensamos" (recogido en Sánchez-Mazas, 1992). Desde Saussure, padre de la
lingüística estructural, se viene reconociendo la importancia del signo lingüístico en cuanto
unidad básica de análisis. Para él un signo lingüístico es la correspondencia entre un
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 119
significante, su "imagen acústica" y un significado, el representante de la idea (Saussure,
1987).
En el lenguaje encontraremos palabras y expresiones que sirven para describir
situaciones en las que están implicadas ciertos hechos e ideas. Como ya apuntábamos en las
primeras líneas de este capítulo, el análisis del significado que atribuimos normalmente a
esas palabras y expresiones, en los distintos contextos en los que las utilizamos, nos
permitirá ser conscientes de las concepciones que subyacen sobre dichas ideas (Sierpinska,
1991). Se pueden diferenciar diversos aspectos:
A) El uso informal de los términos. Pensamos que es oportuno comenzar desde el
análisis del uso informal, de los términos que luego representarán un concepto matemático,
en la conversación cotidiana. Nos limitaremos a un breve acercamiento al tema, dada
nuestra poca especialización en el mismo, y la inexistencia de estudios sistemáticos, desde
el punto de visto filosófico, matemático o lingüístico, sobre este campo semántico concreto,
que podamos utilizar como referente.
Como ya hemos indicado nuestra vida cotidiana está rodeada de infinidad de
fenómenos aleatorios, los individuos se enfrentan a numerosas situaciones en las que está
implicada la incertidumbre y en las que tienen que tomar decisiones contando con una
cantidad limitada de información. Son situaciones relacionadas fundamentalmente con:
El mundo social: Pólizas de seguros. La bolsa. El ocio y los juegos: loterías,
quinielas. Etc.
El mundo político: Índice de precios al consumo. Tasas de población.
Votaciones. Índice de Popularidad. Etc.
El mundo físico: Tiempo atmosférico. Estimación de errores. Fiabilidad y
control de aparatos y dispositivos. Etc.
El mundo biológico: Herencia genética. Transmisión de enfermedades. Crecimiento
de la población. Etc.
Por indicar algunos ámbitos significativos.
La interacción continua con este tipo de fenómenos en situación de intercambio
social, conduce a elaborar una idea intuitiva y espontánea del azar, y a introducir en
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 120
expresiones cotidianas términos como probable, azar, suerte, imposible, etc. Es decir, los
individuos "tienen una comprensión que les permite usar estas palabras en enunciados que son comprensibles
a otras personas en situaciones cotidianas" (Konold, 1991; p.144). La referencia al mundo de lo
probable, al estar presente en gran parte de nuestras acciones diarias, genera un gran
número de términos y vocablos del lenguaje usual, a los que vamos otorgando diferentes
significados. Como nos dice Black (1984) "El habla del lego sobre la probabilidad se halla dominada
por la imaginación pictórica y la cruda mitología, agazapadas justo a flor de piel. No está claro cuánta sea la
influencia que ejerce tal imaginación," en la concepción de estas nociones (p.96).
Los niños desde muy pequeños utilizan estas palabras u otras sinónimas en sus
conversaciones, "la rapidez e inventiva con que el niño desarrolla el lenguaje son indicaciones interesantes de
que los niños pueden hacer frente a sistemas estocásticos muy pronto en su vida" (Hawkins y Kapadia,
1984; p.354). De hecho algunos estudios realizados prueban que tanto en los niños como en
los adultos son comunes las falsas intuiciones sobre el azar (Shaughnessy, 1981). A partir
de este lenguaje primitivo y a través de un proceso de aprendizaje que permite analizar la
estructura de la realidad, el niño irá modificando progresivamente sus formas de expresión.
Es decir, no sólo es imposible eludir el lenguaje ordinario sino que es necesario volver a él
como referente (Sanz, 1990).
El sentido que las personas otorga a las palabras "emerge de todo un proceso
psíquico/cerebral, el cual se efectúa a partir del fondo cultural y a partir de nuestra experiencia" (Morin,
1992; p.173). A lo largo de nuestra vida ese sentido va evolucionando en función de las
experiencias vividas y de las nuevas construcciones conceptuales. El habla, aspecto
individual, y en su lugar el lenguaje, aspecto social, esta dotado de vida propia, "las palabras
nacen, se desplazan, se ennoblecen, se pervierten, se deterioran, mueren" (Morin, 1992; p.172). Es el
proceso histórico de los "signos" que constituyen toda lengua: nacen en un momento de la
historia con un significante y un significado específico, ambos evolucionan modificándose
progresivamente y en algunos casos llegan a desaparecer, es decir, mueren. Como apunta
Sanz (1990), el signo "no tiene una existencia fija, pues puede variar su contenido y su forma expresiva"
(p.182).
B) El uso formal, no matemático, de los términos. Por ejemplo, la palabra
"Suerte" que proviene etimológicamente del término latino "Sorti", en su origen tenía un
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 121
significado neutro, recordemos su relación con la acción de ciertos dioses como Tyche o
Fortuna, es decir no se le asociaba ni un sentido positivo ni negativo, sin embargo su
significado actual esta más orientado al valor positivo de un hecho. Podemos tomar como
ejemplo la propia evolución de los términos "azar" o "probabilidad" cuyo significado ha ido
variando a lo largo de la historia. En general, el significado atribuido a un signo evoluciona,
complicándose progresivamente a medida que crecen las capacidades de la humanidad y su
desarrollo social.
Por ejemplo, con respecto al término azar, el Diccionario de la Lengua Española de
la Real Academia, define su significado como "casualidad, caso fortuito, desgracia
imprevista"; más cercano al sentido común de la palabra es la definición que encontramos
en el Diccionario del uso del Español de Mª Moliner, "supuesta causa de los sucesos no
debidos a una necesidad natural ni a una intervención intencionada, humana ni divina".
En el Diccionario Crítico Etimológico Castellano e Hispánico de J. Corominas,
podemos ver sus progresivas acepciones Azar:"cara desfavorable del dado; mala suerte,
desgracia, riesgo; casualidad, caso fortuito"; su origen se remonta a la palabra árabe "zahr:
dado", imagen que nos evoca un fenómeno aleatorio por excelencia, el lanzamiento de
dados. La acepción última, causalidad o caso fortuito, según nos indica este autor, es la más
corriente a partir del siglo XVIII.
En el habla ordinaria encontramos fácilmente multitud de términos con un
significado similar al de azar, su utilización suele depender del contexto. Nos referimos a
términos como casualidad, accidente, "chamba", suerte, eventualidad, etc. y todos sus
equivalentes semánticos que aparecen en el lenguaje cotidiano en forma de adjetivos
(casual, imprevisto, contingente, esporádico, fortuito, aleatorio, eventual), de adverbios
(eventualmente, incidentalmente, aventuradamente) o de expresiones coloquiales (por
fortuna, a ciegas, sin querer), todos ellos recogidos como familia de vocablos sinónimos en
el Diccionario Ideológico de la Lengua Española de J. Casares. El uso cotidiano de estos
términos desde edades muy tempranas, muestra una clara percepción del carácter
imprevisible de ciertos fenómenos de la realidad, sobre los que no se conoce una causa o
efecto determinado (Díaz Godino, Batanero y Cañizares, 1988).
De todos los términos señalados, el más relacionado con el lenguaje matemático es
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 122
el de "aleatorio", característica que, desde la Matemática, se da a los fenómenos que desde
el mundo filosófico o real se atribuyen al azar, aunque con ciertas restricciones. Su uso no
es tan común y cotidiano en nuestra conversaciones y depende más del nivel de
comprensión del concepto que representa. Mª Moliner en su Diccionario define como
aleatorio aquello que es "Incierto. Se dice de lo que depende de la suerte o el azar", de
forma parecida es recogida en el Diccionario de la Real Academia "Perteneciente o relativo
al juego de azar, dependiente de algún suceso fortuito". Esta palabra proviene del vocablo
latino aleatorius: "propio del juego de los dados" que es derivado a su vez de alea-ae:
"sorte de jeu de dés" (suerte del juego de dados), como recoge el Diccionario Etymologique
de la Langue Latine de Ernout y Meillet.
Como observamos, el origen de todos estos términos esta relacionado con el juego,
como la propia teoría matemática de la probabilidad, y en algunos casos con el sentido
negativo de los juegos. Ha sido con el paso del tiempo cuando su sentido se ha generalizado
hasta representar lo que hoy reconocemos como fenómenos fortuitos e imprevisibles, en
contraposición a los sucesos determinados y previsibles. El sentido que tienen y con el que
son utilizados, los distintos términos que representan lo fortuito, determinan la imagen que
elaboramos de los fenómenos imprevisibles. Así, si se consideran a dichos fenómenos
como dependientes de la suerte exclusivamente, tanto en su sentido positivo como negativo,
se suelen relacionar con la imposibilidad de prever su funcionamiento; su manejo
imposible.
C) La aleatoriedad y sus límites. Los sucesos aleatorios se presentan como
imprevisibles en un mayor o menor grado. Pero también aparecen ciertas regularidades que
nos permiten indagar en las posibilidades futuras. Cuando nos encontramos en presencia de
un acontecimiento aleatorio; es decir, aquel cuya ocurrencia está en un punto entre lo
seguro y lo imposible, estimamos de forma aproximada el grado de confianza en la
ocurrencia de tal suceso. Lo cual nos permite tomar determinadas decisiones que, en
general, como reconoce Lindley (1977), suelen ser incoherentes, y además nos permite
enunciar proposiciones que reflejen dicho grado de confianza.
Para elaborar dichas proposiciones, utilizamos diversos términos relacionados con
el mundo de lo posible y lo probable, que nos permiten graduar la fuerza el valor de nuestra
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 123
afirmación sobre la ocurrencia del fenómeno, a veces hasta expresada numéricamente.
Subyacentes a estos términos existe una cierta imagen de la incertidumbre. Entre "nunca" y
"siempre" hay un gran número de términos que reflejan diferentes niveles de gradación
(imposible, posible, raro, escaso, frecuente, común, etc.), que en verdad sólo sirven para
poner limites a la propia realidad a la que nos enfrentamos (Saussure, 1987). Estos
términos, como se detecta en algunos estudios realizados, suelen ser interpretados de
diferentes formas por diferentes sujetos, e incluso por el mismo sujeto en diferentes
contextos (Budescu y Wallsten, 1985). En general, en el lenguaje ordinario no hay una
unicidad de interpretación en el campo semántico del mundo de lo probable. Sus términos
actúan simplemente como unos operadores modales que permiten construir afirmaciones no
categóricas.
El uso de estos términos en el lenguaje cotidiano es bastante impreciso, y como ya
hemos indicado no existe publicado ningún estudio formal sobre este campo semántico, es
decir sobre los usos y significados de sus términos, que permita establecer claramente
interrelaciones entre el pensamiento probabilístico y el lenguaje.
D) Lo probable, lo posible. Un apunte etimológico. Un primer acercamiento al
lenguaje cotidiano nos permite observar como las palabras utilizadas principalmente en las
manifestaciones más usuales son el sustantivo "probabilidad", el adjetivo "probable" o el
adverbio "probablemente" y todos sus posibles sinónimos (Black, 1984). En el diccionario
de J. Casares encontramos como tales: posibilidad, contingencia, verosimilitud,
eventualidad, etc.; posible, factible, viable, admisible, etc.; posiblemente, eventualmente,
quizás, etc. Revisando el significado del término "probable" en el diccionario de la Real
Academia, encontramos como definición "dícese de aquello que hay buenas razones para
creer que se verificará o sucederá. Que se puede probar. Verosímil o que se funda en razón
prudente". Al término, aparentemente equivalente, "posible" se le define como aquello "que
puede ser o suceder, que se puede ejecutar". Si observamos bien las dos definiciones,
existe una pequeña diferencia. Sólo ante lo probable se alude a razones previas; es decir, a
una cierta evidencia que indica que puede suceder el acontecimiento, condición no recogida
en la definición de posible, más relacionado con la voluntad del sujeto o con una propiedad
intrínseca del hecho, aparentemente es más de carácter ontológico (Pérez Echeverría, 1988).
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 124
Esta diferencia proviene de su sentido etimológico. Ambas palabras tienen origen
latino, pero encontramos dos orígenes etimológicos diferentes en el diccionario etimológico
de Corominas. La palabra "posible" es un cultismo derivado de la palabra latina "Potere:
poder"; por tanto con un sentido más relacionado con "poder ser". Sin embargo la palabra
"probable" es un derivado de "Probare: probar, ensayar", como algo factible de ser
probado, "cosa que se prueba". Si analizamos el sentido etimológico latino de la raíz
"Probus-a-um", en el diccionario de Ernout y Meillet, encontramos como significado
original el de aprobación o probación que, en el sentido moral, hace referencia al "hombre
noble", significado muy corriente en la Edad Media y relacionado con la propia evolución
del significado del término probabilidad, como ya analizamos en el apartado 2.3.
E) La probabilidad como grado de verosimilitud. Retomando el análisis del
lenguaje cotidiano, se puede observar como el uso del adverbio "probablemente" es el más
común. Se utiliza para hacer referencia a sucesos de cuya ocurrencia no se tiene certeza en
el momento de la afirmación, pero se tiene, una cierta evidencia para creer, con un alto
nivel de confianza, en lo propicio de su ocurrencia. Se usa en proposiciones con carácter
más bien asertivo, afirmación del suceso, pero que a la vez recogen un cierto
reconocimiento de una falibilidad o fallo. Las gradaciones a las que nos hemos referido
unas líneas atrás, también se reflejan en forma de adverbios comparativos como "poco
probable", "algo probable", "muy probable", "casi seguro", etc., cuya máxima intensidad
podría estar representada por la expresión "seguramente", o también por la palabra
"verosímil", para significar aquello que tiene apariencia de verdadero pero no tenemos la
certeza absoluta sobre ello. Ambos términos - seguramente y verosímil - son utilizados en
muchos casos como sinónimos de "probablemente", pues, como ya apuntamos,
generalmente estas expresiones tienen un fuerte carácter asertivo. Carácter que desaparece
con frecuencia cuando se utiliza el adjetivo "probable" y casi totalmente en los usos del
término "probabilidad" (Black, 1984).
Los enunciados en término de "probabilidad", definido por la Real Academia como
"calidad de probable", tienen en general menos fuerza asertiva. En ellos se representa una
estimación del grado en que las condiciones iniciales, la evidencia con que se cuenta o la
experiencia previa del sujeto, favorecen la realización del suceso. Estas condiciones
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 125
provocan que en el uso ordinario, para realizar estimaciones probabilísticas, se empleen en
general medidas rudimentarias y muy limitadas. Delimitar cuanto de objetiva y válida es
esta estimación es uno de los problemas claves de la formación del pensamiento
probabilístico del individuo.
Ya en el capítulo anterior indicábamos que en la conversación cotidiana cuando
enunciamos proposiciones con el término "probabilidad", habitualmente es utilizado en el
sentido postulado por De Morgan: representa el grado de creencia en una proposición que
recoge una afirmación de la cual no existe completa certeza . Ya que, como analiza Nagel
(1979), cuando una persona enuncia una proposición de este tipo no hace más que
referenciar sus creencias sobre el suceso. Estas creencias la mayoría de las veces se basan
en impresiones generales, presentimientos o experiencias previas, influidas en numerosas
ocasiones por las negociaciones y discusiones en los juegos de azar.
No obstante, Black (1984) sostiene que no hay aserciones sobre probabilidad que
expresen meramente el grado de creencia o confianza del sujeto en la ocurrencia de un
suceso en un sentido puro, pues éstas siempre están filtradas por la propia experiencia del
individuo. "La probabilidad en el sentido común no se identifica con la frecuencia relativa ni con ninguna
relación lógica definible entre proposiciones ni con ningún pretendido estado mental de un juez idealmente
razonable" (p.106). En muchos casos hay una transferencia del sentido determinista de la
realidad a los fenómenos aleatorios: a condiciones iniciales similares, distribuciones de
probabilidad semejantes. En una apreciación similar, en el campo personal, a la que se
corresponde con el momento histórico en el que se le intentó otorgar un valor universal a
las propias leyes probabilísticas. Son muchos los autores que piensan que cuando
manifestamos una opinión sobre un suceso aleatorio es siempre reflejo de una apreciación
empírica. Por ejemplo, el matemático francés M. Fréchet, figura significativa de este siglo
en el estudio de las probabilidad, afirma que "no se puede atribuir valor a las estimaciones de
probabilidad que se hiciesen independientemente de toda idea de repetición de pruebas y de toda consideración de
frecuencia" (Fréchet, 1958; p. 191), otorgándole un vínculo directo con la experimentación.
F) Sobre los juicios probabilísticos. A la hora de analizar los juicios ordinarios de
probabilidad encontramos de nuevo las dos grandes tendencias: la objetiva, basada en la
necesidad de una verificación empírica del juicio emitido y la subjetiva considerada más
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 126
como un "a priori" basada generalmente en el conjunto de conocimientos o creencias del
sujeto. Estas dos tendencias aparecen en el lenguaje ordinario no como incompatibles sino
como complementarios (Figura 13). Si analizamos un proposición de probabilidad emitida
en una conversación habitual, encontramos que, en general, podemos distinguir:
* Unos fundamentos de la aserción, basados frecuentemente en la experiencia
previa y en una consideración de las frecuencias presentadas en casos similares, o
en informaciones de otras fuentes, como pueden ser opiniones de personas o
instituciones con reconocido dominio del tema en cuestión.
* Un cierto grado de confianza del sujeto en la proposición enunciada que le lleva a
tomar ciertas actitudes y decisiones.
* La influencia de la observación, de nuevos eventos y situaciones, que provoca la
progresiva modificación de los juicios.
Figura 13: lenguaje
La variabilidad de las manifestaciones expresadas y, por tanto, de las estimaciones
realizadas, está condicionada por las concepciones previas de los individuos y por los datos
de las propias experiencias. Ideas que conectan con la validez del Teorema de Bayes como
esquema explicativo del proceso de aprendizaje.
Lo anterior tiene grandes consecuencias en el campo de la educación pues plantea
una clara problemática a la hora de diseñar situaciones de enseñanza-aprendizaje que
faciliten el desarrollo del pensamiento probabilístico. Estas situaciones no sólo deben partir
de las concepciones iniciales de los sujetos sino que, dada la naturaleza y significado
ambiguo de la probabilidad, deben recoger y combinar ideas desde diferentes
interpretaciones, y en muy diferentes contextos. De tal manera que dispongan de una rica
experiencia y, a través de estrategias didácticas adecuadas, reelaboren los significados y
otorgen sentidos más precisos a los distintos términos y conceptos (Steinbring, 1984;
Hawkins y Kapadia, 1984).
Si recordamos la revisión presentada en el capitulo anterior, apartado 2.3, con
respecto a la evolución del tratamiento matemático de la probabilidad, observamos que el
uso formal de la noción de probabilidad en el campo del conocimiento científico ha llevado
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 127
a definirla de un modo preciso y cuantitativo mediante su formulación axiomática. Sin
embargo, el análisis filosófico realizado en ese mismo capítulo, apartado 2.4, nos muestra
que el significado del término es un aspecto controvertido y no existe una única visión
sobre la naturaleza de la probabilidad y sus conceptos asociados. En el lenguaje cotidiano
nos encontramos con un problema similar en los usos que se hace del término y de sus
equivalentes semánticos.
La variedad y riqueza de términos que pueden encontrarse en los distintos
diccionarios para expresar lo imprevisible, es exponente de la amplitud de contextos,
situaciones y matices con los que estas nociones se presentan. Un breve ejemplo es la
relación señalada en las primeras líneas sobre la gran variedad de fenómenos aleatorios que
nos rodean en nuestra vida cotidiana. Para el diseño de unidades didácticas relacionadas con
el tema y para su tratamiento general en el aula, sería necesario un análisis fenomenológico
más detallado, en la línea antes señalada.
Este somero acercamiento al uso de los términos que nos sirven para
representar el aspecto fortuito de la realidad, nos permite detectar por un lado, una
gran controversia en el sentido o significado que se les otorga en el lenguaje cotidiano
y, su contraste con el lenguaje formal. Y por otro, comprobar la gran cantidad de
ideas que están relacionadas con el término "probable". Hecho que nos recuerda una
de las conclusiones que extraíamos en el capítulo anterior, al constatar la red de
términos y conceptos que directa o indirectamente están asociados a la noción de
probabilidad: la necesidad de considerar, en todo procesos de enseñanza/aprendizaje,
el significado que para los sujetos implicados, tienen estos términos, entender sus
interpretaciones y reconducirlas sí que es necesario. Esta problemática ha de verse
reflejada en toda situación didáctica cuyo objetivo sea la comprensión probabilística
de la realidad. La negociación de los significados es un elemento clave, no sólo para
construir un discurso común y, en nuestro caso, más cercano al formal, sino también
para provocar la evolución del razonamiento probabilístico del individuo. Sobre las
condiciones y características del desarrollo del razonamiento probabilístico
trataremos a continuación.
3.3. EL RAZONAMIENTO PROBABILÍSTICO. SU APRENDIZAJE Y
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 128
DESARROLLO.
Las investigaciones sobre la adquisición del concepto de probabilidad giran
fundamentalmente alrededor de dos enfoques:
* En torno al estudio de la comprensión del azar en el sentido clásico, representado
por la Teoría Piagetiana, sobre el desarrollo de las nociones de azar y probabilidad.
En torno al aprendizaje probabilístico en situaciones contingentes, aspecto más
relacionado con los trabajos de Fischbein.
En ambos casos se toma como referencia una interpretación objetiva del concepto
de probabilidad. Las investigaciones psicológicas sobre el pensamiento probabilístico
parten, en general, de un enfoque filosófico objetivo pues, como analizan Scholz y Waller
(1983), trabajar en psicología desde los presupuestos de la probabilidad subjetiva es muy
difícil, dada la complejidad a la hora de observar, medir y extraer conclusiones.
Dadas las características de nuestro trabajo, orientado desde la óptica de la
formación de profesores, tienen también una especial relevancia los estudios sobre las
estrategias o mecanismos que ponen en juego, los adultos, en situaciones de incertidumbre
y sobre los sesgos a que dan lugar. Estas investigaciones han sido realizadas
fundamentalmente por Tversky y Kahneman, analizando los heurísticos utilizados por los
adultos y los sesgos que presentan en sus razonamientos. Sus trabajos han servido de base a
numerosas investigaciones en las que el objetivo central estaba más dirigido a la
comprensión y utilización de las nociones ligadas al concepto de probabilidad que al
dominio del cálculo de probabilidades (Shaughnessy, 1977; Moustagin, 1983; Pérez
Echeverría, 1988; Serrano, 1993; etc).
Sobre cada una de estas perspectivas de investigación vamos a intentar extraer
aquellos datos que puedan tener alguna repercusión de carácter didáctico.
3.3.1. EL DESARROLLO DEL RAZONAMIENTO PROBABILÍSTICO. LA
PERSPECTIVA PIAGETIANA
Como en otros muchos aspectos del conocimiento matemático, el trabajo de Piaget
y sus colaboradores sobre el origen y desarrollo de los conceptos de azar y probabilidad,
constituye uno de los estudios más completos realizados en este campo. Sus conclusiones
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 129
están recogidas fundamentalmente en los libros La genése de l'idée de hasard chez l'enfant,
publicado en 1951, y en De la logique de l'enfant à la logique de l'adolescent, publicado
cuatro años más tarde. Es en este segundo trabajo donde estudia, de forma más exhaustiva,
el desarrollo de las complejas nociones de azar y probabilidad como características propias
del pensamiento formal.
Todo el trabajo de Piaget en este campo está inmerso en su propia teoría sobre el
desarrollo intelectual y se centra, por tanto, en analizar los esquemas de comprensión de los
niños, es decir su nivel de desarrollo cognitivo, enmarcándolos en los períodos, ya clásicos,
de la evolución conceptual: preoperatorio, operacional concreto y operacional formal. Por
otro lado, todos sus análisis y conclusiones están condicionados por la propia concepción
piagetiana de la probabilidad, claramente dirigida hacia el significado laplaciano, "la
probabilidad de los acontecimientos constituye precisamente una relación entre los casos realizados y los
posibles" (Inhelder y Piaget, 1985; p.190).
Según Pérez Echeverría (1988), los conceptos de azar y probabilidad interesan a la
Escuela de Ginebra por su implicación en la caracterización del pensamiento formal. Piaget
reconoce como un aspecto propio del pensamiento formal la subordinación de lo real a lo
posible, y considera el concepto de probabilidad como uno de los ocho esquemas
operatorios que emergen en la adolescencia, relacionado directamente con otros tres de
dichos esquemas: operaciones combinatorias, proporciones y noción de correlación
(Inhelder y Piaget, 1985). En la Epistemología Genética de Piaget, con profundas raíces
kantianas, el tema de la causalidad ocupa un lugar central, y los conceptos de azar y
probabilidad aparecen vinculados a ella, Pozo (1987), tanto en su desarrollo ontogenético
como filogenético.
Como ya hemos señalado en anteriores ocasiones, los conceptos de azar y
probabilidad están muy relacionados con el pensamiento causal. Hemos podido observar
como la idea de azar nace a partir del estudio de la causalidad, es la falta de causa aparente
la que lleva al hombre progresivamente a enfrentarse y estudiar el azar, aunque, como
apunta Hacking (1991), dirigido más bien por la búsqueda de su control o domesticación.
Algunos autores consideran que la ontogénesis, aunque no un correlato estricto, sí puede
reflejar una réplica parcial de la filogénesis y, por tanto, algunos de los obstáculos
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 130
significativos detectados en el transcurso de la historia podrían presentarse en el desarrollo
del individuo.
Piaget e Inhelder consideran a los conceptos de azar y probabilidad como conceptos
derivados que se desarrollan progresivamente en la interacción con el medio y en relación
con las operaciones mentales, idea recogida en la introducción de su libro La genése de
l'idèe de hasard chez l'enfant. Consideran que la intuición del azar surge en la búsqueda por
parte del niño del orden y sus causas. La comprensión del azar es complementaria de la
comprensión de la relación causa-efecto (Hoemann y Ross, 1982).
Piaget, no hace ninguna indicación explícita sobre el azar relativa al período
sensoriomotor, período durante el cual la inteligencia consiste básicamente en coordinar
acciones. En sus estudios sobre el pensamiento causal (Piaget, 1965), caracteriza la acción
sensoriomotriz como fundamentalmente causal y afirma que en esta etapa del desarrollo
existe una concepción mágico-fenomenológica de la causalidad, sus acciones pueden
producir "cosas" insospechadas, "cualquier cosa puede producir cualquier cosa, con tal que haya una
sucesión regular" (Piaget, 1974; p.10). Sólo es necesario una contigüidad espacial y temporal
entre los dos hechos (Pozo, 1987). A lo largo de este período el niño llega a aceptar estos
resultados "mágicos" como algo natural de los objetos, independientemente de que se actúe
sobre ellos. Esta concepción "mágico-fenomenológica" de la causalidad podría encubrir las
primeras intuiciones acerca del azar.
En los años siguientes, el niño preoperacional, que posee un pensamiento
irreversible y una ausencia de nociones de conservación, no es todavía capaz de organizar y
comprender los factores que caracterizan los acontecimientos causales. Antes de los 6 años
los niños no tienen definida la relación causa-efecto, al no tener referencias para identificar
el azar, no diferencian entre azar y causalidad y, por tanto, no tiene vía para conceptualizar
lo fortuito (Hoemann y Ross, 1982). Los "milagros" producidos les siguen sin parecer
extraños.
Según Piaget e Inhelder (1951) los niños de este período no diferencian entre lo
posible y lo necesario. "En el nivel preoperatorio, ante el azar los sujetos presentan una actitud paradójica:
esperan que frente a condiciones semejantes los fenómenos se repitan de modo idéntico" (Inhelder y Piaget,
1985; p.191). Aunque quizás no sea tan paradójica pues, como hemos resaltado unas
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 131
páginas anteriores, dicha creencia está bastante generalizada en el ser humano y está
presente en determinadas épocas de la historia. Al principio el niño se desorienta ante lo
inesperado o fortuito, pero luego progresivamente busca causas que justifiquen "más o
menos" las fluctuaciones encontradas. Observa la sucesión regular entre los hechos y, en
general, ante las variaciones encontradas admite que todo es posible, lo que le lleva a la
necesidad de buscar razones ocultas para los hechos.
Por otro lado, el niño de este período es incapaz de construir una relación exhaustiva
de posibilidades, debido a la ausencia en su razonamiento de una estructura combinatoria.
Sólo son capaces de realizar algunas combinaciones de forma empírica y en experiencias
muy cercanas. Es difícil, según Inhelder y Piaget (1985), que el niño pueda estimar
correctamente las posibilidades a favor y en contra de los resultados esperados, ya que no
posee procedimientos combinatorios para realizar un inventario de todos los posibles
resultados de un acontecimiento. El fracaso de los niños pequeños al intentar cuantificar las
probabilidades también está relacionado con su incapacidad para tratar las relaciones parte-
todo pues, para establecer la relación es necesario separar de entre todos los resultados
posibles, los favorables. Explicación justificable desde sus planteamientos, pues como ya
apuntamos, Piaget parte de la definición clásica de la medida de la probabilidad y la
relaciona con los esquemas operatorios de las proporciones y de las operaciones
combinatorias. Sin embargo, el niño preoperatorio pueda acceder a estimaciones de carácter
más subjetivo, sin valoraciones sistemáticas de los hechos, pero que le permiten ir
percibiendo la incertidumbre como una característica de la realidad, diferente de la relación
causal.
Ya en la etapa de las operaciones concretas los niños van construyendo
progresivamente modelos que les permiten realizar inventarios de todas las combinaciones
posibles en casos sencillos y manipulables, e ir alcanzando procedimientos rudimentarios
de cálculo.
En este período del desarrollo se supone alcanzado un pensamiento interiorizado,
reversible e integrado en una estructura lógica de conjunto. Pero, ante la ausencia de una
capacidad combinatoria total, el niño sólo logra establecer relaciones causales lineales.
Poco a poco comienza a comprender la interacción de cadenas causales que llevan a
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 132
sucesos impredecibles, y a la irreversibilidad de los fenómenos aleatorios, pero al estar
ligado a lo concreto está limitado por el contexto y el contenido sobre el que está actuando.
En esta etapa del desarrollo el niño está aún carente de un sistema completo operatorio que
le permita enfrentarse con éxito ante situaciones probabilísticas complejas y con gran
número de posibles alternativas (Hoemann y Ross, 1982).
Según Inhelder y Piaget (1985), el azar comienza a asimilarse mediante la búsqueda
del motivo o causa que ha provocado la desviación de lo esperado. El desarrollo progresivo
de la noción de azar lleva al niño a descubrir lo indeterminado en oposición a lo
determinado. El azar, como aquello no determinado se va descubriendo como oposición a
lo deducible, el niño de este período es capaz de discriminar claramente dos tipos de
sucesos. Ello desencadena en el sujeto el comienzo de la disociación entre lo posible, lo
real y lo necesario, indiferenciados en el estadio preoperatorio, y progresivamente llegar a
distinguir lo fortuito de lo deducible, tarea esencial del razonamiento experimental e
inductivo (Inhelder y Piaget, 1985).
La disociación entre lo posible y lo real permite la aparición de una primera noción
de probabilidad a través del establecimiento de una relación entre los casos favorable y los
casos posibles. "Pero, en el nivel concreto, la determinación de lo posible, y, en consecuencia, de lo probable,
sólo se limita a los casos en que le es accesible al sujeto una composición operatoria, vale decir, los casos de
composición aditiva, en oposición a las combinaciones combinatorias" (Inhelder y Piaget, 1985; p. 272).
Es decir, donde es posible utilizar combinaciones de tipo aritmético sin necesidad de
establecer relaciones de tipo combinatorio.
Como analiza Flavell (1984), el pensamiento del niño de este período sigue muy
ligado a lo concreto y suele partir siempre de la realidad, sólo recurre a la posibilidad a
regañadientes, lo posible sólo se concibe como una prolongación de lo real y, en general, no
abandona los limites de la realidad empírica perceptible Su razonamiento es empírico-
inductivo.
En el último estadio del desarrollo, el de las operaciones formales, el sujeto
desarrolla las capacidades combinatorias y por tanto las relaciones causales se vuelven más
complejas e integradas y se independizan del contenido que intentan explicar. El
pensamiento formal aparece coordinado en un sistema general en el que están incluidos las
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 133
operaciones combinatorias, a través de las cuales, la lógica de las proposiciones logrará
situar lo real en un conjunto de transformaciones posibles. Ello supone una inversión de
sentido en la relación entre lo real y lo posible.
Las operaciones concretas eran transformaciones que se referían de un modo directo
a lo real, el nuevo carácter del pensamiento formal expresa su capacidad de ir más allá,
alcanzando todo el sistema de combinaciones hipotético-deductivas, y por lo tanto,
simplemente posibles. "Por más general que sea, el carácter combinatorio del pensamiento formal se
subordina entonces a una propiedad más general aún: la subordinación de lo real a lo posible" (Inhelder y
Piaget, 1985; p.216).
Siguiendo a estos autores, a partir de los 12 años aproximadamente la deducción
comienza a efectuarse a partir de lo posible, la hipótesis, para desembocar en lo real,
concibiendo éste como la parte de las combinaciones posibles que se han hecho realidad.
De esta forma el razonamiento formal provee de un marco de referencia para comprender el
suceso fortuito en general.
La noción de probabilidad puede entonces adquirir una mayor precisión al constituir
una relación definida entre los resultados favorables y todos los posibles, calculados en
función de las combinaciones. "Esta noción combinatoria de la probabilidad es la que se puede considerar
como un esquema operatorio de naturaleza formal" (Inhelder y Piaget, 1985; p.272), reafirmando su
interpretación laplaciana de la probabilidad.
En esta etapa del desarrollo ya no sólo se busca saber que ocurre, sino también las
causas que han originado las variaciones de lo esperado. Al principio de este estadío los
individuos sólo diferencian entre casos favorables y casos posibles, pero progresivamente
van construyendo la relación entre los favorables y los desfavorables, que es lo que Nagel
(1979) llama contingencia de un fenómeno.
Como ya sabemos, Piaget afirma que en este período se constituyen los ocho
esquemas operatorios, cuatro de los cuales tienen una estrecha relación con el desarrollo del
pensamiento probabilístico: las operaciones combinatorias, las proporciones, la noción de
probabilidad y la noción de correlación. La adquisición, por ejemplo, de la noción de
proporción, como relación entre la parte y el todo, influye directamente en la comprensión
del cálculo de probabilidades, al igual que la adquisición de las operaciones combinatorias,
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 134
que supone la capacidad de usar procedimientos sistemáticos para realizar inventarios.
Como recoge Díaz Godino, Batanero y Cañizares (1988), esto implica que a partir
de la adolescencia, al enfrentarse a una situación aleatoria, esta se hace inteligible por
medio de los esquemas operacionales; es la síntesis entre la comprensión intuitiva del azar y
las operaciones, lo que lleva al sujeto a la comprensión de la probabilidad. Los conceptos
de azar y probabilidad se comprenden y asimilan en este estadío dentro del marco lógico-
matemático formal.
En resumen, hemos observado que según las tesis piagetianas podemos distinguir
(Figura 14):
Figura 14: Piaget
* Un primer momento que se caracteriza por una concepción
fenomenológica-mágica de la causalidad, que encubre toda posible intuición del
azar.
* Un segundo período, el preoperatorio, que se caracteriza por la ausencia de
distinción entre los sucesos aleatorios y causales. Los niños de estas edades no
pueden construir la diferencia entre sucesos necesarios, y por tanto predecibles, y
aleatorios, no predecibles, pues no pueden establecer relaciones lógicas que les
permitan comprender porqué ocurren los sucesos. Sin poder llegar a discernir, lo
posible de lo necesario.
* Una tercera etapa en la que esta diferenciación aparece progresivamente,
lo posible es simplemente una prolongación de lo necesario y real. Los sujetos
pueden llegar a reconocer la necesidad lógica de la ocurrencia de los sucesos
determinados y diferenciarlos de aquellos que no pueden ser representados por
relaciones operativas concretas, los aleatorios. El azar y lo posible, existen como
una realidad "no ordenable". Surge paralelamente la capacidad de cuantificar las
probabilidades, pero con un conjunto incompleto de estrategias.
* En la última etapa del desarrollo, se elaboran las composiciones
probabilísticas como síntesis del azar y de las operaciones deductivas, y son
integradas en la estructura operatoria del individuo. Con ello se desarrolla la
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 135
capacidad de distinguir entre azar y necesidad, habilidad que Piaget sitúa en la base
del concepto de probabilidad. En el razonamiento adulto lo posible, lo real y lo
necesario no sólo son diferenciados, sino que pasa a dominar el mundo de lo
posible, de lo hipotético y a él se subordina la realidad.
No cabe la menor duda de que el trabajo de Piaget y sus colaboradores sobre el
origen y el desarrollo de los conceptos de azar y probabilidad es uno de los estudios más
completos realizados sobre este tema y como gran parte de la obra de Piaget es
controvertido. Al margen de revisiones y críticas más generales (Flavell, 1968; Vuyk, 1984;
Flavell, 1984; Carretero y Madruga, 1984; Palacios, Marchesi y Carretero, 1985; etc), su
obra ha dado origen a gran cantidad de trabajos, unos con resultados que corroboran las
tesis de Piaget (Hoemann y Ross 1971; Ross y Hoemann 1975; Chapman 1975; Hoemann y
Ross, 1982; etc), y otros muchos que reflejan opiniones disconformes, considerándolos en
muchos casos, vinculados a trabajos con poco rigor experimental y con interpretaciones
ambiguas.
Algunos de los aspectos más problemáticos en toda la teoría piagetiana son: la
asignación de los sujetos a los diferentes períodos del desarrollo sobre el único criterio de la
edad, sin tener en cuenta el contexto y el marco etno-cultural (Hoemann y Ross, 1982); y el
uso de diferentes tareas con grupos de diferentes edades, que deja latente el problema de la
equivalencia de las situaciones experimentales y de las conclusiones extraídas (Hawkins y
Kapadia, 1984).
Desde presupuestos distintos a la perspectiva piagetiana se ha intentado comprobar
la no correlación entre la edad y los logros establecidos por Piaget. Un gran grupo de
trabajos, próximos al paradigma conductual, se centraron en intentar demostrar que los
sujetos preoperatorios tienen una cierta idea intuitiva del azar y de la probabilidad (Yost,
Siegel y Andrews, 1962; Estes, 1964; Davies, 1965; Goldberg, 1966; etc.). Sus resultados
indicaron en muchos casos, que los niños en edad preescolar son capaces de actuar en tareas
probabilísticas por encima de lo previsible. De hecho, "hay muchas teorías psicológicas (y apoyos
empíricos) que sugieren que el hombre puede ser capaz de hacer juicios probabilísticos desde los primeros
estadíos de su desarrollo cognitivo" (Hawkins y Kapadia, 1984; p.353).
Desde los planteamientos de la Teoría de la Información también se han realizado
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 136
numerosas investigaciones en este sentido. Una de las más conocida es la de Brainer (1981)
quien llevó a cabo una serie de experiencias sobre juicios probabilísticos con niños de
preescolar y de la escuela primaria. En sus conclusiones expone que es la limitada
capacidad de los niños más pequeños para retener información, y no la ausencia de
estructuras cognitivas adecuadas, lo que influye negativamente en las tareas o juicios
probabilísticos.
Hay otro gran número de trabajos que abordan el estudio del funcionamiento de los
sujetos adultos y ponen en entredicho la supuesta universalidad del pensamiento formal,
idea recogida por Flavell (1984), y que el propio Piaget llegó a cuestionarse en sus últimos
trabajos ya reconoce que no todos los individuos desarrollan las operaciones formales y
esquemas operatorios en la misma proporción, incluso admite que pueden no ser alcanzados
nunca (Piaget, 1978), en algún momento se deja entrever que puede ser el ambiente quien
determine las diferencias .
Este es uno de los resultados que recoge Pozo (1987) en su estudio sobre el
pensamiento causal, en el que indica cómo el "contenido" de la tarea concreta es una
variable significativa a la hora de actuar en una situación determinada. Otros investigadores
comprueban cómo sujetos adolescentes y adultos no realizan estrategias combinatorias al
efectuar juicios o tareas sobre probabilidad (Hoemann y Ross, 1975), o cómo individuos
adultos no utilizan estrategias de proporcionalidad para resolver problemas cotidianos
(Capon y Khun, 1979).
Desde perspectivas cercanas al enfoque del procesamiento de la información, se han
desarrollado numerosas investigaciones que apoyan la idea de que el funcionamiento ante
situaciones de incertidumbre o probabilísticas depende de la demanda de la tarea y del
modelo de procesamiento de la información que exige cada estrategia (Capon y Khun,
1979; Furman, 1981; Lester, 1983; etc.). Desde esta misma perspectiva hay un gran número
de trabajos que analizan y comparan tareas probabilísticas y tareas de proporciones en
distintas situaciones y con diferentes tipos de problemas, encontrando también un desfase
en la utilización de estrategias con respecto a las previsibles para el pensamiento formal y a
la vez una gran variedad de ellas en la resolución de tareas similares (Karplus y Karplus,
1972; Karplus y otros, 1979; Capón y Khun, 1979; etc). Scholz y Waschescio (1986)
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 137
comprueban como la inferencia realizada y el tipo o estrategia aplicada depende de la
estructura y representación semántica de la situación. Hay trabajos como los de Karplus,
Pulos y Stage (1983) y Karplus, Pulos y Stage (1983a) donde se detecta una falta de
relación entre el nivel de utilización de las estrategias del razonamiento proporcional y otras
tareas propias del pensamiento formal. Otros estudios, como el de Siegler (1981), recogen
resultados semejantes a los anteriores pero en tareas probabilísticas de juegos de cartas,
relacionando la elección de las estrategias con la estructura de la tarea y la capacidad
conceptual del sujeto.
En su trabajo, Pérez Echeverría, Carretero y Pozo (1986) obtienen también
resultados similares, aunque desde planteamientos cercanos a los piagetianos. Constataron
la diversidad de niveles en la aplicación de estrategias propias del razonamiento formal, con
respecto a tareas de proporciones, probabilidades y correlaciones presentadas a
adolescentes. En general, los sujetos de todas las edades utilizaban diferentes estrategias
para resolver cada problema, pero las estrategias menos elaboradas eran las que se
utilizaban en tareas de probabilidad.
La mayoría de estos trabajos sólo cuestionan aspectos específicos de la teoría
piagetiana. Por un lado, una de las ideas que se puede concluir de todos ellos es que se
pueden interpretar ciertas diferencias evolutivas en la resolución de tareas probabilísticas,
en función de factores como la estrategia puesta en juego, la memoria o la demanda de la
tarea. Dicho de otra forma, no sólo el contexto es determinate tanto en el proceso de
construcción como en el de aplicación, sino, también, el dominio específico sobre el que se
actúa impone unas ciertas condiciones al proceso.
Por otro, se comprueba que existe una falta de relación entre las distintas tareas
formales. El desarrollo de los distintos esquemas operatorios no es paralelo, no todos los
esquemas operatorios se desarrollan a la vez ni en la misma dirección e intensidad. Pero no
queda explicado el porqué de estos desfases, ni porqué los adultos no utilizan estrategias
más avanzadas en la resolución de tareas de probabilidad, ni tampoco explican los tipos de
estrategias utilizadas en las tareas más cotidianas. En general, pensamos que los sujetos
adultos no tienen un pensamiento formal desarrollado, porque, de hecho, el tipo de
problemas que han de resolver en su vida cotidiana no se lo demanda.
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 138
Otra cuestión discutible del trabajo desarrollado desde la perspectiva piagetiana es
la conceptualización única de la probabilidad, la clásica. En todas las interpretaciones y
reflexiones que hace sobre la actuación de los niños toma como referente dicha
conceptualización. Hecho que, como ya hemos apuntado, no consideramos que refleja la
naturaleza ambigua de la probabilidad ni sus múltiples facetas. Tampoco la creemos idónea
para el tratamiento de la probabilidad en la escuela, dados los diferentes contextos y
situaciones que, en la vida cotidiana y en el entorno socio-natural del niño, van a necesitar
de una interpretación probabilística.
En cualquier caso la comprensión y desarrollo del pensamiento probabilístico debe
ser un proceso progresivo que depende de la implicación del sujeto en las tareas y del
contexto en el que éstas se sitúan. El problema, desde el punto de vista didáctico, se centra
en comprobar si el diseño de un entorno adecuado provoca un avance significativo del
razonamiento estocástico de los sujetos. En cierta manera las investigaciones de Fischbein,
revisadas en el siguiente apartado, van en esta línea.
3.3.2. UNA APROXIMACIÓN DESDE EL APRENDIZAJE. LA TEORÍA DE
FISCHBEIN
Desde un enfoque diferente del aprendizaje y con una metodología de investigación
alternativa se encuentran los trabajos de Fischbein y sus colaboradores. Parten de analizar
críticamente el modelo de desarrollo propuesto por Piaget e Inhelder, y reflexionan sobre la
influencia que, en la formación del concepto de probabilidad, puede tener la ausencia de un
tratamiento específico en el proceso de aprendizaje.
Fischbein, por tanto, no analiza el desarrollo del pensamiento probabilístico del
sujeto, su trabajo esta dirigido al estudio del proceso de aprendizaje del conocimiento
probabilístico, al que supone una base fundamentalmente intuitiva. Considera la
comprensión de la probabilidad como un proceso continuo que parte de las intuiciones
primarias y, progresivamente, va incrementando la capacidad de análisis y aplicación de las
nociones probabilísticas hasta su transformación en un concepto operativo (Scholz y
Waller, 1983).
Según Pérez Echeverría (1988), las investigaciones de Fischbein se apoyan en las
propuestas de la "Stimulus Sampling Theory" de Estes, que mantiene que "la medida en la que
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 139
se aprende una respuesta está determinada por el número total de elementos estimulares conectados con esa
respuesta, en un momento concreto del proceso de aprendizaje de una persona determinada" (p.33). Es decir,
parte de una concepción del aprendizaje bastante distanciada de la perspectiva piagetiana,
pues, como observamos, los planteamientos de Estes (1964) están relacionados con
posiciones conductistas.
Otra diferencia básica es su propia interpretación del concepto de probabilidad,
Fischbein parte de una interpretación frecuencialista. Utiliza fundamentalmente la
frecuencia como criterio de análisis y comparación de la actuación de los sujetos ante
secuencias aleatorias, algunas de las cuales no son equiprobables, es decir, hay alternativas
de diferente probabilidad.
Una característica fundamental de todo el trabajo de Fischbein es el papel que da a
la intuición en el desarrollo del razonamiento matemático. Para él, "la intuición y la inteligencia
(o la intuición y el razonamiento) nos hablan de la misma realidad, incluso cuando, superficialmente, sus
mecanismos o sus códigos pueden ser diferentes" (Fischbein, 1975; p.6). En general, considera una
intuición como "una "idea" que posee las dos propiedades fundamentales de un concreto, realidad
objetivamente dada: "immediacy" ("inmediación") - es decir intrínsecamente evidente - y "certitude" ("certeza") no
en la forma convencional de certeza, pero prácticamente significa, certeza inminente" (Fischbein, 1987;
p.21). La intuición es una creencia cognitiva de carácter global, autoevidente y
autoconsistente, producto de la experiencia personal y que, como indican Fischbein y Gazit
(1984), no siempre coincide con el sentido considerado como correcto por el estamento
científico.
Fischbein considera el estudio del desarrollo del concepto de probabilidad como
especialmente significativo para el estudio de las intuiciones, pues en su desarrollo nos
encontramos ante una curiosa paradoja. En nuestra vida cotidiana gran parte de nuestras
conductas y manifestaciones son probabilísticas y reguladas por las intuiciones primarias.
Sin embargo, la utilización correcta de las normas probabilísticas están reguladas por la
teoría matemática que forma parte de lo que él llama intuiciones secundarias y que sólo
surgen después de un período de instrucción sistemático (Fischbein, 1975; Díaz Godino,
Batanero y Cañizares, 1988; Pérez Echeverría, 1988; etc). Antes de alcanzar dichas
intuiciones secundarias el individuo dispone de procedimientos que le permiten funcionar
ante la incertidumbre regulados por las intuiciones primarias. La determinación de las
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 140
estrategias de transformación de estas intuiciones primarias en intuiciones secundarias, es
en gran parte el objetivo del trabajo realizado por Fischbein y sus colaboradores.
Las intuiciones primarias son "adquisiciones cognitivas que se derivan de la experiencia del
individuo sin necesidad de una instrucción sistemática" (Fischbein, 1975; p.117). En otras palabras, la
intuición está ligada a la acción, se desarrolla de forma natural y posee rasgos cognitivos
que surgen a partir de la experiencia física y social, en contextos y situaciones cotidianas.
Como plantean Díaz Godino, Batanero y Cañizares (1988), en el ámbito del razonamiento
probabilístico lo que permite una mayor comprensión, y por tanto aplicabilidad de los
conceptos probabilísticos, es la experiencia en múltiples situaciones aleatorias; condición
relacionada con la naturaleza del conocimiento probabilístico y su complementariedad con
los contextos empíricos.
En su estudio, Fischbein parte del análisis de las investigaciones realizadas sobre el
tema y de sus propias investigaciones. A partir de ello concluye que el niño en su vida
cotidiana se enfrenta a numerosas situaciones azarosas. En ellas debe tomar decisiones
basándose en ciertas estimaciones intuitivas de las posibilidades con las que cuenta,
estimaciones que en general tienen un carácter subjetivo. En las acciones prácticas o
mentales que de ello se derivan intervienen directamente las intuiciones primarias que
posee el niño del azar. Fischbein parte del supuesto de que "las intuiciones primarias del azar están
presentes en las conductas diarias de los niños, incluso antes de los 7 años" (Fischbein, 1975; p.118). Es
decir, en términos escolares, los niños preescolares tienen ya ciertas intuiciones
probabilísticas.
Estas intuiciones primarias surgen de la acumulación de información por parte del
niño producto de experiencias en una realidad probabilística. Ellas le permiten ajustar
progresivamente su conducta a las proporciones que dicha experiencia le ha mostrado que
son relevantes, a través de lo que Fischbein llama intuición primaria de carácter
anticipatorio. Dicha intuición es una especie de construcción mental global sobre la
solución de un problema, antes de conocer los pasos detallados del proceso de solución.
Algunos autores han cuestionado esta interpretación al preguntarse si las intuiciones de la
probabilidad que reconoce Fischbein no representan más una creencia personal o
preconcepto subjetivo, que el resultado de una reconstrucción consciente de la frecuencia de
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 141
los acontecimientos (Scholz y Waller, 1983).
Fischbein considera que un reflejo de la existencia de estas intuiciones, es la
presencia en los niños pequeños de conductas de "matching" (emparejamiento). Los niños
van adaptando sus respuestas o predicciones a las frecuencias reales de los acontecimientos;
es decir, con los estímulos ambientales correspondientes, tal y como planteaba Estes (1964)
en su "Stimulus Sampling Theory". La "probability matching" es "la expresión de una particular
intuición, la intuición de la frecuencia relativa" (Fischbein, 1975; p.58).
La utilización de esta conducta se presenta a veces como una estrategia
"intensificadora", tal como la denomina Fischbein, en la cual la respuesta se ajusta al
resultado que se ha presentado un número mayor de veces, basándose en realidad en la
frecuencia absoluta del suceso. En general, su uso aumenta con la edad, lo cual puede estar
relacionado con la mayor capacidad de memoria pues, como ya comentábamos, Brainer
(1981) comprobaba la dependencia de la capacidad de retención de información con la
resolución de tareas probabilísticas. Esta estrategia también aparece muy comúnmente entre
los adultos a la hora de emitir juicios probabilísticos, es lo que Tversky y Kahneman (1973)
y Shaughnessy (1983) reconocen como el heurístico de "accesibilidad" o "disponibilidad"
de los datos, según el cual se espera que ocurra aquello que sucede habitualmente, o sobre
lo que se tienen mayor información y por tanto se considera más normal o corriente.
Otra estrategia detectada por Fischbein, en el funcionamiento de los niños pequeños
a la hora de enunciar un juicio en una situación aleatoria, es lo que nombra como efecto de
"recency negativa" (recencia negativa); a la que caracteriza como una concepción intuitiva
en base a la cual se ve como necesario una equilibración entre las frecuencias de los
distintos resultados en una larga serie de sucesos (Fischbein y Gazit, 1984). Según sus
investigaciones, este efecto también se incrementa con la edad. De hecho, en los trabajos
efectuados por Kahneman y Tversky, es uno de los errores más frecuentes a los que da lugar
la utilización sesgada del heurístico de "representatividad". Un ejemplo ampliamente
conocido es la llamada "falacia del jugador", de la que también encontramos referencia en
los trabajos de Piaget.
Frente a estas intuiciones primarias que dirigen la conducta del niño, están la
llamadas intuiciones secundarias, que guardan todas las características de las intuiciones,
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 142
pero se diferencian de las primarias en que, son el producto de un proceso de aprendizaje a
través de una instrucción sistemática (Fischbein, 1975). En nuestro caso serían las reglas y
conceptos básicos del Cálculo de Probabilidades. El conocimiento formal del Cálculo de
Probabilidades como la mayoría de las intuiciones matemáticas y científicas, son producto
de la elaboración de intuiciones secundarias y por tanto solo surgirán tras un proceso de
instrucción intencionado (Fischbein, 1987). Esta idea es aceptada por numerosos teóricos
de la probabilidad, por ejemplo Feller (1975), que pone un énfasis especial en la necesidad
de un desarrollo adecuado de las intuiciones probabilísticas como un componente básico de
la enseñanza de la probabilidad. Hietele (1975) afirma que un desarrollo inadecuado de los
procesos intuitivos pueden producir la configuración de modelos explicativos erróneos que
dificulten, tanto el razonamiento frente a sucesos fortuitos en la vida cotidiana, como el
acceso al conocimiento analítico, constituyéndose en auténticos obstáculos.
Fischbein plantea, por tanto, que estas intuiciones secundarias se desarrollan
progresivamente a partir de las intuiciones primarias en función de la experiencia del sujeto
y de su desarrollo operativo. Pero piensa que este desarrollo no tiene porqué dar lugar a un
concepto correcto y operativo de la probabilidad si no media una instrucción específica.
Gran parte de las investigaciones de Fischbein y sus colaboradores están centradas
en obtener información sobre la transformación de las intuiciones primarias en secundarias.
Para ello, por una parte diseñan experiencias de aula o programas completos de enseñanza
para la iniciación a las probabilidades en diferentes niveles educativos (Fischbein, Pampu y
Minzat, 1969; Fischbein y Gazit, 1984). Por otra, analizan las respuestas de los sujetos en
situaciones aleatorias concretas, con o sin instrucción previa, para así obtener información
sobre su funcionamiento y conseguir una mayor comprensión del origen del concepto de
azar y de probabilidad en el niño y de la naturaleza de los obstáculos con los que se
encuentra la educación del pensamiento probabilístico (Fischbein, Nello y Marino, 1991).
En sus trabajos Fischbein no explica cómo estas intuiciones primarias se estructuran
y se modifican hasta alcanzar las intuiciones secundarias. Expone la necesidad de que para
que ocurra dicha transformación es imprescindible una instrucción sistemática. Pero las
experiencias de Fischbein y sus colaboradores, tras la aplicación de programas por ellos
diseñados, no han corroborado de forma explícita la supuesta influencia de una instrucción
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 143
deliberada. Como ellos mismos reconocen "poco se conoce sobre las intuiciones probabilísticas y su
desarrollo bajo la influencia de una instrucción sistemática" (Fischbein y Gazit, 1984; p.1), y aún, casi
10 años después, sigue siendo así.
En sus investigaciones dan algunas indicaciones a nivel de principios básicos a tener
en cuenta, como, por ejemplo, la necesidad de no ignorar las actitudes intuitivas en los
procesos de enseñanza, para que los sujetos puedan ir analizando y confrontando sus
expectativas plausibles con los resultados empíricos obtenidos. "La dinámica recíproca entre el
cálculo teórico de probabilidades y la observación de frecuencias relativas puede ser la mejor contribución al
desarrollo de las intuiciones probabilísticas eficientes" (Fischbein y Gazit, 1984; p.3). Idea interesante
en la medida que es coherente con lo analizado en el capitulo anterior sobre la naturaleza
del conocimiento probabilístico y su dependencia de las situaciones empíricas y que aparece
como una constante en la mayoría de las investigaciones sobre el desarrollo del
pensamiento probabilístico, tanto en niños como en adultos.
En conclusión, Fischbein plantea y comprueba que desde edades muy tempranas
los niños tienen una cierta comprensión, de carácter preconceptual, del azar, de lo aleatorio,
de la frecuencia y, por tanto, de la probabilidad. Comprensión basada en las intuiciones
primarias producto de su experiencia cotidiana, o dicho de otra manera, en su interacción
activa en el entorno. Estas intuiciones primarias han de transformarse en conceptos
operativos o intuiciones secundarias. Esta transformación sólo es posible tras un proceso de
instrucción intencionada, es decir, no es algo a lo que el individuo accede de forma natural,
por su propio desarrollo madurativo. Los currículos actuales desarrollan fundamentalmente,
los aspectos deterministas de la realidad: toda explicación científica-formal consiste en
identificar una causa y sus leyes. Subyace en ellos un trasfondo dicotómico en el que sólo
tiene cabida la existencia o la no existencia de las cosas, dejando fuera de los límites de lo
racional y científico los sucesos aleatorios, lo no determinado, el intervalo entre el si y el
no.
Ello puede justificar parcialmente el hecho de que gran parte de los juicios
probabilísticos de los sujetos estén sesgados, ya que la intuición del azar, desarrollada
habitualmente en contextos extraescolares, se hace irreconciliable con la estructura del
pensamiento lógico, objetivo primordial de la educación (Fischbein y Gazit, 1984; Díaz
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 144
Godino, Batanero y Cañizares, 1988; Fischbein, Nello y Marino, 1991). Por ello estos
autores plantean que las ideas básicas y las reglas del Cálculo de Probabilidades es algo que
ha de ser aprendido mediante instrucción explícita, sin dicha intervención intencionada no
puede ser desarrollado un concepto operativo de la probabilidad, ni tan siquiera en adultos
(Figura 15).
A modo de síntesis
Como analizan Hawkins y Kapadia (1984), es difícil conseguir una síntesis que
permita una aproximación entre las ideas de Piaget y las de Fischbein. En todo caso,
algunas de sus conclusiones pueden ser complementarias desde una perspectiva didáctica.
Para Piaget e Inhelder el concepto de probabilidad sólo emergería después de un
desarrollo operacional natural y autoregulado, que diese sentido a las nociones de causa y
azar; sin embargo, según Fischbein, si bien esas condiciones pueden ser necesarias, no son
suficientes para el desarrollo operativo correcto del concepto de probabilidad, ello sólo será
posible tras un proceso de instrucción específico. Es más, el concepto de probabilidad es
siempre el resultado de un aprendizaje, sea o no intencionado, basado en lo que denomina
intuiciones primarias. De esta forma Fischbein ha puesto el énfasis en la base intuitiva
como acceso a la comprensión de la probabilidad (Hoeman y Ross, 82).
Realmente ni los planteamientos de Piaget, ni los de Fischbein, ni los de sus
colaborados o detractores, explican la gran variabilidad de resultados que aparecen en las
investigaciones. En la actualidad no disponemos de ningún marco teórico que dé cuenta
completa del conjunto de los resultados de dichas investigaciones. Ni los planteamientos de
Fischbein ni los de Piaget, considerados de forma independiente nos ofrece esa posibilidad.
Sin embargo pensamos que, a pesar de la dificultad que supone, sería interesante hacer un
esfuerzo para aproximar las posiciones de ambos. Aproximación que nos permitiría obtener
un marco integrador muy útil para la intervención didáctica. Algunas claves para ese trabajo
podrían ser las siguientes:
Figura 15: fischbein
* Considerar que la teoría piagetiana trata fundamentalmente sobre el
desarrollo y, en lo que concierne a este trabajo, da cuenta del desarrollo de los
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 145
conceptos de azar y de probabilidad. No obstante, en la propia teoría podemos
encontrar justificaciones para establecer nexos entre el desarrollo y el aprendizaje,
perfilando los mecanismos básicos de ésta. Sin embargo la teoría de Fischbein trata
exclusivamente sobre el aprendizaje y no tendría porqué resultar contradictoria con
una teoría del desarrollo más amplia como la de Piaget.
* Desde el punto de vista epistemológico, Piaget intenta hacer una síntesis
entre el racionalismo y el empirismo, aunque tiende hacia el primero. Fischbein se
instala en un planteamiento claramente empirista. Sin embargo en la actualidad
existen teorías del aprendizaje y el desarrollo de orientación constructivista, que
integran ambas posiciones. Si bien desde ninguna de esas teorías se ha abordado el
concepto de probabilidad, podían muy bien servir de marco desde el cual
reinterpretar los resultados de las investigaciones analizadas hasta el momento.
* En relación con los presupuestos interpretativos de cada uno, Piaget y
Fischbein adoptan perspectivas distantes a la hora de enfocar el significado del
concepto de probabilidad que toman como punto de partida para sus
investigaciones: Piaget, desde posiciones más racionalistas, toma como referencia la
teoría laplaciana. Mientras que Fischbein asume los presupuestos frecuencialistas,
acordes con su concepción empirista. Sin embargo, si consiguiéramos aunar las
perspectivas racionalistas y empiristas en un marco coherente que explicara el papel
de cada una de ellas es el proceso de construcción del conocimiento, podríamos
entrever la función de cada una de las dos concepciones de la probabilidad en el
proceso de construcción del conocimiento estocástico en la Escuela.
Hasta ahora las perspectivas que hemos analizado se dirigen fundamentalmente a
estudiar la elaboración del razonamiento probabilístico y en conseguir superar las
deficiencias que van encontrando en los distintos momentos de la evolución del
pensamiento. En última instancia, el objetivo es comprender cómo el ser humano adulto
alcanza un nivel de actuación lógica y coherente, es decir, de racionalidad. Sin embargo, en
los últimos veinte años el interés se ha derivado más hacia el estudio del ser humano como
quebrantador continuo de esas normas, como un ser muchas veces irracional. Los trabajos
que vamos a revisar a continuación se centran precisamente en estudiar los errores que el
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 146
hombre comete en gran parte de sus juicios probabilísticos cotidianos, generalmente
basados en sus experiencias y en las primeras impresiones abstraídas de ellas. Impresiones
que pueden ser engañosas y que como ya decía Laplace en su famoso tratado de 1812 "Una
de las grandes ventajas del cálculo de probabilidades es que enseña a desconfiar de las primeras impresiones"
(Laplace, 1985; p.120).
3.3.3. ESTRATEGIAS Y SESGOS ANTE SITUACIONES DE INCERTIDUMBRE.
LOS ESTUDIOS DE TVERSKY Y KAHNEMAN.
En la actualidad existen numerosos trabajos que muestran una racionalidad bastante
limitada en los razonamiento utilizados por los adultos ante problemas probabilísticos. En
las últimas décadas se ha desarrollado un importante y sistemático estudio sobre este tema.
Son representativos de esta corriente los trabajos realizados por Tversky y Kahneman en los
que describen y clasifican las estrategias y sesgos que presentan los adultos en su
razonamiento probabilístico. Sus teorías han servido de base para numerosas
investigaciones en el campo de la toma de decisiones bajo incertidumbre.
Estos estudios han surgido en el marco de las teorías sobre toma de decisiones en
situaciones de incertidumbre y sus máximos exponentes, como hemos señalado, son
Tversky y Kahneman. En sus trabajos intentan analizar los procesos psicológicos que
subyacen en nuestras decisiones cotidianas al enfrentarnos a tareas de tipo probabilístico,
contrarias a las deductivas (Tversky y Kahneman, 1974). Tomando como punto de partida
los resultados de las investigaciones de Kahneman y Tversky, a los que considera como
base y motivación de su propio trabajo, son significativos los estudios desarrollados por
Shaughnessy, más enfocados desde la perspectiva de la Educación Matemática. De acuerdo
con Shaughnessy (1992) una gran parte de los estudios de los psicólogos se limitan a
observar y describir qué ocurre cuando los sujetos se enfrentan a situaciones dominadas por
la incertidumbre. Sin embargo, los investigadores relacionados con el mundo de la
educación matemática, no se contentan con observar o describir y tienden a buscar razones
a las respuestas de los sujetos y a generar procedimientos que permitan la modificación y
superación de los errores detectados. Por lo que son más relevantes para nosotros. Sobre
ellos tratemos más detenidamente al revisar las investigaciones desarrolladas desde la
Didáctica de la Matemática sobre la enseñanza y aprendizaje del conocimiento
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 147
probabilístico.
Desde una perspectiva científica, las tareas probabilísticas tienen un sistema
normativo que regula su funcionamiento: el Cálculo de Probabilidades. Este sistema puede
ser utilizado como referencia para contrastar las actuaciones de los sujetos y analizar cuánto
se separan de dicha norma al tomar decisiones en tareas probabilísticas. Los primeros
trabajos sobre toma de decisiones estaban enfocados desde esta perspectiva y se
enmarcaban en contextos, de juego, económicos o empresariales. Sin embargo, a partir de
los años 80, al extender los trabajos a una gran variedad de situaciones se comprobó la no
adecuación de este modelo para el estudio de los juicios probabilísticos (Wallsten, 1980).
Desde entonces se han ido elaborando un modelo de análisis, apoyado en las teorías del
procesamiento de la información y en las teorías cognitivas, según el cual la capacidad
humana para controlar el entorno que rodea al problema es limitada. Ello provoca que ante
cierto tipo de situaciones, el sujeto utilice estrategias que le permitan reducir "la incertidumbre
que produce nuestra limitación para enfrentarnos con la complejidad de los estímulos ambientales" (Pérez
Echeverría, 1988; p.51). El estudio sobre la utilización de los juicios heurísticos es propio
de este modelo. En el campo de las teorías de la decisión a este enfoque se le conoce como
"Teorías Descriptivas" y en ellas, han integrado su trabajo Tversky y Kahneman.
Al analizar las actuaciones de las personas ante situaciones de incertidumbre o
aleatorias, encontraron que las personas no utilizan en sus estimaciones de la probabilidad
un sistema normativo, sino que, se dejan llevar por "las primeras impresiones" utilizando un
número limitado de mecanismos heurísticos.
Tal como lo definen Tversky y Kahneman (1983), los "heurísticos" son una
estrategia, deliberada o no, basada en una evaluación natural y que es matizada, para
producir una estimación o una predicción, normalmente de forma no reflexiva. Son
mecanismos que incorporados a nuestro razonamiento, nos permite enfrentarnos con la
complejidad del mundo que nos rodea y reducir la incertidumbre presente en ciertas
situaciones. Restringen el marco del problema a una dimensión manejable por nuestro
sistema cognitivo reduciendo las tareas más complejas a simples juicios. Esto implica una
cierta manera de procesar o comprender los mensajes que no conlleva el estudio exhaustivo
de toda la información disponible. La palabra "heurístico" tiene su origen en el vocablo
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 148
griego, heuriskein, que significa "encontrar"; se podría entender como un instrumento
natural para la búsqueda de soluciones a los problemas que se presentan en las distintas
situaciones. En otras palabras, son "`reglas de andar por casa que se aplican espontáneamente como
parte de un proceso de evaluación natural desarrollado rutinariamente en la percepción y comprensión de
mensajes" (De Vega, 1984; p.470). La utilización indiscriminada e inconsciente de estas
estrategias nos llevan a cometer numeros errores y a emitir juicios claramente sesgados,
producidos por una confianza excesiva en los mecanismos heurísticos. Scholz (1983)
caracteriza un sesgo o falacia como "el resultado de un proceso cognitivo, desarrollado sobre la base de
la información representada en la memoria, que ha conducido a una conclusión o decisión equivocada" (p.5).
Kahneman y Tversky plantean que, al estudiar las actuaciones de las personas ante
situaciones de incertidumbre, podemos identificar los procesos que subyacen a la toma de
decisiones y los errores o sesgos sistemáticos que se presentan, proporcionándonos un mapa
de las intuiciones humanas; pero siempre es un estudio a posteriori y tiene muy poco valor
predictivo. Estos autores no intentan explicar el origen de los heurísticos, ni predecir la
actuación del sujeto o evaluar los heurísticos, simplemente proporcionan una descripción de
la actuación realizada por el sujeto. Interpretan la adecuación de las respuestas de sujetos en
contraste con la regulación normativa.
Estos autores han identificado tres tipos básicos de heurísticos: representatividad,
accesibilidad y anclaje y ajuste. En algunos de sus últimos trabajos nombran otro heurístico,
el de simulación, al que dedican un capitulo en el libro de Kahneman, Slovic y Tversky
(1982). En él estudian las situaciones donde puede observarse dicho heurístico que, en
verdad, como ellos mismos reconocen, puede ser reducido en la mayoría de los casos al
heurístico de accesibilidad por reconstrucción.
A) Sobre el uso del juicio por representatividad y los posibles sesgos. El juicio
por representatividad es una evaluación del grado de correspondencia entre un resultado y
un modelo, en función de su semejanza. "O sea que estimará la probabilidad de un evento de acuerdo a
cuán representativo sea éste de esa población" (Ojeda Salazar, 1990; p.266). Cuando los sujetos
utilizan el heurístico de representatividad se enfrentan a situaciones donde tienen que
valorar la posibilidad de que:
* Un objeto A pertenezca a la clase B.
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 149
* El suceso A tengan su origen en el proceso B.
* El proceso B de lugar al hecho A.
Por ejemplo, cuando el suceso A es muy representativo de B suele considerarse con
una alta probabilidad que A tenga su origen en B. Un caso típico descrito por estos autores,
es cuando consideramos la probabilidad de que cierta persona tenga una profesión en
función de sus características físicas o emocionales (Kahneman y Tversky, 1972). Este
heurístico permite evaluar la probabilidad en función del grado de representatividad de A
con respecto a B, es decir, el grado en que se parecen A y B (Tversky y Kahneman, 1974).
Por ejemplo, ante el hecho común del nacimiento de bebes, los sujetos ven más probable
que ocurra el suceso A (de 10 nacimientos, 6 sean niñas y 4 niños) que el suceso A' (de 10
nacimientos, 9 sean niños y 1 sea una niña). El suceso A' se diferencia más del modelo
matemático, que nos dice que en el límite el número de niños y de niñas se iguala; una
trasferencia directa de esta creencia les lleva a pensar que el suceso A es más probable que
el A' por semejanza con el modelo.
Reducen el juicio probabilístico a valorar la posibilidad de relación entre el suceso y
una determinada causa o modelo, en términos de semejanza entre ellos. Esta estrategia
puede ser de gran utilidad en muchas situaciones pero en otras conduce a graves errores,
pues la semejanza o representatividad no se ve influida por factores que sí afectan
directamente a la probabilidad. Tanto la consideración de las probabilidades previas como
el tamaño de la muestra en relación con la población que estamos considerando, son
factores que influyen directamente a la probabilidad, sin embargo, para nada afectan al
grado de representatividad (Bar-Hillel, 1982).
Como nos indican Madruga y Carretero (1987) "La representatividad está en el origen de
numerosas concepciones erróneas del azar que tienen gran persistencia en nuestra sociedad, aún en sujetos con
alguna formación estadística" (p. 189). Ya hemos indicado en anteriores ocasiones que un error
típico en la utilización de este heurístico es la llamada "falacia del jugador" (o el llamado
por Fischbein efecto de "recencia negativa"), según la cual los sujetos, en una serie de
experiencias aleatorias independientes, tienden a buscar "el equilibrio" entre las frecuencias
de aparición de los diferentes sucesos posibles. Por ejemplo, al tirar sucesivas veces una
moneda al aire, tras obtener una secuencia de caras parece evidente que en la próxima tirada
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 150
tiene que salir cruz; es como si el azar se considerase un proceso que se corrige a si mismo
y tendiera al equilibrio entre las distintas alternativas, como si una secuencia parcial tuviera
que reflejar las propiedades generales del proceso.
Estas concepciones erróneas del azar y de las leyes que lo rigen, como la conocida
"Ley de los Grandes Números", están ocasionadas por una valoración errónea del suceso, al
considerar su semejanza con el modelo general (Tversky y Kahneman, 1971). En el fondo
es como si las personas creyeran en la existencia de una "ley de los pequeños números",
según la cual en toda muestra de una población, por pequeña que sea, se ven reflejadas las
hipótesis esperadas para toda la población. Estos errores también son descritos por
Shaughnessy.
En la descripción general de los heurísticos y sesgos encontrados, Tversky y
Kahneman (1974) recogen como sesgos más comunes de la utilización de este heurístico, a
parte de los ya indicados, otras consideraciones erróneas de la probabilidad sustentadas en:
la ignorancia del tamaño de la muestra o de las probabilidades previas; la ausencia de
intuición del fenómeno de regresión a la media; la ilusión de la validez o insensibilidad a la
predictibilidad. Describiremos brevemente algunos de ellos.
Las investigaciones realizadas constatan que la mayoría de los sujetos, al afrontar la
tarea propuesta, no tienen en consideración los datos sobre las tasas de ocurrencia, la
información sobre las probabilidades previas, o la tasa básica de frecuencia. En general,
estos datos sólo son utilizados en ausencia de otro tipo de información o cuando tienen
alguna relación causal directa con el acontecimiento que han de valorar (Madruga y
Carretero, 1987). En las situaciones, a las que teóricamente se podría aplicar el teorema de
Bayes, las probabilidades previas influyen directamente en el cálculo de las probabilidades
a posteriori; sin embargo, los sujetos habitualmente cuando poseen alguna información
sobre la representatividad de un acontecimiento, ignoran las probabilidades previas.
Por ejemplo, al estimar el porcentaje de emigrantes argentinos que son
psicoanalistas es corriente, en nuestro entorno universitario, realizar el cálculo en función
de los casos que conocemos de emigrantes argentinos que son psicoanalistas en dicho
contexto, sin considerar los datos generales sobre el número de emigrantes argentinos que
hay en España, la proporción de ellos que son psicólogos y cuantos de estos son
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 151
psicoanalistas (descrito por Pérez Echeverría, 1988).
Otro sesgo característico de la influencia de la representatividad a la hora de emitir
juicios probabilísticos es la no consideración del tamaño de la muestra sobre la que estamos
estimando la probabilidad de un suceso. Si bien el tamaño de la muestra no afecta a la
posible semejanza entre el estadístico de la muestra y el parámetro de la población, sí
influye en la varianza de la muestra que cambia proporcionalmente a su tamaño y por tanto
varía la probabilidad de los acontecimientos. Este sesgo se presenta no sólo en personas
inexpertas o con poca formación, también aparece en los juicios de los expertos en
estadísticas y en diseños experimentales incluso a veces en su labor profesional (Tversky y
Kahneman, 1971; Kahneman y Tversky, 1982a; 1982b).
En general, las personas tampoco desarrollan una idea clara del fenómeno de
regresión a la media, y se asombran ante la existencia de una regresión que no esperaban,
inventando causas falsas explicativas del fenómeno. Como consecuencia de esta regresión
es probable que tras una versión del suceso, desviada de la media en una cierta dirección y
distancia, la versión siguiente presente una desviación menor, pero en sentido contrario. Por
ejemplo, en el contexto social, y más concretamente en el de aprendizaje, no se admite
como algo normal que, tras una actuación brillante de un adulto o de un niño, suela seguir
una mediocre o viceversa. Es habitual esperar que el nivel de actuación se mantenga;
ignorar esta tendencia natural a la media, y considerarla como desinterés o como algo
excepcional, según los casos, ha llevado en algunas ocasiones a considerar como más
efectiva, dados sus supuestos efectos inmediatos, la recriminación tras lo mediocre, que la
alabanza tras lo brillante. Como analizan Tversky y Kahneman (1974), "pensamos que el
fenómeno de la regresión sigue siendo esquivo a causa de la incompatibilidad con la creencia de que el resultado
predicho debería de ser representativo al máximo de la información disponible, y, en consecuencia, que el valor de
la variable del resultado debería de ser tan extremo como el valor de la variable de la información." (p.10).
Por último, también es muy característico de los juicios basados en la
representatividad, la ilusión de su validez; relacionada con la confianza que tienen los
sujetos en la ocurrencia del acontecimiento que ellos han seleccionado. Para predecir un
determinado resultado, tienen en muy poca consideración los factores que reducen la
precisión de la predicción, como puede ser una información redundante o irrelevante. Por
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 152
ejemplo, según la estadística correlacional, es más precisa la predicción basada en
informaciones independientes que en las informaciones redundantes, sin embargo, éstas son
para los sujetos mucho más representativas y las predicciones basadas en ellas ofrecen una
mayor confianza.
B) Sobre el juicio emitido desde la accesibilidad de los datos. El segundo
heurístico más comúnmente observado en la conducta de los adultos es el de accesibilidad,
también categorizado por Shaughnessy (1983). Se refleja en la tendencia que tienen los
sujetos a realizar predicciones basadas en ejemplos accesibles de un suceso, bien porque
están en la memoria o bien porque son reconstruibles fácilmente. "Así la accesibilidad es un
heurístico que afecta o refleja nuestra propia percepción de la frecuencia relativa" (Shaughnessy, 1992;
p.472). Este autor reconoce, por ejemplo, que esta estrategia está en el origen de las
concepciones erróneas sobre la estimación de combinaciones posibles; al ser más fácil la
reconstrucción de las combinaciones de 2 elementos que la de 6 elementos, provoca que el
sujeto considere las de 2 elementos como más numerosas.
Este heurístico en verdad da una clave muy útil para evaluar la probabilidad ya que
suelen recordarse mejor y con más seguridad los casos de clases abundantes. La experiencia
nos ha enseñado que generalmente los casos de clases numerosas se recuerdan con mayor
facilidad que los casos de clases menos frecuentes, es un heurístico fuertemente ligado con
los fenómenos de memoria. Pero existen factores que influyen en nuestra capacidad de
recordar datos o reconstruir situaciones que sin embargo no afectan a la probabilidad del
suceso, dando lugar a errores sistemáticos en los juicios emitidos desde dicha valoración.
Cuando evaluamos la probabilidad de ocurrencia de un evento y obtenemos los datos sólo
de la memoria, esta suele ser selectiva y provoca que el conjunto de referencia, la muestra
considerada, no sea representativo del fenómeno en su totalidad; es decir, de la población
que estamos juzgando, lo cual nos llevará a sesgos o errores sistemáticos en nuestros
juicios.
Hay aspectos que influyen directamente en la facilidad de recuperación de
información memorizada sobre casos conocidos como: la "salience" (prominencia) de un
suceso; lo impactante de la información; la familiaridad con la información; la cercanía en
el tiempo. Aspectos que al afectar directamente sobre la recuperabilidad de la información
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 153
pueden influir en los juicios emitidos desde la accesibilidad y conducir a consideraciones
sesgadas de la probabilidad.
En sus trabajos, Tversky y Kahneman (1973) plantean que la accesibilidad está
influida no sólo por la mayor familiaridad o experiencia de los sujetos con los datos, sino
incluso con la propia disposición de búsqueda de información en la memoria. Así tareas
diferentes ponen en funcionamiento disposiciones diferentes de búsqueda. Ante un suceso
extraño, raro o simplemente no interesante, la recuperación de información se hace
selectiva, eludimos o ignoramos información y tomamos decisiones sin contar con ella, o
mejor dicho, sin realizar una búsqueda exhaustiva de ella, provocando por tanto actuaciones
sesgadas.
Quizás el sesgo más característico de una incorrecta aplicación del heurístico de la
accesibilidad, es la llamada correlación ilusoria. Este heurístico ofrece una explicación
razonable a la presencia de este efecto, estudiado ya años atrás por Chapman y Chapman
(1967). Estos autores estudiaron la correlación que algunos profesionales de la psicología
clínica mantenían entre la forma que tiene un paciente de dibujar determinados rasgos de la
figura humana y ciertas patologías (esquizofrénico - ojos saltones). La correlación ilusoria
está basada en la fuerza del vínculo asociativo entre los dos hechos, cuando la asociación es
fuerte es probable que el sujeto concluya que los hechos están frecuentemente emparejados
y así los recuerde aún con la presentación de datos que los contradicen (Tversky y
Kahneman, 1974).
lgunas situaciones donde el heurístico es aplicado son aquellas donde las preguntas
sobre un suceso son contestadas a través de un mecanismo que se parece al funcionamiento
de un modelo de simulación. En sus últimos trabajos lo han propuesto como un heurístico
independiente, simulación, dada la importancia que puede tener en el contexto de la
predicción y planificación bajo incertidumbre, la manipulación de ciertos modelos
mentales. Según Kahneman y Tversky (1982c), esta estrategia se basa en la facilidad con
que se pueden construir ejemplos, modelos o escenarios para la valoración de las
probabilidades, vía diferente para "traer cosas a la mente" que el simple hecho de recordar
datos. Como siempre la aplicación de este heurístico puede llevar a sesgos y errores en los
juicios. Por ejemplo "La facilidad con la que la simulación de un sistema alcance un particular estado es
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 154
eventualmente usado para juzgar la "propensity" ("tendencia") del sistema real a producir tal estado"
(Kahneman y Tversky, 1982c; p.202). En general, la mayor facilidad para reconstruir
información sobre un evento y manipularla no se corresponde siempre con el conjunto de
sucesos más probables, sin contar con la posible destrucción mental selectiva de la
información de los acontecimientos pasados.
En el fondo, tras los juicios emitidos desde los heurísticos de representatividad y de
accesibilidad, parece subyacer el peso que para los sujetos tiene su experiencia en los
distintos medios y situaciones, sobre ella y sobre los datos que de ella extrae, filtrados por
sus propias concepciones y percepciones de los hechos, apoyan sus valoraciones y
decisiones.
C) Sobre el ajuste a los datos disponibles. Aún hay un último heurístico descrito
por estos autores, aunque con menos soporte empírico y sobre el que se han realizado un
número menor de investigaciones, es el denominado de anclaje y ajuste. Consiste en un
mecanismo a través del cual las personas realizan estimaciones a partir de un valor inicial
que se ajusta para producir la respuesta final; por tanto, sujetos con puntos de partida
iguales pueden producir estimaciones diferentes.
La información irrelevante, bien recogida en el enunciado de un problema o bien
obtenida por cálculos incompletos, es un tipo de información accesible a los sujetos que
fácilmente les lleva a cometer errores en las estimaciones posteriores, ajustadas a dicha
información. Algunos autores lo consideran más bien como un sesgo especial del heurístico
de accesibilidad, pues depende de la facilidad de obtener una información (De Vega, 1984).
También se asocia este heurístico con la evaluación de sucesos disjuntivos y conjuntivos,
sobreestimando o subestimando la probabilidad según los datos iniciales de los
acontecimientos compuestos.
D) Análisis global de la teoría de Tversky y Kahneman. Todos los heurísticos
descritos por estos autores son evaluados siempre a posteriori y no hay ningún intento de
predecir las condiciones bajo las cuales se realizan estos juicios, ni bajo las que aparecerán
los distintos sesgos detectados. Hay un gran número de factores - la experiencia con el
contenido del problema, el impacto o cercanía de la información, el tipo de información, el
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 155
contexto donde se aplican, etc - que influyen en la resolución de los problemas
probabilísticos pero es muy difícil especificar dónde, cómo o en qué medida. Estos autores
no intentan explicarlo.
Según Wallsten (1983) en la investigación sobre heurísticos y sesgos se pueden
detectar tres problemas, interrelacionados entre si:
* Una concentración excesiva de estudios alrededor de los tres heurísticos definidos
en las páginas anteriores.
* La tendencia a considerar la clasificación en heurísticos como una explicación.
* La ausencia de una teoría rigurosa.
Desde un enfoque más dirigido hacia la Educación Matemática, se han realizado
también numerosas investigaciones que dan explicaciones alternativas o complementarias, a
los distintos errores detectados en el razonamiento adulto, ante situaciones de
incertidumbre. Así, por ejemplo Konold (1989) concluye que, cuando ciertos sujetos se
enfrentan a la incertidumbre, razonan bajo esquemas causales. Su objetivo inmediato se
limita a predecir el resultado de la prueba simple más próxima, sin otras consideraciones y
aplicaciones de los heurísticos descritos por Kahneman y Tversky. Esta forma de
razonamiento es lo que Konold llama"outcome approach", responde a la percepción del
suceso simple como un fenómeno aislado y es considerado como un modelo informal de
razonamiento bajo condiciones de incertidumbre. Mientras que los heurísticos son producto
de la percepción de procesos aleatorios, los razonamientos bajo esquemas causales son el
resultado de la percepción del fenómeno como un proceso determinista. En un reciente
trabajo desarrollado junto con R. Falk considera que los juicios erróneos sobre la
aleatoriedad, que según los estudios de Tversky y Kahneman están basados en la noción de
semejanza, se apoyan en valoraciones de complejidad y están mediatizados por la dificultad
de codificar la información, la secuencia más compleja es más difícil de codificar y por
tanto es juzgada como más aleatoria (Konold y Falk, 1992).
Los trabajos de Shaughnessy (1977), (1981), (1983), recogen, analizan y clasifican
los errores detectados en sus investigaciones sobre las concepciones erróneas de
probabilidad desde la perspectiva de su incidencia en los procesos de enseñanza/aprendizaje
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 156
de estos conceptos. Entre los errores más característicos están los relacionados directamente
con la utilización de los dos primeros heurísticos. Identifica claramente diversos tipos de
errores debidos tanto a la no consideración de las informaciones proporcionadas por
experiencias aleatorias anteriores, como a la dependencia del sujeto de los modelos
deterministas con relaciones causales directas. Otros autores como Hope y Kelly (1983),
también en esta línea, han identificado errores debidos a la imprecisión del lenguaje
ordinario, ya analizado, comprobando que la comprensión verbal del problema es otro de
los factores que influye a la hora de analizar el acontecimiento concreto y tomar decisiones.
Lecoutre ha desarrollado diferentes investigaciones sobre las respuestas de los
sujetos ante sucesos aleatorios. Como resultado de sus investigaciones propone añadir un
nuevo sesgo a la lista ofrecida por Kahneman y Tversky, el sesgo de equiprobabilidad, que
se presenta al considerar como propiedad del conjunto de los sucesos posibles la
característica de igual probabilidad. Analiza las respuestas de los sujetos, en general niños,
y las clasifica en distintos modelos de razonamiento desde los que explica el significado del
sesgo de equiprobabilidad, modelos recogidos en gran parte de sus trabajos (Lecoutre,
1985; Lecoutre y Durand, 1988; Cordier y Lecoutre, 1990; etc). Por ejemplo, dentro del que
denomina "Modelo Azar" de pensamiento, la respuesta basada en la equiprobabilidad se
justifica por considerar a los sucesos de carácter aleatorio por naturaleza como
equiprobables. Creencia que, por otro lado, tiene una cierta correspondencia con el propio
proceso histórico. Como recordaremos, los primeros acontecimientos sobre los que se
trabajo en el cálculo de probabilidades, estaban relacionados con los juegos de azar, sucesos
que por las condiciones impuestas, en general, son equiprobables, y durante años se
consideraron sólo este tipo de sucesos.
Como a los anteriores trabajos descritos, sobre el razonamiento probabilístico,
también a las teorías de Tversky y Kahneman, se han replicado y se les ha criticado
duramente, al ser teorías meramente descriptivas y, según Pérez Echeverría (1988), por dar
una cierta sensación de vaguedad, al faltar la descripción del método experimental, del
análisis estadístico o las características específicas de los sujetos utilizados en la muestra.
Sin menospreciar las posibles críticas y validaciones de los trabajos realizados en esta línea,
no cabe duda que es sorprendente observar cómo individuos adultos y, en muchos casos
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 157
profesionales expertos, son incapaces de inferir de su experiencia cotidiana reglas
estadísticas tan básicas como la regresión a la media o el efecto del tamaño de la muestra.
3.3.4. CONCLUSIONES GENERALES
La mayoría de los datos existentes confirman que, si tomamos como parámetro de
comparación las normas de la teoría matemática, la mayoría de las personas adultas, en
general, no actúan correctamente ante problemas inferenciales o probabilísticos. Según
Tversky y Kahneman (1983), los principios probabilísticos y estadísticos no se aprenden de
la experiencia cotidiana porque los casos relevantes no se codifican de un modo apropiado.
Ideas que apoyan, en cierta medida, las tesis de Fischbein sobre la necesidad de un
formación específica. Como nos dice Pérez Echeverría (1988) es bastante difícil que, ante
un juicio erróneo propio, una persona pueda reconstruir, por si sola, el proceso que le ha
llevado a realizarlo y detectar en qué momento ha cometido el error. Es necesario un
proceso de reflexión sobre las manifestaciones o juicios emitidos y sobre las decisiones
tomadas, para permitir al sujeto reconstruir los datos considerados y la secuencia de
estrategias utilizadas y conocer cuál es el origen de su error.
Lo interesante ahora es seleccionar de toda esta información la más relevante para
coordinarla significativamente, en nuestro caso con un objetivo doble. Por un lado, detectar
los conocimientos didácticos específicos que un maestro necesita para el diseño y desarrollo
de procesos de enseñanza/aprendizaje, que posibiliten la construcción un conocimiento
probabilístico idóneo, en el contexto de un aula de Educación Primaria. Y por otro, las
propias condiciones de formación de los profesores, dado que, desde las investigaciones
desarrolladas, no podemos obviar las propias ideas de los profesores, ideas que en muchos
casos reflejan un nivel propio de las intuiciones primarias o simplemente preconcepciones
sobre el mundo de la incertidumbre.
En conjunto, dada la no existencia de una teoría completa sobre el desarrollo y
el aprendizaje del conocimiento probabilístico, de los diferentes estudios analizados
podemos extraer varios aspectos, que consideramos de especial relevancia a la hora
del diseño y desarrollo de los procesos de enseñanza y aprendizaje en los distintos
niveles educativos:
- Es propio del ser humano y por tanto del niño, la búsqueda de explicaciones
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 158
para lo que ocurre a su alrededor. En éste sentido se preocupa por el orden de
los sucesos y tiende a establecer relaciones de causalidad. Así la comprensión
del azar puede aparecer como complementaria de la relación causa-efecto.
- El conocimiento estocástico se construye progresivamente en interacción con
el entorno. Parte, a edades muy tempranas, de una intuiciones iniciales que se
van transformando progresivamente en conocimientos más elaborados y
complejos.
- En la medida en que el conocimiento estocástico es intuitivo, a la hora de
interpretar situaciones de incertidumbre, de lugar a un número considerable
de sesgos y obstáculos.
- El proceso de elaboración del conocimiento estocástico depende de la
experiencia del sujeto y de su nivel de implicación en las situaciones vividas.
Dichas situaciones han de estar consideradas en contextos específicos que
deben recoger la gran variedad posibilidades que refleja la vida real.
- Dicho proceso de elaboración requiere, la reflexión sobre las intuiciones y
concepciones previas relativas al fenómeno, la codificación y valoración de la
información que nos oferta las diferentes situaciones. Es necesario aprender a
seleccionar la estrategia idónea para cada caso.
- Este proceso llevará a los sujetos a diferenciación progresiva entre sucesos
necesarios, y por tanto predecibles, y sucesos aleatorios, no predecibles, base
de la adquisición de un concepto operativo de la probabilidad.
- Todas las conclusiones anteriores, no son sólo aplicables a la iniciación del
niño en el mundo de la probabilidad. Tampoco los adultos, sin una
intervención intencionada y reflexiva, pueden desarrollar un razonamiento
probabilístico idóneo, manteniendo niveles de comprensión y concepciones no
adecuadas e incluso incorrectas.
Todos estos trabajos no siempre están orientados hacia el mundo educativo. Aunque
sus informaciones, no cabe duda que nos son útiles, es necesario confrontarlas con los datos
procedentes de investigaciones dirigidas al estudio y análisis de los problemas específicos
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 159
del aprendizaje y la enseñanza del conocimiento probabilístico en la escuela.
3.4. ESTUDIOS SOBRE EL APRENDIZAJE Y LA ENSEÑANZA DE
LOS CONCEPTOS ESTOCÁSTICOS ELEMENTALES
Tras la revisión realizada en el Capítulo II, sobre el desarrollo de las nociones de
azar, aleatoriedad y probabilidad, su evolución histórica y epistemológica, en el presente
capítulo hasta ahora hemos analizado las distintas perspectivas teóricas sobre la elaboración
del conocimiento probabilístico: su comprensión conceptual, la problemática de su
aprendizaje y su aplicación en la vida cotidiana.
En este apartado nos centraremos en las investigaciones realizadas sobre el
aprendizaje y la enseñanza del conocimiento probabilístico desde la óptica de la Educación
Matemática.
A partir de todos los trabajos realizados desde el campo de la psicología y de la
progresiva inclusión de estos tópicos en los curricula escolares de todos los países, se ha
despertado un creciente interés por el tema que ha provocado la realización de un gran
número de investigaciones en los últimos 10 años. Dos fuentes, según Shaughnessy (1992),
se pueden considerar como significativas para el estudio de la enseñanza/aprendizaje del
conocimiento estocástico, las investigaciones realizadas por los psicólogos y las realizadas
por los educadores matemáticos, aunque sus objetivos son marcadamente diferentes, como
ya indicábamos antes. "Los psicólogos se centran fundamentalmente en observar y describir qué ocurre
cuando los sujetos se enfrentan a situaciones de incertidumbre...los educadores matemáticos y estadísticos...no se
contentan con observar, su objetivo está más dirigido a la búsqueda de una intervención que modifique las
concepciones erróneas de los sujetos" (Shaughnessy, 1992; p.469). Desde las dos fuentes es
significativo destacar el escaso número de investigaciones centradas en la problemáticas de
los profesores ante los procesos de enseñanza/aprendizaje de estas nociones, tanto en el
análisis de sus concepciones como de los procesos de formación. En este sentido, son
importantes los trabajos realizados desde el Institut für Didaktik der Mathematik, sobre la
formación de profesores en activo en esta materia y que analizaremos en la revisión de los
antecedentes de nuestro trabajo, en el siguiente capítulo.
En un primer acercamiento al estado actual de las investigaciones sobre la
enseñanza/aprendizaje del conocimiento estocástico, comprobamos que la mayoría de ellas
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 160
se refieren a los niveles de secundaria y algunas a niveles universitarios, pero existe un
número relativamente pequeño de investigaciones dirigidas al estudio de los niños de los
primeros niveles educativos, niños entre 6-12 años. Autores como Garfield y Ahlgren
(1988), Garfield y Ahlgren (1988a), Borovcnik y Bentz (1991), Sholz (1991), o Greer y
Ritson (1993a), desde diferentes perspectivas, han realizado importantes revisiones de
investigaciones relacionadas con la problemática de la comprensión probabilística. Desde el
punto de vista educativo, quizás la más relevante de los últimos años es la realizada por
Shaughnessy (1992).
De las investigaciones realizadas hemos seleccionado aquellas que, desde nuestra
propia visión del problema, sus resultados o conclusiones tienen cierta relevancia a la hora
del diseño y desarrollo de los procesos de enseñanza/aprendizaje y, por tanto, originan
alguna implicación en la formación de los maestros. Desde una visión global, las
investigaciones realizadas se pueden clasificar en tres grandes bloques, consistentes con la
clasificación realizada en el apartado anterior:
A) Niveles de comprensión de las nociones estocásticas. En primer lugar
hay un cierto número de investigaciones dirigidas a detectar y describir el nivel de
conceptualización de los sujetos, niños o adultos, sus concepciones sobre las
nociones elementales estocásticas, como son la noción de aleatoriedad, la noción de
probabilidad o bien dedicadas a la descripción de las decisiones tomadas por los
sujetos en función de la asignación de probabilidades a los distintos
acontecimientos.
B) Proceso de instrucción y su influencia en el aprendizaje. Un segundo
grupo esta más centrado en el análisis de los procesos de instrucción y sus efectos
sobre la evolución de las concepciones de los alumnos, incluyendo estudios
comparados sobre distintas formas de acceder a la enseñanza de lo estocástico.
C) Heurísticos y sesgos sobre situaciones de incertidumbre. Hay un
tercer bloque cuyo interés esta focalizado en la descripción de los razonamientos y
estrategias heurísticas utilizadas por los sujetos, los sesgos detectados y su posible
modificación. Este último grupo esta más dirigido a sujetos adultos, lo que es de
especial interés para nosotros.
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 161
3.4.1. INVESTIGACIONES SOBRE LA COMPRENSIÓN DE LAS NOCIONES
ESTOCÁSTICAS ELEMENTALES
De este primer grupo de investigaciones, una de la más característica es la realizada
por Green (1982). Su estudio se centró en el estudio de las respuestas dadas por 3000 niños
entre 11 y 16 años a un cierto número de cuestiones sobre problemas probabilísticos
descrito en sucesivos escritos (Green, 1982; Green, 1983; Green, 1987; Green, 1991). La
fuente principal de datos fue un test con un gran numero de tareas probabilísticas de
respuesta múltiple, aunque en algunos de los ítems se pedía una justificación de la elección.
En función de sus respuestas Green, determinó el nivel de desarrollo de los niños de las
distintas edades en relación con los estadíos propuestos por Piaget. Encontró que la mayoría
de los niños sabían algo sobre probabilidad e incluso algunos conocían el lenguaje de la
incertidumbre, pero, aunque su habilidad y conocimiento se incrementaba con la edad, la
gran mayoría no alcanzaba el nivel de razonamiento formal. Conclusiones significativas de
su trabajo fueron:
1.- Que el concepto de proporción es fundamental para la comprensión conceptual
de la probabilidad;
2.- La utilización y comprensión de términos como "cierto" o "imposible" es
bastante deficiente;
3.- Solamente un programa sistemático de enseñanza de la estocástica podría
eliminar los errores de pensamiento detectados en los niños.
Su trabajo es fundamentalmente descriptivo y Shaughnessy (1992) lo enmarca en la
tradición empirista británica. Fue replicado por J. Izard y otros (1992), dentro de un estudio
más amplio denominado "The Simulo Project". En él se recogieron las respuestas de 1100
niños de tres países diferentes, Hungría, Brasil y Canadá, con edades entre los 11 y los 16.
Sus reflexiones se centraron fundamentalmente en establecer patrones de desarrollo de los
conceptos probabilísticos, con especial referencia a las diferencias de sexo. Seleccionaron,
del test elaborado por Green, aquellos ítems significativos para determinar los niveles de
desarrollo. Sus resultados son semejantes a los obtenidos por Green y su conclusión más
relevantes es la poca información que el test aporta para poder fijar el nivel de desarrollo.
Cuestionan la gran extensión del cuestionario (35 ítems) en relación con el número de ítems
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 162
que en verdad son significativos (18 ítems).
Hay otras investigaciones más centradas en detectar las concepciones de los sujetos
sobre nociones concretas. En esta línea, el estudio presentado por Konold, con la
colaboración de R. Falk y otros autores (Konold y col., 1991), explora los criterios
subjetivos utilizados por los adultos en la determinación de lo fortuito o lo aleatorio. Se les
presentó a un conjunto de sujetos, novatos y expertos en estos temas, una serie de sucesos
sobre los cuales tenían que determinar su carácter aleatorio y justificarlo. Detectaron cuatro
modelos de razonamiento según los juicios estén basados en criterios de: equiprobabilidad;
múltiples posibilidades; incertidumbre o causalidad. Sugieren que la confianza subjetiva en
las "múltiples posibilidades" y en la "equiprobabilidad" pueden ser dos posibles barreras
para la comprensión de los fenómenos aleatorios en su conjunto. Idea consistente con los
planteamientos de Lecoutre y Duran (1988) quienes, como veremos, defienden el "sesgo de
equiprobabilidad", según el cual lo aleatorio es asociado a lo equiprobable, como uno de los
más frecuentes y resistentes en las explicaciones de los sujetos.
En el mismo sentido encontramos el trabajo de Konold y Falk (1992), también con
estudiantes universitarios, cuyo objetivo era analizar los juicios aleatorios. Parten de la
hipótesis de que los juicios aleatorios están mediatizados por la dificultad de codificar la
información sobre ellos, siendo ésta valorada subjetivamente. Para ello les presentaron a los
sujetos una serie de secuencias binarias en las que se les pedía valorar su carácter aleatorio
y que intentaran memorizarlas, capacidad que tomaron como medida de la valoración
subjetiva de la aleatoriedad de la secuencia, es decir de la dificultad de codificación. Los
resultados obtenidos les permiten sugerir que los juicios sobre el carácter aleatorio de la
secuencia están influidos por las valoraciones subjetivas, y están mediatizados por la
dificultad de codificar la información dada la complejidad de los datos; las secuencias más
complejas y más difíciles de memorizar son consideradas como las de mayor aleatoriedad.
Aunque sus conclusiones son muy iniciales, tienen sentido desde la perspectiva del azar
como complejidad, ya tratada en los apartados anteriores. Estos autores piensan que esta
reflexión tiene importantes implicaciones didácticas, "una interpretación de la aleatoriedad como
complejidad puede tener más atracción intuitiva para los estudiantes, y por lo tanto puede proporcionar la base
sobre la cual puede ser construida una comprensión inicial de la aleatoriedad" (Konold y Falk, 1992; p.7).
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 163
La existencia de variados razonamientos para justificar la aleatoriedad de la serie la
explican Ayton, Hunt y Wright (1989), por la imposibilidad de definir de forma rigurosa la
idea de secuencia aleatoria, no disponemos de un patrón de referencia fijo que nos
determine que estamos realmente ante una sucesión aleatoria.
En la misma línea, encontramos las investigaciones de Green (1988) y (1991), quien
realizó una investigación con 1.600 niños de 7 a 11 años sobre su comprensión de la
aleatoriedad a través de la cumplimentación de un test escrito, o la realizada por Falk
(1981) en la que también trata la percepción de los sujetos de la noción de aleatoriedad. En
cualquiera de ellas, como ya hemos visto en el capitulo anterior, se detecta la noción de
aleatoriedad como una idea controvertida, y no hay construida una concepción clara sobre
ella, depende de los diferentes contextos en donde es analizada, incluso de la formulación
de las cuestiones planteadas.
Más centrado en el tratamiento de la concepción de la probabilidad está el trabajo de
Falk (1992), quien a partir del problema de los tres prisioneros analiza las creencias
espontáneas sobre el problema y las estrategias intuitivas utilizadas para encontrar la
solución. Intenta encontrar algún criterio para predecir porqué y cómo la probabilidad de
elegir un suceso determinado es modificada en función de la evidencias obtenidas, pero
concluye que no hay datos que puedan ser considerados como criterios válidos a nivel
general.
Falk, Falk y Levin (1978) realizaron un estudio sobre las decisiones que toman
niños de 4 a 11 años, en una situación de juego, en función de la probabilidad de cada
resultado. La actividad consistía en elegir el color con mayor probabilidad de salir entre un
cierto número de objetos que presentaban dos colores diferentes, con variadas proporciones,
tamaños y materiales. Su objetivo era analizar los razonamientos y concepciones sobre las
situaciones aleatorias, la proporción y la probabilidad, comparando los resultados en
función de la edad del sujeto. Los resultados reflejan una tendencia en los estudiantes, bien
a rechazar la incertidumbre en su conjunto o a subestimar su impacto; lo que achacan a una
posible influencia negativa de la instrucción. Las elecciones de los más pequeños eran
correctas en un gran número, lo que les lleva a plantear la necesidad de introducir la
enseñanza de la probabilidad desde los primeros niveles educativos para atenuar la
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 164
instrucción "determinista" y potenciar el inicio de conceptos probabilísticos. La influencia
negativa de una educación centrada exclusivamente en un punto de vista determinista, en el
desarrollo del pensamiento estocástico, es también reconocida en su reflexiones por otros
autores como Steinbring (1984), o Díaz Godino, Batanero y Cañizares (1988), cuestión que
ya hemos comentado en anteriores ocasiones.
Uno de los últimos trabajos de Fischbein (Fischbein, Nello y Marino, 1991), se
centra en analizar el origen y la naturaleza de algunos obstáculos que consideran relevantes
para la educación probabilística. Un total de 618 niños entre 9 y 14 años realizaron uno de
los dos cuestionarios elaborados que presentaban características equivalentes. En dichos
cuestionarios se introducen ítems sobre caracterización de tipos de sucesos; sucesos simples
y compuestos y sucesos diferentes pero con estructura equivalente. Los resultados indicaron
un problema de comprensión lingüística, los sujetos no poseen una noción clara de términos
como "cierto", "posible" o "imposible", la noción de suceso simple y compuesto necesita
también de una especial atención; observaron la gran dificultad para abstraer la estructura
matemática de las situaciones planteadas. El resultado que en sus conclusiones consideran
más importante por sus implicaciones didáctica, es la dificultad para aceptar por parte de
los sujetos que los sucesos aleatorios pueden ser analizados desde un punto de vista
predictivo-determinista. Es decir, que nuestra expectativa sobre la ocurrencia de un suceso
pueda ser cuantificada, en cierta manera.
Con niños de secundaria, Maury (1984) estudio la resolución de un conjunto de
problemas relacionados con la cuantificación de la probabilidad. Del análisis de las
conductas observadas concluye que los niños disponen de varios modelos probabilísticos
espontáneos y que los movilizan en función del contexto en que han de intervenir. Ello
confirmaba su hipótesis general de que la actividad cognitiva implicada en la resolución de
un problema depende en gran medida de los hechos a los que esté ligado dicho problema.
En el mismo sentido, Maury (1985) investigó sobre el conocimiento espontáneo del
concepto de independencia en probabilidad y su evolución al modificar la presentación de
los problemas a trabajar. De nuevo confirmó su hipótesis de partida sobre cómo el contexto
de presentación de los problemas influye en los razonamientos y explicaciones de los
alumnos. En una investigación posterior, Maury (1987) hipotetizó también sobre la
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 165
influencia de ciertos variables contextuales en la actividad cognitiva implicada en la
resolución de problemas probabilísticos y del nivel de consciencia con que los
procedimientos son puestos en juego. Para ello enfrentó a unos 600 estudiantes de
secundaria con la resolución de un conjunto de 8 problemas, en los que variaba su
estructura, el vocabulario utilizado en su formulación, el contexto y las nociones
implicadas: cuatro trataban sobre la cuantificación, uno sobre la independencia y otro sobre
la probabilidad condicionada. En sus conclusiones confirmaba que la actividad cognitiva
movilizada en las distintas tareas depende en gran medida de los objetos sobre los que el
sujeto este razonando, y de los procedimientos que éste tenga disponibles. Detectó un tipo
de respuesta, que denominó "respuesta mixta", a la que consideró condicionada por la
tensión entre sus concepciones y la "presión" de la cuestión planteada.
Peard (1990) realizó un estudio de casos que analiza el funcionamiento de alumnos
de secundaria ante diversas situaciones probabilísticas relacionadas con el juego. Sus
conclusiones son interesantes al confirmar la influencia del entorno en la elaboración del
conocimiento probabilístico. La investigación fue realizada en Australia donde la afición al
juego es algo frecuente en todos los niveles sociales. Su intención era analizar si el
funcionamiento de los niños era más elaborado que el detectado en otros países en función
de su bagaje cultural. Los resultados corroboraron sus hipótesis al detectarse un alto nivel
de desarrollo de los conceptos probabilísticos en estos niños, lo cual le llevó a concluir que
estos conceptos son elaborados activamente por los individuos como respuesta a su entorno.
Otros estudios son los realizados por Leffin (1971), que detectó cómo los niños del
cuarto y séptimo grado no utilizan correctamente la información del espacio muestral para
calcular probabilidades, hecho que atribuye a la dificultad que para estos niños supone
manejar los problemas combinatorios; o el realizado por Jones (1974), quien desarrolló una
investigación con niños muy jóvenes usando la metodología clínica, siendo uno de los
primeros en utilizar esta metodología en la investigación sobre el conocimiento estocástico.
Jones efectuó diferentes grabaciones de entrevistas a niños indicando los tipos de errores
que iban cometiendo en la elección; por ejemplo, el color que elegían como más probable al
girar un "spinner" (peonza con zonas de diferentes colores). Concluyó que la elección de los
niños pequeños estaba basada en muchos casos en su color favorito, sin ninguna referencia
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 166
al área ocupada por dicho color, era una interferencia, en cierta forma negativa, del
contexto. Otra investigación realizada con niños de la escuela primaria, como un estudio de
casos, es la presentada por Koops (1981). Su objetivo era analizar las concepciones de los
niños frente a dos enfoques de la probabilidad, el modelo de Laplace y el de la
estabilización de la frecuencia, sin llegar a resultados significativos que permitiese optar
claramente por la idoneidad de alguna de ellas. Con respecto al enfoque subjetivo de la
probabilidad es significativa la investigación realizada por Huber y Huber (1987). Es un
estudio transversal en el que intentan investigar los principios que gobiernan la probabilidad
subjetiva y su validez a lo largo de los años. Sus resultados indican que los principios, su
base experiencial y su naturaleza estable, son válidos para todos los grupos de edad y se
mantienen a lo largo del desarrollo.
En el contexto de nuestro sistema educativo, y en el nivel de Bachillerato, se han
realizado algunas experiencias sobre las concepciones y razonamientos de los alumnos.
Acevedo y Romero (1991) y (1992) analizan, en primer lugar, el razonamiento proporcional
y probabilístico y, en un segundo trabajo, el razonamiento correlacional y combinatorio;
ambos estudios están integrados dentro de un programa más amplio denominado "El
proyecto T.R.L. (Test de Razonamiento Lógico)". En general consideran que se detecta un
cierto progreso en los éxitos de los alumnos a lo largo del Bachillerato, y una mayor
facilidad de resolución en las tareas de correlación que en las tareas probabilísticas, que
achacan simplemente al aumento de la edad.
En niveles más elementales es significativo el trabajo realizado por Giménez (1992)
sobre las estrategias presentadas, por niños de 8º de E.G.B., para determinar la
probabilidad. Su objetivo era identificar las estrategias usadas por los estudiantes en tareas
probabilísticas y relacionarlas con su conocimiento del número racional. Para ello realizó
una serie de entrevistas en las que se les propuso diversas situaciones de juego: elecciones
de bolas, dados y peonzas. Los primeros resultados obtenidos le permitieron identificar
doce estrategias diferentes. Alguna de ellas conducían a respuestas correctas e incorrectas.
Pudo comprobar la existencia de estrategias estables en todos los contextos y otras
inestables que variaban según la situación de juego.
En relación también con alumnos de secundaria, Serrano, Batanero y Díaz Godino
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 167
(1991) y Serrano (1993) han realizado sendos trabajos sobre las concepciones iniciales de
un grupo de 10 estudiantes de 1º de BUP, en relación a conceptos elementales asociados a
la idea de proceso estocástico. El método empleado fue el de entrevista individual, en las
que se les pedía resolver una serie de cuestiones relacionadas con situaciones estocásticas.
Se observaron pocas dificultades ante la comprensión de las características generales de
imprevisibilidad de los fenómenos aleatorios y la mayor parte tienen un razonamiento
combinatorio correcto. Sin embargo se detectan un cierto número de fallos en la aplicación
de la regla de Laplace, que los autores achacan a la dificultad de aplicación de la idea de
independencia de ensayos en un contexto práctico. Los alumnos manifestaron también
concepciones incorrectas respecto a la esperanza matemática en un contexto de juego de
apuesta.
En síntesis, los resultados de todas estas investigaciones, confirman la existencia de
intuiciones probabilísticas desde edades muy tempranas y su sesgada conceptualización a lo
largo de los años, incluso en adultos expertos; hecho que plantea la posibilidad y, en cierta
medida la necesidad de introducir, de forma sistemática, el tratamiento de los conceptos
probabilísticos en la escuela desde niveles muy iniciales para paliar tanto la influencia de
una instrucción posterior, demasiado formalizada y en general sesgada hacia lo
"determinista", como la de una experiencia asistemática y poco reflexiva en los aspectos
indeterministas de la realidad.
Esto nos lleva al segundo grupo de investigaciones, aquellas cuyo objetivo esta más
dirigido al estudio de los procesos de instrucción y sus posibles efectos en la concepciones
y razonamientos de los niños.
3.4.2. INVESTIGACIONES SOBRE EL PROCESO DE INSTRUCCIÓN Y SU
INFLUENCIA EN EL DESARROLLO DEL RAZONAMIENTO
PROBABILÍSTICO
En este grupo las investigaciones más significativas son las realizadas por Fischbein
y sus colaboradores, ya indicadas al estudiar sus planteamientos sobre el desarrollo de las
intuiciones probabilísticas.
En sus primeros trabajos, Fischbein, Pampu y Mînzat (1967) intentaron comprobar
cómo ciertas nociones estocásticas intervienen en el razonamiento de los niños y en sus
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 168
conductas desde edades muy tempranas. En su investigación observaron cómo las
conductas de los niños pequeños se iban adaptando, o "emparejando" como ellos lo
nombran, a las frecuencias con que se presentaban las diferentes secuencias aleatorias.
Detectaron la clara influencia de la noción azar/suerte/posibilidad en situaciones concretas.
En trabajos posteriores diseñaron procesos de instrucción específicos para el conocimiento
estocástico, en aspectos y niveles diferentes, para comprobar su influencia en el desarrollo
del concepto de probabilidad. Así en Fischbein, Pampu y Mînzat (1969), desarrollan una
propuesta de enseñanza programada a partir de diversas lecciones y tareas que se trabajan
en el aula en tiempos correlativos. Estaba orientada como iniciación a la probabilidad por
niños de 10-12 años. De la reflexión sobre los resultados concluyen que:
* La comprensión de la dinámica de los fenómenos estocásticos necesita de la
realización efectiva de experiencias aleatorias, que se van transformando
progresivamente en experiencias mentales.
* Dicha realización debe coordinar tanto los aspectos probabilísticos como
estadísticos, como un cuerpo único necesario para producir una idea productiva de
los procesos estocásticos.
* La iniciación en los procedimientos combinatorios ha de estar integrada en dichas
experiencias aleatorias para evitar convertirlos en simples reglas de cálculo.
* Estas condiciones permiten la síntesis entre el azar y la necesidad, fusión esencial
para el dominio del concepto de probabilidad.
En esa misma línea ,Fischbein, Pampu y Mînzat comprobaron que incluso los niños
de preescolar presentaban una clara evolución en las tareas de proporción relacionadas con
situaciones probabilísticas después de un período de instrucción específica sobre el tema,
aunque la influencia era mucho más clara entre los 9 y 10 años (Fischbein, Pampu y Mînzat,
1970). Resultados similares se presentaron ante una instrucción sobre tareas combinatorias
(Fischbein, Pampu y Mînzat, 1970a).
En la investigación realizada por Fischbein, Barbat y Mînzat (1971), también
focalizada sobre un proceso de instrucción para la iniciación en la teoría de la probabilidad,
concluyeron que ésta puede contar con un "terreno intuitivo favorable en lo concerniente a los
conceptos y procedimientos siguientes: el concepto de suerte y de medida de la suerte como razón entre el número
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 169
de casos favorables y el número de casos posibles" (p. 277), pero reconocen el problema de
transformar una intuición primaria en una intuición secundaria, proceso que consideran no
puede ser reducido a una explicación limitada o a una definición simple, aun siendo clara y
convincente, sino que necesita de un ejercicio prolongado en variadas situaciones que
pongan en juego las estructuras necesarias para permitir, tanto la construcción de las
intuiciones secundarias, como la articulación del fondo intuitivo primario.
En un estudio realizado en 1984, Fischbein y Gazit analizaron los efectos de una
enseñanza programada para la introducción de la probabilidad y la noción de frecuencia
relativa, sobre las intuiciones y concepciones de los niños. El programa incluía actividades
prácticas y ponía un especial énfasis en la relación entre la probabilidad calculada "a priori"
y la frecuencia obtenida empíricamente. Entre sus resultados, analizados a través de dos
cuestionarios A y B pasados a los niños al finalizar el programa, el más importante es la
evolución en la comprensión y utilización de las nociones implicadas en las lecciones
desarrolladas como las de suceso seguro, posible e imposible; o suceso simple y compuesto.
Sus resultados en general no son muy satisfactorios pues si bien hay una clara evolución en
sus concepciones - controladas con el cuestionario A - al comparar los grupos
experimentales y de control, no se detecta una diferencia significativa en sus
interpretaciones intuitivas ni que mejoren sus estimaciones, realizadas en situaciones de
incertidumbre - controladas por el cuestionario B.
Según los propios autores, el factor más significativo detectado es la variable edad.
Los niños del curso más alto, 7º grado, manifestaban claras diferencias en algunos aspectos
con el grupo de control, pero presentaban controversia en otros, como el cálculo de
proporciones. Se detectaba la utilización de diferentes esquemas operativos en función de
las tareas. En sus conclusiones no llegan a explicar el porqué de estas diferencias en
relación a la edad, ni la causa de las diferencias que presenta cada sujeto en función de las
diversas tareas presentadas.
DelMas y Bart (1987) investigaron sobre la influencia de un proceso de formación
en el que un elemento esencial era la comparación entre las conjeturas iniciales de los
sujetos y los resultados experimentales. A los estudiantes en un curso introductorio se les
propone una tarea relacionada con una serie de lanzamiento de monedas, primero escriben
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 170
sus conjeturas sobre los posibles resultados y luego realizan la experiencia, comparando los
resultados y buscando explicaciones sobre la disonancia encontrada. DelMas y Bart
concluyeron que forzar esta comparación ayudó a los estudiante a comprender y aplicar el
modelo frecuencialista sobre el que estaban trabajando.
Algunos estudios iniciales sobre la instrucción estocástica, se centran en el análisis
de los resultados obtenidos al poner en juego una determinada lección sobre probabilidad,
normalmente de muy corta duración. En esta línea están los trabajos de Shulte (1968),
White (1974) y Moyer (1974). Cada uno de ellos encontró un cierto incremento de las
adquisiciones de los estudiantes sobre el concepto de probabilidad, pero las diferencias
entre la evolución de los grupos experimentales y de control eran muy poco significativas
en relación con la modificación de los razonamientos, las habilidades o las actitudes; es
muy probable que la corta duración del proceso y la excesiva delimitación fueran variables
determinantes.
Glaymann (1976) realizó una experiencia centrada en la realización de una
secuencia de actividades de introducción a la probabilidad y a la estadística con niños de 9 a
10 años a través de una aproximación inductiva por experimentación. Presentaba a los
niños dos ruletas de diez sectores cada una y las condiciones del juego. Ensayaban 2000
veces la tirada, trabajaban con las frecuencias relativas, que se representaban y se
comparaba el resultado experimental con el obtenido a través de una tabla de números
aleatorios. A partir del análisis de los resultados, y en función de las estrategias y
razonamientos utilizados, concluyó que para poder disponer de un modelo aleatorio y de
unos procedimientos de cálculo simple, todo "método" a desarrollar en la escuela elemental
debe combinar al mismo tiempo la combinatoria, la probabilidad, la estadística y la
simulación. Reservando para más tarde el atender a la diferenciación de los dominios
específicos; "aprender a imitar al azar" es previo a la construcción de un modelo teórico.
Otra investigación, realizada por Kapadia (1980) con niños de 11 a 16 años, analiza
un proyecto de trabajo basado en la resolución de problemas, considerando a la Estadística
como una materia interdisciplinar. Se presentan situaciones problemáticas en diferentes
contextos, en los que están implicados diferentes conceptos fundamentales estocásticos, sus
conclusiones se refieren fundamentalmente al nivel actitudinal de los niños hacia las tareas
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 171
propuestas y su modificación positiva, más que a la evolución de sus concepciones, sobre
las que no hace comentarios significativos.
Steiner (1990a), utilizando el tema de las votaciones, desarrolla un proyecto de
enseñanza/aprendizaje durante tres semanas con niños de los grados 11 y 12, sobre la base
del trabajo en grupo y la discusión. Parte de una visión epistemológica compleja de la
educación matemática y considera a esta investigación como una focalización limitada y
diseñada para ello. Toma como una variable significativa el contexto en que se integra el
trabajo y el valor social del tema en cuestión. Sobre el análisis de la información recogida
en el desarrollo de las clases, concluye validando el camino inductivo y genético que
permite al niño construir su propio conocimiento y adquirir progresivamente una visión más
formal del conocimiento estocástico, modificando claramente su actitud hacia el
conocimiento matemático.
Una propuesta de introducción de la probabilidad en la escuela, basada en la
interpretación de la probabilidad como un valor estable de la frecuencia relativa, es la
realizada por Warmuth (1991). En ella y después de una fase propedeútica, que sitúa en el
final del nivel elemental, se introduce al niño en el calculo matemático. Lo más
significativo de su propuesta es la valoración que hace de la relación mutua entre el modelo
matemático y la realidad, idea que como ya apuntamos en el capitulo anterior es una de las
características fundamentales del conocimiento probabilístico.
Por último, y también en esta línea, es necesario hacer referencia a los trabajos de
Steinbring. En uno de sus trabajos (Steinbring, 1990a), presenta el estudio comparado entre
tres clases de matemáticas de secundaria, en las que se están trabajando conceptos básicos,
reglas y problemas de probabilidad. A partir del tratamiento de estos aspectos en el aula,
reflexiona sobre la concepción de la probabilidad subyacente. Así, en el curso (A) se
introduce la probabilidad desde su definición formal y las actividades dominantes son las
del cálculo formal. En el curso (B) aparece el desarrollo de la probabilidad de forma
explícita pero inmerso en situaciones concretas, integrando actividades de experimentación
en los procesos de aprendizaje. Y en la tercera clase (C) se percibe un énfasis en los
aspectos experimentales del tratamiento de las nociones probabilísticas, relacionados con el
contexto directamente. Concluye que esta tercera opción es la más apropiada, tanto en sus
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 172
logros en el avance conceptual y comprensivo de los alumnos, como por su coherencia con
el estatuto epistemológico del conocimiento probabilístico.
En otro trabajo posterior Steinbring (1990) y (1991a) analiza un episodio concreto
de una clase de niños de 5º grado, en el que los niños resuelven y discuten sobre las
soluciones encontradas a un juego, en el que se le ha pedido "a priori" la probabilidad de
una determinada solución. Su objetivo más que proponer un proceso de instrucción
determinado es analizar por un lado, la contradicción entre una enseñanza dirigida y la
naturaleza del conocimiento estocástico y, por otro lado, la relación entre dicha naturaleza y
el significado constituido socialmente en la interacción en el aula, a través de un micro-
análisis de dicho episodio. Sus conclusiones son una reflexión teórica sobre la dificultad de
comprensión de estas nociones en la que plantea la necesidad de un proceso continuo de
retroalimentación en la construcción de los significados relacionados con ellos, en función
de lo que nombra como la característica "auto-referente" de dichos conceptos. Es decir, su
progresiva adquisición en un proceso de exploración sobre ellos mismos, ampliando el
campo de aplicación y profundización.
En general, parece evidente la gran dificultad que tienen los estudiantes para
modificar sus concepciones estocásticas erróneas, idea consistente con las presentadas por
Garfield y DelMas (1989) o por Well, Pollatsek y Boyce (1990) en sendos trabajos sobre
procesos programados, con experiencias concretas de formación sobre diversas nociones,
como independencia, aleatoriedad o la influencia del tamaño de la muestra, utilizando la
simulación por ordenador. En ellos se puntualiza otro resultado interesante, ya antes
indicado en otras investigaciones, como es la influencia del contexto en que se presenta la
tarea y la estructura de la misma tarea puesta en juego en el proceso de instrucción. Well,
Pollatsek y Boyce apuntan además que muchos estudiantes no comprenden realmente el
efecto del tamaño de la muestra sobre la variabilidad de los datos o de los resultados,
mostrando gran resistencia a modificar sus concepciones. Garfield y DelMas, sin embargo,
obtuvieron resultados más mezclados. Algunos estudiantes cambiaban fácilmente sus
concepciones no adecuadas a lo largo de la experiencia propuesta, mientras que otros
persistía incluso después de haberla realizado y discutido sobre ella.
De todas estas investigaciones se puede concluir que una instrucción parcial y
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 173
puntual es insuficiente para un desarrollo adecuado del pensamiento probabilístico, es decir
un mero "adiestramiento" estocástico puede producir ciertas modificaciones parciales pero
no es suficiente para producir una evolución significativa en las concepciones erróneas de
los sujetos, producto de sus experiencias previas en contextos relacionados con la
incertidumbre y como tales conocimientos previos, muy resistentes al cambio. Es necesario
buscar y analizar otras estrategias que permitan la evolución real de las concepciones de los
sujetos.
En esta dirección, Shaughnessy (1977) intentó detectar estrategias efectivas para la
instrucción del conocimiento estocástico en universitarios, que permitan superar las
concepciones erróneas y reducir la confianza en el uso de los heurísticos a la hora de tomar
decisiones. Para ello presentó un curso en el que los estudiantes tenían que resolver y
discutir las decisiones adoptadas en tareas similares a las planteadas por Kahneman y
Tversky en sus investigaciones. En este trabajo el papel del profesor estaba perfectamente
configurado: organiza, provoca y diagnostica.
Shaughnessy concluye con una propuesta en el que el trabajo en grupo es pieza
fundamental y cuyo eje es la actividad de los alumnos construyendo y comprobando
modelos aproximativos. En un análisis retrospectivo que realiza Shaughnessy (1992)
considera, como conclusión mas relevante, la valoración del propio proceso de instrucción
en el que los estudiantes compararon tres tipos de informaciones: sus conjeturas iniciales,
los resultados empíricos y los resultados previstos por el modelo. El contraste y la reflexión
sobre dichas informaciones les posibilitó "la reconciliación de la disonancia entre sus
"misconcepciones" y sus observaciones empíricas" (p.482). Aunque, como el propio Shaughnessy
indica, el cambio de sus respuestas o creencias hacia las tareas propuestas no siempre es
posible, incluso después de un proceso de instrucción sistemático, "es muy difícil reemplazar una
"misconcepción" por una concepción normativa, una primera intuición por una intuición secundaria, o un juicio
heurístico por un modelo matemático. Las creencias y concepciones son modificadas lentamente" (p.481). En
la misma línea están otros trabajos suyos, Shaughnessy (1981) y (1983), en los que analiza
diferentes concepciones erróneas de los alumnos, en general relacionadas con el uso
sesgado de los heurísticos de juicio probabilístico señalados por Kahneman y Tversky.
Este trabajo conecta directamente con el tercer grupo de investigaciones más
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 174
centradas en la descripción y en algunos casos modificación del uso de estrategias erróneas
de razonamiento ante situaciones de incertidumbre. La mayoría de estas investigaciones
toman como base los trabajos de Kahneman y Tversky, descritos en el apartado anterior,
sobre los juicios no normativos de los sujetos ante situaciones de incertidumbre, sujetos que
en general son universitarios.
3.4.3. INVESTIGACIONES SOBRE HEURÍSTICOS Y SESGOS ANTE
SITUACIONES DE INCERTIDUMBRE
En esta línea se enmarcan las investigaciones de Ojeda Salazar (1990) y (1990a), en
las que analiza, respectivamente, la relación entre la posible asignación de probabilidades y
el contexto de aplicación, y sobre el uso de los heurísticos ante situaciones de probabilidad
condicionada. Realizadas ambas con grupos de niños de 10-11 años y 14-16 años,
considerando como una variable significativa la existencia de una instrucción previa en
probabilidad. En sus conclusiones encontramos de nuevo la discusión sobre el posible
obstáculo que supone la enseñanza tradicional de la probabilidad para el desarrollo de una
base intuitiva probabilística pues, cuanto mayores eran los sujetos, más empleaban los
métodos heurísticos para resolver las situaciones probabilísticas presentadas, y más sesgos
aparecían.
Hay un grupo de autores, como Bar-Hillel y Falk (1982); Falk (1983); Pollatsek y
col. (1987); Falk (1988); Borovcnik (1988) o Kelly y Zwiers (1988), fundamentalmente
educadores matemáticos y estadísticos, que han analizado las estrategias de los sujetos,
normalmente alumnos de secundaria o universitarios, ante situaciones de probabilidad
condicional. En estos trabajos se detectan las numerosas dificultades con que se enfrentan
los sujetos ante situaciones de probabilidad condicionada que originan gran cantidad de
decisiones erróneas. Una de las dificultades más importantes surge cuando un evento
condicionado ocurre antes del suceso que es la condición, dada la dificultad que supone
para un estudiante inferir la causa de un suceso, que está condicionado por otro posterior.
Además, el método usual para calcular tal probabilidad es el teorema de Bayes y éste da
muy poca o casi ninguna percepción intuitiva de la relación. Falk propuso que para trabajar
el problema podía ser útil la simulación física (Falk, 1983; Borovcnick, 1988). Otro tipo de
error conceptual ante la probabilidad condicional es la confusión entre un condicional con
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 175
su inverso; es decir, la relación contraria entre las causas (Falk, 1988).
Según Shaughnessy (1992), "las concepciones erróneas sobre la probabilidad condicional están
estrechamente relacionadas con la comprensión por los estudiantes de la noción de suceso independiente y de la
aleatoriedad en general" (p. 475), nociones que en general no son discutidas en la escuela.
Aunque relativamente hay muy pocos trabajos sobre las intuiciones y creencias de los
sujetos que versen específicamente sobre probabilidad condicionada, las investigaciones
realizadas apoyan el uso de situaciones del mundo real en los procesos de instrucción para
ayudar a los estudiantes en la comprensión de la condicionalidad.
Kelly y Zwiers (1988) hacen especial mención a la diferencia entre el mundo real y
la noción matemática respecto a la idea de sucesos que se excluyen o dependen
mutuamente, indicando la necesidad de la relación entre el modelo empírico y el
matemático. En el mundo real, los sucesos mutuamente excluyentes no son necesariamente
sucesos complementarios. Estos autores sugieren que se debe trabajar la diferencia entre
sucesos contrarios y contradictorios. En el fondo estamos de nuevo ante un problema de
lenguaje, los mismos vocablos no tienen el mismo significado en el lenguaje cotidiano que
en el matemático y esto puede ocasionar problemas en la comprensión de las ideas que
subyacen a dichos términos. En este caso estamos de nuevo ante el problema de relación
entre el mundo empírico y su modelización matemática, que no son isomorfos totalmente.
Como nos recuerda Steinbring (1986), el propio concepto matemático de independencia
estocástica, en sus inicios estaba asociado a nociones concretas, a dependencias o
independencias de hechos reales y sólo después fue distanciándose de lo empírico y
constituyendo un concepto matemático. Es un concepto difícil de entender, pues no todo lo
que parece independiente en el mundo real lo es matemáticamente y al contrario (Harten y
Steinbring, 1983). Un intento de acercamiento a este tema es el trabajo realizado por
Pollatsek y col. (1987), en el que elaboraron un cuestionario estructurado sobre el tema que,
aunque recoge algunas razones de las respuestas dadas, no aporta explicaciones relevantes.
Falk (1989) realizó otro estudio que versa sobre los juicios de probabilidad en
situaciones imprevistas o casuales y, entre sus resultados, encontró que los sujetos se
sorprenden más ante las propias casualidades vividas que ante las que les ocurren a otros
sujetos. Los sucesos auto-coincidentes son más fáciles de recordar y retomar que
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 176
casualidades similares de otros, por eso las casualidades auto -significativas son
proporcionalmente más sorprendentes que las casualidades sin sentido para uno mismo.
Esto es explicado a través del heurístico denominado "disponibilidad" por Kahneman y
Tversky. Las casualidades vividas son fácilmente recordadas y renombradas y, por
inusuales, son consideradas como sucesos únicos en nuestra experiencia, lo cual nos lleva a
considerar mínima la probabilidad de que ocurran sucesos de esa categoría.
En nuestro círculo más cercano de formadores de profesores, Serrano, Batanero y
Díaz Godino (1992) y Serrano (1993), han realizado una investigación con sujetos de 14
años (1º de BUP) y de 19 años (Estudiantes de Magisterio), sobre el uso del heurístico de
representatividad en situaciones de simulación. Comprueban que si bien el patrón seguido
por la mayoría de los alumnos es el de representatividad, aparecen gran variedad de matices
en los argumentos utilizados en sus respuestas: comparación de porcentajes sin tener en
cuenta el tamaño de la muestra, confianza en la continuación de la tendencia y, en otros, de
una compensación de la tendencia, etc. En todo caso encontraron una notable influencia del
resultado obtenido en la experiencia simulación sobre ciertas respuestas de los sujetos, lo
cual cuestiona la validez didáctica de la simulación en relación con la superación del
heurístico de representatividad.
Otro grupo de investigaciones relevantes son las realizadas por Konold y
colaboradores, dirigidas a descubrir las interpretaciones y estrategias de los sujetos ante
situaciones probabilísticas. Aunque los sujetos con los que trabaja Konold, como gran parte
de estos autores, son principalmente universitarios, sus conclusiones nos pueden aportar
datos, tanto sobre el propio proceso de enseñanza/aprendizaje, como sobre la realidad de los
profesores de primaria y las condiciones de su formación, pues entre otras cosas su
formación estocástica es prácticamente nula, aspecto coincidente con los sujetos
considerados en estas investigaciones.
Uno de sus primeros trabajos fue analizar los juicios informales de los sujetos ante
situaciones probabilísticas y su diferencia con la teoría normativa de la probabilidad, más
en concreto en relación con la comprensión de la noción frecuencial de la probabilidad
(Konold, 1983). En sus conclusiones propone un nuevo modelo para explicar el
razonamiento de los sujetos, la "outcome approach", según el cual los sujetos a lo hora de
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 177
predecir un resultado o tomar una decisión bajo incertidumbre están centrados en la
predicción de la prueba individual inmediata y no en el contexto global. Este modelo lo
propone como válido para explicar los errores detectados en los juicios cotidianos de los
sujetos "aunque inconsistentes con las teorías formales de probabilidad, sus componentes son lógicamente
consistentes y razonables en el contexto de la toma de decisiones cotidianas" (Konold, 1989; p.59), y lo
propone como explicación alternativa a los heurísticos descritos por Kahneman y Tversky.
Responde a una preferencia por analizar la situación probabilística desde una perspectiva
causal. Mientras que los juicios heurísticos se basan en percepciones de los procesos
aleatorios, los esquemas causales de razonamiento, tipo outcome approach, son provocados
por el predominio de la percepción de los procesos deterministas, al disponer los sujetos de
modelos válidos para percibir y analizar los experimentos aleatorios (Falk y Konold, 1992).
Estos sujetos no ven los resultados como una prueba simple de un experimento, incluida en
un conjunto de muchas pruebas, sino que perciben cada prueba como un experimento o
fenómeno individual y aislado. Este es el esquema de la estrategia de "outcome approach".
En la misma línea están gran parte de sus investigaciones.
Así, en otro de sus trabajos, Konold (1989) utiliza la entrevista a estudiantes
universitarios como medio para analizar el grado de adherencia de los sujetos al modelo
propuesto. Las explicaciones dadas las contrasta con el modelo normativo y desde el
significado del heurístico de representatividad, para poder confirmar la validez del modelo
de "outcome approach" como explicación alternativa de los razonamientos. De su análisis
concluye que los planteamientos de Kahneman y Tversky son incompletos y que el modelo
propuesto por él permite explicar un conjunto de errores que se dan habitualmente en el
razonamiento probabilístico, producto de focalizar el interés en el resultado individual
inmediato. En su trabajo, Konold y Cols (1990) analizan tanto los razonamientos
probabilísticos de un cierto número de universitarios, como los elementos que intervienen
en dichos razonamientos, con el fin de obtener datos que posibiliten su modificación.
Realizan dos estudios basados en la presentación de tareas sobre el lanzamiento de
monedas, similares a las presentadas por Kahneman y Tversky, con una entrevista posterior
en que las respuestas son discutidas y justificadas. Tras el análisis de los resultados,
plantean que las personas razonan desde una gran variedad de marcos y creencias sobre la
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 178
incertidumbre, pues dado que, en general, la probabilidad no es enseñada en la escuela, la
mayoría de los estudiantes tienen una conceptualización previa e informal de estos
conceptos producto de su experiencia en contextos cotidianos. Sugieren que un porcentaje
regular de respuestas a estas tareas reflejan una "outcome approach", es decir, un
tratamiento de la incertidumbre a través de una aproximación al resultado inmediato.
En el mismo sentido, Konold y otros (1993) comprueban que, ante la solicitud de
elección de la secuencia más probable en un lanzamiento de monedas entre cuatro
secuencias posibles, sorprendentemente, un 72% de los estudiantes contestan correctamente
sobre la equiprobabilidad de todas ellas, contrariamente a los resultado de Kahneman y
Tversky. Este resultado sugiere en principio que la mayoría de los estudiantes de secundaria
y universidad ven los resultados sucesivos de un proceso aleatorio como independientes.
Sin embargo en ítems posteriores y en las entrevistas realizadas a continuación, se detectan
respuestas inconsistentes desde el punto de vista lógico con la primera. Así, si se les
pregunta por la secuencia menos probable, sólo la mitad de los estudiantes contestan
correctamente. La primera conclusión es que realmente los sujetos no comprenden el
concepto de independencia y la interpretación dada, a la aparente contradicción entre las
dos situaciones, está relacionada de nuevo con la estrategia de "outcome approach". Según
estos autores, en el primer caso los sujetos funcionan como si les estuviera preguntando por
lo que va ocurrir ahora, inmediatamente, y concluyen que todo es posible, cualquier
secuencia puede salir. Mientras que en el segundo caso el esquema de funcionamiento es
diferente, y se basa más en el heurístico de representatividad, eligiendo la secuencia que
para ellos se diferencia más del modelo general de lanzamiento de las monedas. La
diferencia de funcionamiento entre las dos situaciones estos autores la achacan a la propia
estructura semántica de la pregunta.
Estos autores concluyen que estos datos tienen una implicación considerable en los
procesos de instrucción, alineándose con las ideas propuestas por Shaughnessy (1992) de
incluir en los procesos de instrucción unidades que permitan la confrontación de los juicios
correctos basados en la teoría normativa y los juicios informales basados en la utilización
de heurísticos como elemento fundamental de dichos procesos. Esta propuesta está basada
en la creencia de que un medio para provocar el cambio conceptual es crear situaciones que
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 179
permitan cuestionar el origen de las intuiciones particulares, provocando un conflicto
cognitivo; la resolución de dicho conflicto requiere de una reformulación y comprensión de
las situaciones, desde un punto de vista más elaborado. En sus propias conclusiones, estos
autores le encuentran ciertas limitaciones, en el sentido de que "las incompatibilidades y las
contradicciones probablemente no serán detectadas por los estudiantes hasta que ellos mismos razonen desde un
marco único" (Konold y col., 1992; p.30).
También con estudiantes universitarios y de posgrado, Coux y Mouw (1992)
realizaron una investigación sobre el uso de estos sujetos del heurístico de
representatividad. Estos sujetos estaban realizando un curso de introducción general a la
estadística o un curso de profundización sobre la inferencia estadística. Fueron divididos en
tres grupos, dos experimentales y otro de control. Con los grupos experimentales se trabajó
y se discutió sobre una serie de cuatro problemas en los que se trataba de determinar, bajo
sus criterios subjetivos, la probabilidad de ciertos sucesos en distintas experiencias. Se
administraron, individualmente, dos protocolos, un pre-test y un pos-test, que contenían
diversos ítems de respuesta múltiple, diseñados especialmente para medir el uso del
heurístico de representatividad. De los resultados obtenidos concluyeron que los juicios
sobre acontecimientos están en función de los hábitos lógicos o heurísticos aprendidos.
Estos son muy difíciles de romper ya que, dada la especial naturaleza de lo aleatorio, es
imposible disponer de una conjunto de evidencias concretas que apoyen un correcto
funcionamiento, no hay respuestas correctas y únicas. Como indican Falk y Konold (1992),
un claro obstáculo desde un análisis determinista de la situación, es la no diferenciación
entre "la elección correcta" y el "resultado favorable", no siempre el conocimiento lleva a la
certeza absoluta y a la respuesta correcta. Coux y Mouw sugieren que, una posibilidad para
provocar el cambio de los hábitos, sería ofrecer situaciones concretas e inquietantes en las
que la inconsistencia lógica del razonamiento del sujeto pueda ser demostrado,
permitiéndole su cuestionamiento.
Estos trabajos, en general, son una excepción entre el grupo de las numerosas
investigaciones realizadas por psicólogos pues, como confirma Shaughnessy (1992), es raro
encontrar en sus estudios algún interés en la influencia de la instrucción en las concepciones
erróneas detectadas. Los trabajos de Nisbett y colaboradores también exploran los efectos
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 180
de la enseñanza estadística. Por ejemplo, en la recopilación realizada por Kahneman, Slovic
y Tversky (1982), encontramos un trabajo de Nisbett y col. (1982) sobre la inferencia
inductiva realizada por las personas en su vida diaria. El procedimiento de análisis utilizado
se basa en que "el razonamiento inductivo debe de ser justificado en términos de adecuación de los modelos
subyacentes de los sucesos en cuestión" (p. 447) y no desde unos presupuestos generales dados por
la teoría normativa. En sus conclusiones analizan el carácter automático e inconsciente de la
mayoría de las inferencias que los sujetos realizan en su vida diaria, y ven su evolución, no
sólo como una mera maduración personal, sino como producto de los cambios vividos a
nivel lingüístico, cultural y educativo. Este trabajo se encuadra dentro de otro más general
cuyo objetivo es el estudio del razonamiento humano y de las habilidades aplicables a
muchas áreas de conocimiento. En este sentido, es importante el trabajo de Nisbett y col.
(1987) en el que describen los efectos de una enseñanza especifica sobre la Ley de los
Grandes Números. Analizan como los sujetos, tras un proceso de instrucción, son capaces
de generalizar sus aplicaciones a una gran variedad de situaciones. Las tareas que proponen
son relativamente fáciles con una propensión a la utilización de heurísticos. Como podemos
comprobar, hay un número significativo de datos que demuestran lo frágil que es nuestro
razonamiento bajo la incertidumbre.
En un sentido similar, como hemos indicado en líneas anteriores, Lecoutre y Duran
han realizado numerosas investigaciones sobre los razonamientos probabilísticos de los
sujetos, en las que han detectado un nuevo sesgo que han denominado "el sesgo de
equiprobabilidad", y al que consideran como un fuerte obstáculo en la evolución del
pensamiento estocástico, al ser de una gran resistencia. Este sesgo lo relacionan con la
utilización del heurístico de "representatividad", propuesto por Kahneman y Tversky.
Para comprobar su hipótesis han realizado distintas investigaciones alrededor de un
problema base: el lanzamiento de dos dados simultáneamente y comparar la probabilidad de
los posibles resultados compuestos. Sobre él han realizado diferentes modificaciones, en la
presentación del problema, en el tipo de información dada y en las características de los
sujetos presentándose en todos los casos un alto porcentaje de sujetos que razonaban bajo
criterios de equiprobabilidad, Lecoutre (1984), Lecoutre (1985), Duran (1987), etc., lo que
les permite comprobar la gran resistencia de este tipo de razonamiento. En investigaciones
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 181
posteriores, Lecoutre y Duran (1988), con sujetos de 14 a 19 años y sobre el mismo
problema, identifican cinco modelos espontáneos de razonamiento explicativo bajo criterios
de equiprobabilidad. El más común y significativo que detectan lo emplean el 65% de los
sujetos, es el modelo "Hassard" (Azar), según el cual los eventos aleatorios son "por
naturaleza" equiprobables.
En la misma línea, Cordier y Lecoutre (1990) enfrentan a estudiantes entre 16-17
años con un problema de la misma categoría pero con una presentación diferente. En este
caso es la extracción de dos objetos de una urna que contiene tres objetos, dos iguales y uno
diferente, y plantean la probabilidad de las distintas combinaciones. En su análisis detectan
cuatro modelos, pero curiosamente el más común en este caso ya no es el modelo
"Hassard" sino el "combinatoire", según el cual los sujetos evidencian que hay tres posibles
combinaciones todas con igual probabilidad. Este modelo lo utilizan alrededor del 75% de
los sujetos frente al 3% aproximadamente que utiliza en este caso el modelo "Hassard".
Estos resultados, si bien les permite confirmar de nuevo la alta resistencia de este sesgo,
constatan una clara desviación de los criterios de explicación en función de la presentación
del problema, el hecho de presentar un objeto con sentido en si mismo puede haber
condicionado las explicaciones dadas.
3.4.4 CONCLUSIONES GENERALES
Los resultados obtenidos nos aportan nuevos datos que corroboran y complementan
los presupuestos presentados en los diferentes trabajos teóricos, analizados en el apartado
anterior. Por ello, son de especial relevancia para la elaboración progresiva de un marco
general sobre el desarrollo del pensamiento probabilístico y sus problemas, que nos pueda
dar claves para la enseñanza de la probabilidad en la escuela, sus dificultades, sus limites y
sus condiciones; y en consecuencia son potencialmente fuente de información para el
conocimiento profesional de referencia.
Con respecto a los niveles conceptuales detectados y los tipos de razonamiento
que presentan los sujetos ante la incertidumbre, se pueden considerar como relevantes
las siguientes conclusiones sobre el desarrollo del pensamiento probabilístico:
- En primer lugar se corrobora la existencia de intuiciones primarias sobre la
aleatoriedad y la probabilidad desde edades muy tempranas, reflejo de la
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 182
experiencia personal en situaciones cotidianas con un cierto nivel de
incertidumbre.
- Se detectan ciertas concepciones sobre la aleatoriedad, como la asociación
azar/suerte que pueden ser un obstáculo para la comprensión del conocimiento
probabilístico, dada la dificultad de aceptar un posible análisis de los hechos
desde un punto de vista predictivo.
- Esta intuiciones o concepciones iniciales de los sujetos no evolucionan
paralelamente al desarrollo lógico del sujeto. El razonamiento de los
individuos bajo la incertidumbre se muestra, en general, muy frágil, incluso en
los adultos. Sin alcanzar el nivel de pensamiento formal.
- En los juicios cotidianos de los sujetos se detectan claramente concepciones
no formales y el uso de esquemas heurísticos de funcionamiento, condicionados
por la experiencia anterior del sujeto. Dichas concepciones, aunque dan origen
a numerosos sesgos en sus razonamientos, presentan una gran resistencia a ser
modificados.
- Por otro lado, en gran parte de las investigaciones se concluye que la
actividad cognitiva desarrollada ante este tipo de situaciones, depende de
diversas variables externas. En general, ante diferentes situaciones los sujetos
ponen en funcionamiento distintas creencias y esquemas operativos en relación
a los procedimientos disponibles y a las condiciones contextuales por el sujeto.
Las condiciones o variables externas con mayor influencia son:
* El contexto donde es presentado el problema, es decir, los aspectos de
la realidad que están relacionados con las diferentes cuestiones
planteadas.
* La propia formulación de dichas cuestiones, la forma y el sentido de
los interrogantes propuestos.
* Y el nivel de comprensión lingüística de los términos empleados en
dicha formulación.
Todo ello nos induce a reflexionar sobre la necesidad de diseñar y desarrollar
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 183
programas educativos que integren la enseñanza de la estocástica desde los primeros años,
para atenuar el efecto de una enseñanza excesivamente enfocada desde presupuestos
deterministas, y así facilitar el desarrollo de un pensamiento probabilístico.
A partir de las conclusiones presentadas en las distintas investigaciones
podemos extraer algunas consideraciones importantes, a tener en cuenta a la hora de
diseñar procesos de enseñanza/aprendizaje en los que esté implicado el conocimiento
probabilístico:
- Dado el gran número de conceptualizaciones informales detectadas sobre los
diferentes aspectos del conocimiento probabilístico, y su carácter estable y
resistente, éstas no pueden ser ignoradas en los proceso de enseñanza y
aprendizaje. Las concepciones previas de los sujetos han de ser necesariamente
su punto de partida.
- Su posible modificación y evolución hacia una visión más formal del
conocimiento probabilístico sólo es posible a través de procesos reflexivos que
permitan comprobar la inconsistencia de sus intuiciones, o su validez.
- El proceso de enseñanza debe responder a una relación dinámica entre la
realización efectiva de experiencias aleatorias y la construcción de modelos
matemáticos. Dichos procesos deben posibilitar la confrontación de las
conjeturas iniciales de los sujetos con los datos empíricos y las previsiones del
modelo matemático.
- Por último se defiende la idea de que las distintas experiencias y situaciones
probabilísticas, integradas en los procesos de enseñanza, deben estar
relacionadas siempre con hechos del mundo real, y coordinar aspectos
probabilísticos y estadísticos, así como diversos procedimientos de cálculo, y
diferentes formas de interpretar y representar la noción de probabilidad.
Cabría pensar que después de la reiterada defensa desde tantas investigaciones, de la
importancia y repercusión de su enseñanza/aprendizaje desde los primeros niveles y del
reconocimiento progresivo de su papel predominante en nuestra sociedad actual y en el
desarrollo del individuo, la probabilidad y la estadística fueran hoy un aspecto del
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 184
conocimiento matemático totalmente integrado en las escuelas. Sin embargo, a pesar de las
investigaciones y estudios realizados, muy poca probabilidad y estadística es enseñada de
forma sistemática en la mayoría de los países. Como nos matiza Shaughnessy (1992),
quizás donde existe una mayor tradición sobre el tema es en las escuelas europeas, ya que
en las escuelas americanas su presencia es casi nula al igual que en gran parte de las
españolas. Revisaremos, a continuación, su tratamiento en diferentes propuestas y proyectos
curriculares.
3.5. TRATAMIENTO DEL CONOCIMIENTO PROBABILÍSTICO EN
LOS PROYECTOS Y MATERIALES CURRICULARES
En los últimos años se han dado intensos debates sobre la idoneidad o no de la
introducción de la probabilidad y la estadística en la escuela y sobre el momento idóneo de
tal introducción. A partir de todas las investigaciones y discusiones realizadas, numerosos
argumentos se han ido aportando a favor de dicha inclusión, entre ellos:
* Su interés para la resolución de problemas relacionados con el mundo real y con
otras materias del currículum.
* Su influencia en la toma de decisiones de las personas cuando disponen sólo de
datos afectados de incertidumbre.
* Su dominio facilita el análisis crítico de la información recibida a través, por
ejemplo, de los medios de comunicación.
* Su comprensión proporciona una filosofía del azar de gran repercusión para la
comprensión del mundo actual.
El reconocimiento de su valor educativo ha llevado a incluir paulatinamente el
conocimiento estocástico tanto en los análisis y reflexiones más generales sobre el
currículum matemático obligatorio, como en los curricula escolares concretos de cada país.
Un claro reflejo de la importancia adquirida por la educación estocástica en los
últimos años y de su reconocimiento como parte integrante de la cultura matemática de los
individuos, es su inclusión en los "Estandares Curriculares y de Evaluación para la
Educación Matemática", publicados en 1989 por la NCTM. En ellos se recogen los
informes y reflexiones de un gran número de profesionales de la Educación Matemática y
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 185
se formula lo que se considera como contenido básico del currículum escolar matemático,
en respuesta a las demandas de la sociedad sobre la necesidad de cambio de las
matemáticas, tanto en su contenido como en la orientación de su enseñanza. Entre sus
introducciones novedosas, encontramos la sugerencia del tratamiento del conocimiento
estocástico a lo largo de todos los años escolares.
La justificación de su inclusión se apoya, por un lado, en la consideración de que,
para ser un ciudadano integrado en la sociedad actual, es necesario estar bien informado y
para ello es esencial entender los conceptos y técnicas fundamentales de la probabilidad y la
estadística y sus relaciones. "La recogida, organización, presentación e interpretación de los datos, así
como la toma de decisiones y predicciones basadas en dicha información, son todas ellas destrezas que tienen
cada vez más importancia en una sociedad que se base en la tecnología y la comunicación...El estudio de la
estadística y la probabilidad subraya la importancia que tiene plantear preguntas, hacer conjeturas y buscar
relaciones durante la formulación y resolución de problemas del mundo real...constituyen conexiones importantes
con otras áreas de contenido, como Ciencias Sociales y Naturales...Su docencia debe estar impregnada de un
espíritu de investigación y exploración" (NCTM, 1991; p.54). Y, por otro lado, el ritmo del cambio
en la sociedad actual es cada vez más acelerado, lo que supone la necesidad de una
formación que proporcione al ciudadano recursos para toda la vida, que le permitan
enfrentarse y comprender la complejidad de la sociedad en la que está inmerso. "El estudio de
la probabilidad ocupa a los estudiantes, de forma activa, en la exploración de sucesos y situaciones que son
relevantes en su vida diaria" (NCTM, 1991; p.114). No sólo les proporciona una información
valida para enfrentarse con los problemas cotidianos, sino que les permite un acercamiento
diferente a dichos problemas, una forma distinta de analizarlos.
Desde los Estandares se propone introducir "la exploración del azar" y el
tratamiento del "concepto de casualidad" desde los primeros niveles, incluido el Preescolar
y, un tratamiento posterior, dirigido a la elaboración de modelos, experimentales y teóricos,
de situaciones probabilísticas, que les sirvan en situaciones cotidianas como referente, a la
hora de determinar o hipotetizar posibilidades de ocurrencia, y tomar decisiones en función
de ello. En sus orientaciones metodológicas apunta la necesidad de implicar a los niños de
forma activa en su aprendizaje y de tomar como punto de partida situaciones que surjan del
mundo cotidiano, no como concreciones ejemplificadoras del contenido probabilístico
aislado, sino para tratar la totalidad de contenidos implicados y sus interrelaciones.
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 186
En la misma línea están las recomendaciones indicadas en el llamado Informe
Cockcroft, resultado de un estudio realizado sobre la enseñanza de las matemáticas en el
Reino Unido. En él se recoge un breve análisis sobre la situación específica de la enseñanza
de la probabilidad y la estadística, en el que indica los pocos trabajos e investigaciones
desarrolladas sobre el tema, cuando, curiosamente, se considera al Reino Unido como uno
de los países con mayor experiencia en la enseñanza del conocimiento estocástico.
Comenta que, en general, estos conocimientos son iniciados en el nivel de
Secundaria y, a menudo, se insiste en la aplicación directa de técnicas o fórmulas sin más
explicaciones de su significado. Un tratamiento de estas características, provoca
habitualmente un desarrollo, lejos de la comprensión de los alumnos al no incidir en la
discusión de los datos disponibles, en su interpretación y en las posibles conclusiones
alternativas en función del contexto de aplicación. Como contrapunto, afirma que estas
materias no pueden ser consideradas como un conjunto de técnicas, sino como una actitud
mental diferente que "admite la incertidumbre y la variabilidad en los datos y en la recogida de éstos y
permite tomar decisiones a pesar de esa incertidumbre" (Cockcroft, 1985; p.286). Sin entrar en
especificar contenidos concretos, puntualiza que son conocimientos que deben de ser
enseñados con lentitud, a través de todas aquellas situaciones y actividades necesarias para
que las ideas se comprendan, desarrollen y afiancen. Mantiene, además, que "los años de
primaria poseen un valor intrínseco: el de un período en que se abren las puertas a una amplia gama de
experiencias" (Cockcroft, 1985; p.104) y que proporcionarán una base de estimable valor para
la actividad matemática en los años posteriores.
3.5.1. PROPUESTAS CURRICULARES ESPECÍFICAS
Si bien en todos los estudios consultados se constata la casi total ausencia de un
material escolar apropiado para el trabajo en aula, sí hemos encontrado interesantes
propuestas curriculares específicas sobre el tratamiento del conocimiento probabilístico y/o
estadístico a lo largo de los distintos niveles educativos. Entre ellas podemos citar la
propuesta por Varga y Dumont (1973) en Combinatoire, statisques et probabilités de 6 a 14
ans, en la que proponen una secuencia de trabajo a lo largo de los ocho primeros cursos de
la enseñanza (6-14), dirigida fundamentalmente a la adquisición de habilidades y destrezas.
Su punto de partida es la recogida de información a través de la experiencia. A continuación
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 187
introducir a los niños, en los aspectos combinatorios y, progresivamente, en la búsqueda de
los posibles resultados del evento o experimento aleatorio. También tratan los distintos
aspectos del conocimiento estocástico, los distintos tipos de sucesos, la equiprobabilidad, la
frecuencia, la construcción e interpretación de las diferentes clases de tablas, gráficas,
conceptos, medidas y representaciones posibles, hasta finalizar en el último curso, con la
introducción de la visión conjuntista de las probabilidad y de las medidas de centralización
y dispersión fundamentales.
Desde nuestra perspectiva, los planteamientos de Vargas y Dumont desvinculan de
la realidad el conocimiento y comprensión de estos conceptos con demasiada rapidez. Al
finalizar la Primaria, en una edad donde los niños aún no están capacitados para una
tratamiento formal de estos conocimientos, ¿cómo puede representar la interpretación del
conjunto de sucesos como un álgebra de conjuntos? Todo el desarrollo de la propuesta se
apoya en una presentación cercana al conocimiento formal de la probabilidad y la
estadística, situando la combinatoria en la base de dicho conocimiento. En sus orientaciones
metodológicas sugiere la necesidad de acceder a estos conocimientos a partir de la
experimentación en situaciones especialmente planificadas y tratadas con un material
concreto. Son situaciones entendidas como elementos de experimentación, diseñados más
en función del contenido y su estructura, que desde la realidad e intereses del niño. Pueden
servir de referencia para su inclusión en proyectos o unidades más amplias que otorgen un
sentido a su tratamiento.
Una propuesta más en la línea de las ideas actuales, la presentada por Díaz Godino,
Batanero y Cañizares (1988) en su libro Azar y Probabilidad, que también recoge la
necesidad de su tratamiento desde los primeros niveles. En dicha propuesta, completada con
un estudio teórico sobre el tema, analizan la imposibilidad de enfocar la enseñanza
elemental de estas nociones hacia su adquisición formal, dada la incapacidad cognitiva de
los niños de estas edades. Como alternativa, enfocan su trabajo hacia la construcción de
intuiciones, basadas en la propuesta de una amplia fenomenología. Dicha construcción
constituirá un momento previo y base de la adquisición de conceptos formales, propio de
etapas educativas posteriores.
Proponen una serie de unidades didácticas para desarrollar en las aulas desde los
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 188
primeros niveles, incluido el Infantil, hasta la Educación Secundaria, con un tratamiento
escalonado del conocimiento estocástico, a modo indicativo y orientativo de un proceso
global de formación. La secuencia va en progresivo aumento de complejidad de los
conceptos implicados, fenómeno aleatorio, juegos combinatorios, frecuencias relativas, el
lenguaje del azar, comparación y asignación de probabilidad, etc. En el desarrollo de las
unidades propuestas siempre parten de situaciones experienciales en las que los niños ha de
tomar parte activa. Son situaciones puntuales, al margen de todo contexto global, que no
representan en sí mismas ningún proceso, ni una relación con situaciones más amplias.
Ahlgren y Garfield (1991), presentan un análisis de los distintos planteamientos
curriculares sobre el conocimiento estocástico en el que analizan:
* Las fuentes habituales del currículum: las disciplinas científicas, las necesidades
de la sociedad o el propio conocimiento del profesor.
* Las posibles condiciones que influyen en la elección de la orientación curricular,
entre las que incluyen la necesidad de superar las concepciones no adecuadas de los
alumnos.
* Y diferencian varias aproximaciones al currículum estocástico: aquellas cuya
organización se basa exclusivamente en un conjunto de actividades secuenciadas y
con sentido en sí misma; las que se organizan como unidades completas en sí
mismas, independientes y separadas; incluso las que se presentan como todo un
curso completo también diferenciado en sí mismo.
Estos autores presentan como alternativa el desarrollo de un currículum integrado en
el que proponen iniciar el tratamiento del conocimiento estocástico desde los cinco años.
Presentan los objetivos que consideran idóneos y el conjunto de ideas y destrezas a
desarrollar a lo largo de la enseñanza obligatoria. En su desarrollo enfatizan los aspectos
relacionados con el nivel de secundaria, dejando para la etapa de 5-10 años un único y
básico objetivo, la exploración de los conceptos relacionados con el azar, inmersa en
contextos amplios de experiencia.
Otras propuestas más centradas en un análisis de carácter metodológico son las
presentadas: por Olecka (1982) en el Proceeding of the First International Conference on
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 189
Teaching Statistics (ICOST); o por Bisson (1983) en su trabajo Du hassard aux
probabilités.
La propuesta de Olecka (1982) describe un proceso de instrucción sobre algunos
conceptos probabilísticos concretos como experimento simple y compuesto, probabilidad,
probabilidad condicional y esperanza matemática, basado en el método de las seis etapas de
Dienes. Si bien, por las nociones que analiza, no es muy útil para el nivel de primaria, sí lo
es por el proceso y los pasos que desde él propone, tales como: la interacción inicial con la
experiencia; la búsqueda de regularidades y de isomorfismos entre las distintas
experiencias; el uso de distintos sistemas de representación, etc. La última etapa, de
formalización, la propone solo para niveles posteriores de la enseñanza.
El proceso descrito por Bisson es una adaptación de la teoría de situaciones
didácticas planteada por Brousseau (1986). Su punto clave está en la elección de problemas
significativos que preservan el sentido del conocimiento implicado, inmersos en una
situación más amplia en la que está implicada todo el sistema de interacciones: la situación
didáctica. Plantea los tres tipos de situaciones didácticas que según Brousseau deben de
ponerse en juego en un proceso de enseñanza/aprendizaje del conocimiento matemático,
según el tipo de dialéctica que establezcan: de la acción, de la formulación y de la
validación.
* En las situaciones que domina la dialéctica de la acción se plantean
problemas al estudiante cuya solución esté relacionada con el concepto que se
pretende enseñar. Se debe posibilitar el contraste entre distintas soluciones y ajustar
su acción en función de la información que recibe de la propia situación.
* En la situación de formulación el alumno debe elaborar el modelo intuido
de la fase anterior, construyendo un lenguaje que permita el intercambio de
información con sus compañeros. Como resultado, el alumno crea un modelo
explícito que puede ser reformulado con ayuda de signos o reglas.
* El tercer tipo es la situación de validación en la que el objetivo es
conseguir que el estudiante avance en el proceso de matematización, al probar la
validez del modelo para interpretar hechos diferentes y convencer de su validez a
otros compañeros.
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 190
Tal como están descritas, consideramos que las situaciones en donde se plantea la
dialéctica de la acción, siempre inmersas en contextos más amplios que conecten con la
realidad del niño, son las idóneas para poner en juego en los primeros años de la primaria.
Son aquellas en la que los problemas planteados estén en relación con el concepto que se
pretende enseñar y en las que se pone al niño en contacto con la experiencia directa.
Hay otras propuestas, focalizadas en los niveles de Secundaria, como la presentada
por el Grupo Cero (1984) en Un proyecto de currículum de Matemáticas. De él, no nos
interesa tanto los contenido que proponen: recogida, tratamiento y análisis de los datos;
reconocimiento de situaciones de azar; juegos de azar y su tratamiento estadístico;
frecuencia relativa; probabilidad; etc; sino sus orientaciones metodológicas. Defiende la
introducción lenta del estudio de conceptos probabilísticos y estadísticos, concediendo
tiempo suficiente a las discusiones y experiencias subyacentes a partir de variadas
situaciones. En todo su trabajo se enfatiza la perspectiva frecuencialista de los sucesos y el
subsiguiente tratamiento estadístico de los datos.
También está centrada en secundaria la propuesta la presentada por el School
Council Project on Statistical Education (1980), Statistics in your world, en la Universidad
de Sheffield, cuna junto con la de Bielefeld, de gran parte de los trabajos e investigaciones
sobre la enseñanza y aprendizaje de la probabilidad y la estadística. En su trabajo ofrecen
una serie de cuadernos de actividades para el alumno (11-16) y de notas para el profesor. Su
orientación metodológica parte básicamente, del desarrollo del conocimiento en contextos
prácticos vinculados con el mundo del niño. Plantean una adquisición progresiva, tanto de
las técnicas, como de los conceptos, y la no necesidad de una justificación teórica completa
en estos niveles de la educación. Ponen de manifiesto el carácter interdisciplinar de estas
materias y por tanto su potencialidad para relacionar el conocimiento matemático con otras
áreas del currículum. Una adaptación de dicho proyecto es L´estadistica en el votre mon,
publicada por el ICE de la U.A.B. en 1990. En dicho proyecto se presentan diferentes
materiales para el alumno, y libros para el profesor, en los que se proponen una colección
de actividades y situaciones de experimentación que intentan estar conectadas, en cierta
forma, con problemas cotidianos y con el mundo real.
Existen también propuestas de situaciones o tareas de enseñanza en donde se
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 191
presentan experiencias accesibles a todos los niveles educativos e integrables en diferentes
procesos. Un ejemplo es el, ya clásico, libro de Engel (1988), L'Enseignement des
Probabilites et de la Statistiques. En él, Engel presenta una recopilación exhaustiva de
problemas y situaciones, discutidas y desarrolladas, con un claro carácter instructivo. Sus
ejemplos han sido fuente de un gran número de experiencias sobre la enseñanza de la
probabilidad y la estadística, realizadas por profesionales de diferentes niveles, tanto en sus
aulas, como en sus trabajos de investigación.
En su propuesta, aunque plantea inicialmente la necesidad de integrar estos
conocimientos en todos los niveles de la enseñanza, en su desarrollo real dirige el estudio
de las probabilidades hacia los niveles de Secundaria. La mayoría de las situaciones
propuestas por él necesitan para su desarrollo de unos mínimos conocimientos
matemáticos, algunos no accesibles a los niños de Primaria. Aún así, su obra es de gran
significación por aportar multitud de ideas útiles para trabajar en la escuela el conocimiento
estocástico.
Muchas de estas propuestas se caracterizan por pretender dar protagonismo a los
niños en el desarrollo de las distintas actividades, pero presentan un formato muy
específico, cerrado en muchos casos y lineal; con una secuencia determinada "a priori" e
independiente del contexto en donde pueden adquirir significado para el niño. Presentación
controvertida, en cierta forma, con la idea que tenemos sobre el sentido del tratamiento del
conocimiento matemático en la escuela, cuyo principal problema es "la construcción del sentido,
de la justificación ontológica de los objetos matemáticos" (Thom, 1974; p.148). Hecho dependiente del
contexto real de aplicación.
Todas estas reflexiones, proyectos y estudios, desarrollados en los últimos años, han
ido configurando nuevas propuestas en cuanto a la enseñanza de la matemática en general,
y de la estocástica en particular. Propuestas que paulatinamente se han ido reflejando en los
distintos sistemas educativos.
3.5.2. NUESTRO CURRÍCULUM PRESCRIPTIVO
El sistema educativo de un país es el reflejo de las necesidades socio-económicas,
culturales y políticas, la reforma del sistema surge cuando las necesidades de dicha sociedad
evolucionan y sus demandas se modifican. El cambio de las necesidades sociales y el mayor
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 192
conocimiento sobre el tema, a partir de los estudios e investigaciones realizadas, han
provocado la transformación de la opinión de aquellos elementos de la sociedad que
piensan sobre la enseñanza de la Matemática en los diferentes países. Desde ellos se
procede a la selección de los contenidos a enseñar configurando las propuestas oficiales en
función de las demandas de la sociedad. La inclusión oficial, en los curricula escolares
elementales, de los aspectos relacionados con el conocimiento estadístico y probabilístico,
es fruto de dicho movimiento.
Esta selección, por otra parte, es el resultado de lo que, el propio Chevalard (1991),
denomina trabajo externo de la transposición didáctica, y es lo que determina, a partir del
saber científico, los objetos del saber que deberán de ser enseñados, es decir el currículum
pretendido, que se propone, en gran parte, por mediación de los programas oficiales (Traves
y Westbury, 1989). No obstante, este paso no es suficiente, pues en el caso del
conocimiento estocástico la definitiva integración en el ámbito escolar se está dando a un
ritmo lento y difícil, entre otras razones, por el escaso conocimiento que aún se dispone
sobre la didáctica de la estocástica, la carencia de profesores cualificados y su particular
naturaleza epistemológica. Razones ya indicadas por Ràde (1986), pero que mantienen gran
parte de su vigencia. Por tanto, su inclusión en el currículum ejecutado a nivel de aula y su
reflejo en el currículum alcanzado por los alumnos, está aun muy lejos de ser una realidad
en un gran número de países, entre ellos España.
En un informe elaborado por la International Commission on Mathematical
Instruction denominado School Mathematics in the 1990s, publicado en España en 1988
como Las Matemáticas en Primaria y Secundaria en la década de los 90, se presenta una
revisión sobre los curricula de diferentes países y en ella se constata un alto grado de
uniformidad entre las diferentes propuestas en lo referente a aritmética y algebra, no tanto si
nos fijamos en los contenidos de geometría, y una gran variedad con respecto al estudio de
la probabilidad y la estadística. Hay países con un largo camino recorrido en la enseñanza
de estos temas desde la escuela elemental como Inglaterra o Alemania y otros en que su
tratamiento en los curricula es prácticamente insignificante. En España no ha sido incluido
en el desarrollo curricular de la enseñanza primaria hasta la ordenación del año 92, con las
nuevas propuestas resultado del desarrollo de la LOGSE.
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 193
En un análisis más exhaustivo de los curricula matemáticos presentado por Traves y
Westbury (1989), estos autores advierten que en general se centran más en el dominio de la
estadística, porque "aparentemente la probabilidad no es suficientemente importante a nivel internacional
como para justificar el rótulo de Probabilidad y Estadística" (p.16).
En el caso del currículum español, en las sucesivas ordenaciones de la Educación
Obligatoria 1970/1981/1984, no encontramos nada ni en cuanto a objetivos/contenidos ni
en el campo de las orientaciones metodológicas, para el tratamiento matemático de
nociones asociadas al azar y a la probabilidad. En la enseñanza básica actual las nociones
asociadas al mundo de la incertidumbre, están prácticamente ausentes, basta analizar los
libros de texto de EGB para constatarlo.
Sin embargo, en la regulación del Ciclo Superior de la EGB, en los llamados
Programas Renovados, si se recoge un bloque de contenidos, denominado "Estadística
Descriptiva", centrado en la introducción de las técnicas elementales de tratamiento y
representación de datos, sin ninguna alusión al tratamiento de la probabilidad y sus
relaciones, dejando estos contenidos para el BUP, comentando explícitamente que "este tema
enlaza en BUP con el estudio de las distribuciones estadísticas y de la probabilidad, instrumento matemático que
utiliza la estadística inductiva" (Programas Renovados de la EGB. Ciclo Superior, 1981; p.175).
A nivel metodológico, en los Programas Renovados había unos principios explícitos
que orientaban al profesor hacia la necesaria implicación activa del alumno, respetando y
adaptando la enseñanza a su ritmo de aprendizaje. Pero, sin embargo la presentación de una
secuenciación de objetivos y contenidos perfectamente delimitados y organizados
jerárquicamente, induce a los profesores, y fundamentalmente a los del Ciclo Superior, a
presentar los conceptos previamente de forma teórica, para luego aplicarlos a la resolución
de ejercicios.
Habitualmente, en nuestro medio educativo la enseñanza de la probabilidad se ha
iniciado alrededor de los quince años. En los programas del Bachillerato actual aparece en
los cuestionarios oficiales de primer curso un solo objetivo formulado en relación al
conocimiento probabilístico: "Introducir la teoría combinatoria y la noción de
probabilidad para el caso de un universo finito". Este planteamiento ha llevado
generalmente a una presentación de la teoría matemática de la probabilidad desde una
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 194
perspectiva clásica, en la que la asignación de las probabilidades iniciales a los sucesos se
basa en la regla de Laplace y en el cálculo combinatorio. El tema se desarrolla de forma
axiomática, sin considerar que en estos niveles la gran mayoría de los alumnos no pueden
comprender un desarrollo axiomático de la teoría matemática, y mucho menos cuando
adolecen de toda preparación intuitiva que, como hemos visto, es previa a cualquier
conocimiento formal de la probabilidad. El resto de los contenidos regulados están
relacionados con el conocimiento estadístico y en general no se establecen conexiones entre
ellos.
En sus planteamientos subyace la misma idea señalada para el caso de los
Programas Renovados. Los conceptos aparecen en los cuestionarios como objetos
matemáticos sobre los cuales, en primer lugar se ha de estudiar su definición y propiedades,
para luego ser aplicados a casos particulares, a modo de ejemplo. "Es el marco de una enseñanza
clásicamente estructurada en curso teórico y ejercicios, es decir, "tu aprendes, yo explico", según expresión de
Douady" (Margolinas, 1993; p.175).
La nueva regulación del sistema educativo español, producto del desarrollo de la
LOGSE, ha incidido significativamente en el tratamiento de este campo del conocimiento
matemático en los curricula oficiales. Por primera vez se recoge su enseñanza desde los
primeros niveles educativos y a lo largo de toda la Enseñanza Primaria y Secundaria
Obligatoria.
Con respecto a la Enseñanza Secundaria Obligatoria (E.S.O.), dentro de sus
objetivos, se presenta la necesidad de incorporar al lenguaje y modos de argumentación
habitual, la forma probabilística de expresión matemática y las diversas formas de explicar
la realidad determinada/aleatoria. Así mismo, recoge la utilización de técnicas sencillas de
recogidas de datos, tanto referidos a fenómenos causales como aleatorios y a la
interpretación de dichos datos.
Paralelamente en el apartado de contenidos se presenta un bloque denominado
"Tratamiento del Azar", en él se recogen los diferentes conocimientos, tanto conceptuales,
procedimentales, como actitudinales, que se han de trabajar en este nivel. Básicamente se
centran en: reconocer y caracterizar los fenómenos aleatorios; la asignación de
probabilidades tanto en experimentos simples como compuestos; introducir el concepto de
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 195
probabilidad a través del estudio frecuencial de los fenómenos; introducir la probabilidad
laplaciana como correspondiente a casos sencillos y equiprobables.
Entre los procedimientos a poner en juego propone la utilización de distintas fuentes
de información para asignar probabilidades, y de diversas técnicas y procedimientos para su
cálculo. Y entre las estrategias más generales: el reconocimiento de fenómenos aleatorios
en la vida cotidiana y en el conocimiento científico; argumentar conjeturas sobre su
comportamiento; y tomar decisiones en los distintos contextos en función de la información
obtenida. Estrategias que llevarían a los alumnos a una valoración positiva de la
información probabilística, a la hora de tomar decisiones ante situaciones de incertidumbre,
adquiriendo cautela y sentido crítico ante las creencias populares sobre los diferentes
fenómenos aleatorios.
Paralelamente se presenta un bloque de "Interpretación, representación y tratamiento
de la información", que se divide en dos grandes apartados: el tratamiento de la información
sobre los fenómenos causales, en el que introduce el significado de la proporcionalidad, y el
tratamiento de la información sobre fenómenos aleatorios, en el que directamente trabaja el
estudio estadístico de los datos. Mantienen un tratamiento paralelo y sin referencias en sus
orientaciones sobre las posibles relaciones con el otro bloque, donde se incidía en la
conceptualización del fenómeno aleatorio a través de parámetros probabilísticos,
complementarios de los estadísticos.
En las orientaciones específicas sobre el tratamiento del azar, plantean la
introducción progresiva de la idea de azar y probabilidad desde los primeros años de la
etapa. El trabajo debe estar dirigido al desarrollo de una intuición sobre la probabilidad,
para lo que propone directamente el enfoque frecuencial, tanto para el estudio de la
probabilidad como del significado y comportamiento de la aleatoriedad, permitiendo
detectar sus "regularidades". Da un papel relevante a la actividad manipulativa y al juego y
considera a la combinatoria como un método idóneo relacionado con distintas expresiones
de la probabilidad.
Sus orientaciones metodológicas, acordes con las orientaciones psicopedagógicas
generales de todo el sistema educativo español, recogen los planteamientos constructivistas
del conocimiento, comentados en capítulos anteriores y defienden los siguientes aspectos:
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 196
la importancia de los conceptos previos de los alumnos como punto de partida; el papel de
la aproximaciones contextuales e inductivas al conocimiento matemático; el proceso de
actividades como algo abierto y flexible con variedad de métodos de trabajo y
organizaciones; etc.
Por último en la secuencia sugerida, (MEC, 1992b), se considera al primer ciclo
como una continuación del trabajo desarrollado en Primaria sobre los fenómenos en los que
interviene el azar, llegando a cierto nivel de formalización de una medida del grado de
incertidumbre que le permita asignar probabilidades a través fundamentalmente del
recuento. Ya en el segundo ciclo propone la adquisición de una idea más precisa del
concepto de probabilidad como medida de lo esperable en la ocurrencia de un suceso y sus
posibles aplicaciones, pero sin llegar a su axiomática.
Existen otras secuenciaciones, sugeridas por distintos grupos de profesores, como
las tres propuestas recogidas en el libro del MEC (1993), en las que encontramos opciones
muy diferenciadas. Desde la consideración de los conocimientos probabilísticos y
estadísticos como un bloque único, hasta una fuerte tendencia hacia lo probabilístico en
detrimento de lo estadístico, retrasando su tratamiento al segundo ciclo. La propuesta
"Actividades sobre Azar y Probabilidad" por Cruz; González y LLorente (1993), está
presentada como material curricular, centrada en el tratamiento de la probabilidad y el azar
a través de diferentes experiencias. También localiza el tratamiento de estos temas a partir
del segundo ciclo.
El currículum español presentado en el Real Decreto del 1679/91 sobre la
regulación de la Educación Primaria (BOE del 13/9/1991), recoge la enseñanza de estos
conceptos en un bloque único denominado "Organización de la Información". En su
desarrollo se concretan los objetivos y los contenidos conceptuales, procedimentales y
actitudinales para la iniciación del conocimiento estadístico y probabilístico a lo largo de
los distintos ciclos de la primaria (MEC, 1992a).
En el desarrollo del bloque encontramos de nuevo una mayor carga en la
introducción de conocimientos y técnicas elementales de la estadística descriptiva, si bien
es cierto que plantea la necesidad de construir el conocimiento probabilístico en
interrelación con el propio conocimiento estadístico. El conocimiento probabilístico es
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 197
iniciado desde la introducción del carácter aleatorio de una experiencia hasta las primeras
asignaciones del grado de probabilidad de un suceso. En la secuenciación sugerida por el
MEC, la iniciación en la probabilidad y la caracterización de los tipos de sucesos, se
propone en el tercer ciclo de Primaria, sesgando todos los otros ciclos hacia un tratamiento
exclusivamente estadístico, en el que se incluyen recuentos, tablas, gráficos e
interpretaciones de los datos representados, todo previamente a la introducción de una
interpretación probabilística de la información.
En sus orientaciones más generales, acordes como ya dijimos con los presupuestos
constructivistas, se plantea la necesidad de partir de la experiencia del niño y de sus
conocimientos previos sobre el tema, respetar sus ritmos de aprendizaje y guiar su
aprendizaje a través del diseño de una secuencia de actividades, relacionadas entre si en la
medida de lo posible, pero de distintas categorías: actividades de presentación, de
desarrollo, de generalización y de profundización. Matiza al final que es útil comprobar que
los objetivos se han cumplido al finalizar el proceso.
Más concretamente, para el tratamiento del "Azar y la Probabilidad", proponen
como introducción idónea partir del la experimentación y análisis de los juegos de azar,
confrontando las estimaciones realizadas y los resultados obtenidos. Consideran que los
niños de estas edades "ya pueden apreciar el carácter aleatorio de un suceso mediante la observación de
fenómenos de la vida cotidiana y mediante la realización de juegos...pueden decidir de forma sencilla e imprecisa
el grado de probabilidad de un suceso" y que, por tanto, las actividades apropiadas para "el
tratamiento de estos contenidos son en su mayoría lúdicas y motivadoras y suponen el trabajo con objetos
concretos y conocidos, por lo cual no ofrecen gran dificultad para su enseñanza y aprendizaje" (MEC, 1992a;
p.94). Podemos percibir la sugerencia de una introducción de este conocimiento a través de
un camino puramente intuitivo y experimental que puede provocar su comprensión parcial
y desvirtuada.
En la propuesta presentada por la Junta de Andalucía, (BOJA del 20/6/1992), no hay
una presentación explícita de un bloque relacionado con algún aspecto del conocimiento
estocástico. Pero, como podemos comprobar están recogidos implícitamente en los distintos
objetivos generales. En la colección de materiales curriculares presentados por la Junta de
Andalucía (Junta de Andalucía, 1992) para la Educación Primaria, podemos señalar, por
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 198
ejemplo, dos objetivos vinculados con el aprendizaje del conocimiento estocástico:
(Obj. 1) "Utilizar los códigos y conocimientos matemáticos para apreciar, interpretar y
producir informaciones sobre hechos o fenómenos conocidos, susceptibles de ser
matematizados." (Tomo I; p.103).
(Obj. 6) "Utilizar técnicas elementales de recogida de datos para obtener información sobre
fenómenos y situaciones de su entorno; representarla de forma gráfica y numérica y
formarse un juicio sobre la misma." (Tomo I; p.104).
Este hecho se refleja a lo hora de sugerir una cierta organización y secuenciación de
los contenidos propuestos desde el Decreto de la Educación Primaria, recogida en el Tomo
II de dicho desarrollo. Así encontramos:
* En el segundo ciclo y, curiosamente, dentro del desarrollo del bloque
"Números y Operaciones", la siguiente sugerencia:
- "Exploración sobre la causalidad. Constatación del carácter aleatorio de algunas experiencias"
(Tomo II; p.99).
* Ya en el tercer ciclo, y dentro del mismo bloque de "Números y
Operaciones", encontramos las siguientes indicaciones:
- "Recogida, organización, representación, análisis y valoración de datos de forma cada vez más
sistemática. Formulación de sencillas inferencias. Presentación de manera ordenada y clara de los
resultados".
- "Aproximación a la idea de probabilidad. Exploración del grado de probabilidad de sucesos sencillos"
(Tomo III; p.100).
* En otro bloque distinto "Conocimiento, orientación y representación
espacial" pero, también en el tercer ciclo, encontramos reflejado el tratamiento
estadístico de los datos, de forma muy especial:
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 199
- "Representaciones espaciales de ideas y situaciones no espaciales. Elaboración e interpretación de tablas y
gráficas estadísticas" (Tomo III; p.99).
Dicha organización no parece reconocer la problemática específica del conocimiento
estocástico cuya naturaleza, como ya hemos comentado, difiere sustancialmente de otros campos
del conocimiento matemático, como el numérico o el geométrico. su presentación, diluida y
dispersa puede producir gran confusión a los profesores a la hora de su tratamiento en el aula.
A la hora de las orientaciones metodológicas, hay algunas indicaciones referidas a estos
temas. Así, indican que los niños del segundo ciclo suelen tener un especial interés por
situaciones donde ha de analizarse y preverse la probabilidad de un suceso o la repetición de un
elemento. Aclaran que siempre en un tono investigativo y lúdico, se le pueden proponer
actividades tendentes a discriminar lo seguro, lo posible, lo probable, etc. Igualmente importantes
consideran las actividades experimentales sobre modelos de probabilidad, localizadas en el tercer
ciclo. En ellas se ha de enfrentar al alumno con experiencias concretas en situaciones de
naturaleza probabilísticas, en las que tengan que prever el resultado y comprobarlo
experimentalmente, "descubriendo progresivamente que, puede saberse que suceso es más probable, y "cuanto" más
probable es" (Junta de Andalucía, 1992; p.96).
Hay una cierta tendencia de nuevo hacia el estudio de sucesos fundamentalmente
repetibles, en todas las propuestas oficiales. "Se trata de comprobar que los alumnos empiezan a constatar que
hay sucesos imposible, sucesos que con toda seguridad se producen, o sucesos que se repiten, siendo más o menos
probable esta repetición" (MEC, 1992; p.29), es decir, factibles de ser analizados fundamentalmente
desde una perspectiva frecuencialista y tratados desde la estadística elemental, considerando la
perspectiva clásica como un caso especial en situaciones de equiprobabilidad.
Este planteamiento puede tener ciertos problemas dada la dificultad que supone en un
contexto práctico, por un lado asegurar la equivalencia de los sucesivos experimentos y por otro,
su posible repetición infinita, lo cual lleva en muchos casos a resultado contradictorios. Al querer
confirmar rápidamente los resultados previstos por el modelo de referencia, pueden considerar
ciertos sesgos de la intuición probabilística, asociados al uso del heurístico de representatividad,
como también comenta Serrano (1993) en su trabajo. Aunque, al dar un papel significativo a las
concepciones iniciales de los sujetos en sus orientaciones metodológicas, se facilita la
consideración de las predicciones previas formuladas por los alumnos, de carácter subjetivo,
como soporte de la enseñanza de la probabilidad, en contraste con las sugerencias relativas a una
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 200
aproximación frecuencial de la probabilidad.
Hasta aquí, hemos constatado la evolución de las propuestas oficiales como consecuencia,
entre otras cosas, de los avances en la investigación. Pero ahora es necesario un segundo gran
paso: la integración real del conocimiento estocástico en el aula; es decir, convertir el
currículum "pretendido" en un currículum "ejecutado" y "alcanzado".
Gran parte de las propuestas curriculares analizadas respetan la idea general de unas
matemáticas escolares adaptadas a las necesidades del momento actual, desarrolladas desde las
perspectivas surgidas en el estudio de los procesos de enseñanza/aprendizaje de las matemáticas.
Parten de los presupuestos de una construcción significativa del conocimiento, orientaciones que
particularizan directamente al tratamiento del conocimiento estocástico, pero sin hacer mención
especial sobre la problemática específica de la comprensión de estos conceptos, ni sobre su
naturaleza epistemológica, opuesta en cierta medida a la estructura lógica formal del
conocimiento matemático.
Sobre dicha naturaleza, su influencia y las condiciones que impone en la enseñanza de la
probabilidad en la escuela, reflexionamos en las líneas siguientes; como último paso necesario
para cerrar el análisis psicodidáctico del conocimiento probabilístico.
3.6. LA ENSEÑANZA DEL CONOCIMIENTO ESTOCÁSTICO
Tras el estudio de cómo se desarrolla el razonamiento probabilístico y sus dificultades a
través de toda la documentación revisada, disponemos de una relativa información sobre las
condiciones y obstáculos para su aprendizaje. Ahora nos centraremos en otro elemento de
considerable importancia en el estudio de la Educación Matemática y, en consecuencia, de la
Educación Estocástica, como es el referido al diseño de los procesos de enseñanza. Éstos son de
carácter mucho más complejo que el propio proceso de aprendizaje, puesto que en ellos se han de
tener en consideración tanto la información referida a la especial naturaleza epistemológica del
conocimiento estocástico, como a las particularidades de su aprendizaje, más otro conjunto de
elementos como son, las condiciones contextuales, los medios disponibles o la propia disposición
del profesor. Es decir, nos referimos a la coordinación de todos los elementos que caracterizan el
desarrollo del proceso de enseñanza, la selección de problemas significativos, métodos, modelos,
representaciones, instrumentos, tipo de situaciones que se han de poner en juego, etc, para
conseguir el deseado aprendizaje de los alumnos.
En nuestro trabajo, la reflexión sobre las características de la enseñanza del conocimiento
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 201
estocástico es de especial interés ya que, como analiza Otte (1979), el campo de acción de la
formación de profesores está en la intersección de estos dos mundos, el del aprendizaje y el de la
enseñanza. La formación de profesores, en general y más específicamente la de los profesores de
matemáticas, es un campo complejo sometido a numerosas tensiones y a una relación, no
definida explícitamente, entre los conocimientos teóricos y la práctica educativa.
Los procesos de enseñanza, en principio, están diseñados para facilitar a los alumnos el
aprendizaje y la comprensión de los conceptos, las actividades organizadas pretenden ayudar a
asimilar el conocimiento de la materia. Esta premisa se traduce tradicionalmente en un proceso
de una "seudo- transposición didáctica", cuyo primer paso, en el caso de las Matemáticas
especialmente, es simplificar el conocimiento matemático para transformarlo en formas más
elementales, factibles de ser presentadas directamente a los alumnos y así facilitar su aprendizaje.
Se tiende a buscar un camino a través de la propia estructura de la disciplina, que permita el
aprendizaje lo más directa y sencillamente posible, guiándose por la estructura lógico-formal de
la Matemática.
Sin embargo, en los últimos años encontramos múltiples sugerencias sobre la
conveniencia de introducir el conocimiento matemático a través de un amplio conjunto de
actividades y estrategias diversas. Un ejemplo de ello, con amplia difusión entre los educadores
matemáticos, es lo sugerido en el llamado Informe Cockcroft (1985):
"La enseñanza de las matemáticas en todos los niveles de la educación debe incluir:
* exposición por parte del profesor;
* discusión entre el profesor y los alumnos, y entre estos últimos;
* trabajo práctico apropiado
* consolidación y práctica de las destrezas y rutinas básicas;
* resolución de problemas, incluyendo la aplicación de las matemáticas a las situaciones de la vida cotidiana;
* realización de trabajos de investigación; (p.88)
Más recientemente en las orientaciones metodológicas recogidas en los Estandares
Curriculares y de Evaluación para la Educación Matemática, publicados en 1989, se propone
que "el punto de vista constructivista del proceso de aprendizaje debe quedar reflejado en la forma en que se enseña
gran parte de las matemáticas. Por lo tanto, la docencia debería variar e incluir oportunidades en función de:
* trabajos adecuados;
* tareas individuales y de grupo;
* discusión entre profesor y alumnos y entre los propios alumnos;
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 202
* práctica sobre métodos matemáticos;
* exposición por parte del profesor; (NCTM, 1991; p.11).
No obstante, todas estas sugerencias han tenido muy poca repercusión en las aulas de
primaria, y la mayoría de los profesores, al enseñar matemática, mantienen una estructura lineal
tanto en la planificación de su labor docente, como en su desarrollo en el aula. Un número
importante de profesores consideran los contenidos curriculares como algo ya prefijado, algo que
no es cuestionable y que no provoca en sí mismo discusión alguna, por lo tanto, centran más su
atención sobre cómo tratar dichos contenidos en el aula para hacer más ameno y efectivo su
aprendizaje. Hecho que hemos podido comprobar en nuestra propia experiencia como
formadores de profesores (Navarrete y otros, 1992; Cardeñoso y otros, 1994). En el caso del
conocimiento matemático, a este supuesto hay que añadir la imagen generalizada de dicho
conocimiento como un algo perfectamente estructurado, lógica y jerárquicamente, con sentido en
sí mismo, y que ha de ser aprendido paso a paso. El contenido está prefijado hasta en su
organización; el profesor se a de limitar a presentarlo al alumno a través del mejor camino
posible, camino que normalmente es una versión simplificada y compartimentada del saber
matemático.
Hay numerosas investigaciones que intentan caracterizar las concepciones de los
profesores, con respecto a la naturaleza del conocimiento (Porlán, 1989; Carter, 1990), o más
específicamente, del conocimiento matemático (Thompson, 1984; Llinares y Sánchez, 1989;
Peterson y otros, 1989; Llinares, 1991; McNamara, 1991; Thompson, 1992; etc). En estos
estudios constatan que dichas concepciones condicionan en gran medida, la organización y el
desarrollo de los procesos de enseñanza. La mayoría de ellos coinciden en una idea: "las creencias
del profesor sobre las matemáticas (como disciplina y asignatura del currículum) pueden ser comunicadas a través de la
conducta de instrucción como modelos, teniendo efectos directos sobre el qué y cómo aprenden sus alumnos"
(Llinares, 1991; p.46).
En los niveles de Primaria muchos profesores tienden a presentar la materia a través de
cuestiones concretas e inmediatas, ilustradas con ejemplos; dirigiendo su acción a cuestiones
intuitivas, fundamentalmente relacionadas, con los conceptos que consideran básicos. Sobre ellos
y paso a paso se iran construyendo posteriormente los demás componentes del conocimiento
matemático. Es necesario unos fundamentos, unos conceptos básicos, claros conceptualmente,
sobre los que construir todo el edificio matemático, como un "conjunto referencial" del que
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 203
partir, en términos de Freudenthal (1983). Éste autor duda claramente de la necesidad de la
existencia de tal conjunto, como base de la construcción del conocimiento matemático. Las
buenas intenciones de numeros profesores de querer representar los conceptos de la forma más
simple posible y explicarlos directamente, degenera el conocimiento y hace imposible la
adquisición real del nuevo saber. Los conceptos quedan más vacíos de significado cuanto más
simplemente los queramos presentar (Steinbring, 1988).
Actualmente en nuestras aulas de Primaria hay una ausencia casi total de aspectos
referidos al conocimiento estocástico, al menos explícitamente, pues hasta la promulgación del
Real Decreto 1679/91, por el que se establece el currículum de la Educación Primaria (B.O.E. del
13/9/1991) y sus posteriores desarrollos, no estaba recogido ninguno objetivo/contenido
relacionado con este campo del saber matemático. Es, por tanto, difícil describir cómo conciben
los profesores de Primaria este conocimiento y cómo puede ser tratado en las aulas, pues aún
estamos en una etapa de transición.
Habitualmente en los niveles superiores, la probabilidad es definida desde los principios
de la teoría axiomática; sin embargo, en niveles más elementales es introducida o bien a través de
la frecuencia relativa en situaciones empíricas concretas, o bien desde fundamentos teóricos
relacionados con la probabilidad clásica. En cualquier caso, el objetivo es disponer de una
definición clara y precisa de la probabilidad lo antes posible, para poder seguir elaborando sobre
ella el conocimiento estocástico. En la mayoría de las veces queda pendiente la comprensión de
su objeto de estudio, la noción de suceso aleatorio y el problema del significado de la
probabilidad en los posibles contextos de aplicación. Este último aspecto es un tema de gran
controversia histórica aun sin resolver que, como hemos visto en páginas anteriores, no puede ser
ignorado y/o reducido a una interpretación homogénea del concepto. Siendo estas dos nociones:
la de probabilidad y la de aleatoriedad, las dos ideas básicas sobre las que se apoya toda la
estructura matemática del Cálculo de Probabilidades, su significado, no suele ser cuestionado ni
analizado al ser introducidos en la escuela.
La idea de aleatoriedad y de suceso aleatorio es normalmente considerada como algo ya
conocido e intuido por los sujetos y no suele ser objeto de estudio en sí misma. A nivel escolar,
recordemos que en nuestro sistema actual solo se trabaja en secundaria, un suceso aleatorio es
caracterizado generalmente de forma negativa, con referencia a un suceso ya conocido como es el
determinista y por tanto definido como "aquel cuyo resultado no puede ser pronosticado". A
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 204
veces es también introducido en función de la probabilidad, concepto que aún suele estar sin
asimilar, incluso en algunos casos, a partir de la introducción de otros conceptos considerados
"básicos" y, por tanto, también intuitivos, como suceso, resultado, espacio muestral, etc. En
cualquier caso, la noción de azar o de aleatoriedad no son analizadas ni en relación con su
significado en la vida real, ni en relación a como alcanza su modelización matemática. En
general, "el experimento azaroso es una idea introductoria que es apoyada matemáticamente y lingüísticamente de
muchas maneras, sin desarrollar su significado preciso y la representación subyacente a lo largo de la enseñanza"
(Steinbring, 1991; p.141).
Esto puede tener consecuencias importantes a la hora de la comprensión de una realidad,
fundamentalmente azarosa, como la que nos rodea, y para el propio aprendizaje del conocimiento
estocástico pues, como nos dicen Konold y otros (1991), "la noción de aleatoriedad es ambigua y
compleja, pero mantenemos que las variantes del concepto son sin embargo el corazón del pensamiento probabilístico y
estadístico" (p.2).
Como nos sugieren Kapadia y Borovcnick (1991), "la probabilidad es una materia difícil de
aprender y enseñar. La causalidad es mucho más confortable, pensando lógicamente es mucho más clara, pero el azar es
una realidad" (p.2), y por tanto ineludible su tratamiento en el aula. El aprendizaje de la
probabilidad supone para el sujeto una revolución similar a la acaecida en la historia del
conocimiento. Los estudiantes han de aceptar la presencia de la incertidumbre como algo
inherente a la realidad y adoptar la convención de representar dicha incertidumbre
cuantitativamente (Falk y Konold, 1992).
Para el diseño de los procesos de enseñanza/aprendizaje del conocimiento estocástico hay
una serie de cuestiones claves que nos pueden orientar a la hora de tomar las decisiones más
adecuadas. Apoyándonos en las ideas de Hawkins y Kapadia (1984), las podemos sintetizar en
tres:
A).- ¿Qué tipo de concepciones o ideas tienen los niños de las distintas edades, sobre lo
aleatorio y la probabilidad?
B).- ¿Cómo se pueden modificar dichas concepciones? ¿Qué relación tienen dichas ideas
iniciales, con el conocimiento formal de la probabilidad?
C).- ¿Hay algún modelo, procedimiento o técnica idóneas para facilitar la comprensión y
adquisición del conocimiento probabilístico?
Ninguno de estos interrogantes están contestados plenamente desde los trabajos y estudios
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 205
revisados, no hay respuestas claras y únicas; también en estos aspectos sigue siendo un tema
controvertido sobre el que no hay unicidad de criterios. Nosotros, desde la perspectiva de análisis
que ha dirigido todo el estudio, hemos ido extrayendo ciertas ideas y condiciones, señaladas al
final de cada apartado, que consideramos de especial relevancia a la hora del diseño y desarrollo
de los procesos educativos; analizaremos como se reflejan a la hora de su enseñanza. El estudio y
coordinación de las implicaciones que dichas ideas imponen son potencialmente elementos del
conocimiento profesional de los profesores, responsable de su diseño y desarrollo.
3.6.1. LAS CONCEPCIONES DE LOS ESTUDIANTES Y SU POSIBLE
MODIFICACIÓN
Desde una perspectiva constructivista, el sujeto sólo adquirirá una verdadera comprensión
del conocimiento estocástico a través de la interacción, en situaciones concretas, de sus nociones
subjetivas, fruto de sus experiencias y conocimientos previos, con los conceptos y modelos
estocásticos. Como hemos podido comprobar en el apartado anterior, no hay un modelo completo
sobre el desarrollo conceptual en probabilidad y estadística, pero lo que sí está claro desde las
investigaciones consultadas es que los sujetos, incluso los más pequeños, disponen de ciertos
recursos y concepciones sobre los aspectos probabilísticos de la realidad, aunque no queda
claramente caracterizado el tipo de conocimiento propio de cada edad. Los sujetos "siempre tienen
elaborados sus propios heurísticos, errores y creencias sobre la probabilidad y la estadística" (Shaughnessy, 1992;
p.472), producto de sus propias experiencias. Concepciones y estrategias que han de ser tenidas
en cuenta en el diseño y desarrollo de los proceso de enseñanza/aprendizaje. Los alumnos no son
"tablas rasas" esperando la llegada de la teoría normativa a través de los procesos de
enseñanza/aprendizaje, ellos parten de sus propias ideas y de sus propias formas de concebir los
problemas que se les presentan en las distintas situaciones.
Sus experiencias de juego, por ejemplo, son una fuente fundamental para los estudiantes,
como señalan algunas de las investigaciones revisadas (Peard 1990). El conocimiento estocástico
requiere, especialmente, de la implicación del sujeto en la toma de decisiones directas y en la
interpretación de la información relativa a las situaciones estocásticas. Es decir, las intuiciones de
los sujetos han de ser tenidas en consideración de forma ineludible a la hora del desarrollo de un
proceso de enseñanza. Las tareas de enseñanza de la probabilidad no pueden ser reducidas a la
presentación y desarrollo de su estructura conceptual. Es necesario considerar que por encima de
dicha estructura los sujetos tienen construidas sus propias intuiciones y modelos intuitivos, ellos
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 206
determinan sus estrategias de pensamiento, sus interpretaciones y sus valoraciones de las
situaciones, ignorando en la mayoría de los casos el conocimiento normativo (Fischbein, 1990).
Gran parte de las investigaciones analizadas parecen apoyar nuestra propia forma de
entender el cambio y la evolución de las concepciones. El camino idóneo para provocar dicho
cambio se perfila como aquél, que parte de enfrentar al sujeto con situaciones, actividades y
problemas en los que sus respuestas, apoyadas en sus intuiciones particulares y subjetivas, entren
en conflicto con otras informaciones procedentes de distintas fuentes. La resolución de dicho
conflicto siempre requerirá de formulaciones mas comprensivas y elaboradas (Grupo
"Investigación en la Escuela", 1991). Konold (1991) propone tres criterios generales a través de
los cuales los sujetos son forzados a evaluar sus creencias e intuiciones actuales. Enfrentar al
sujeto con el ajuste entre sus creencias y:
* Las creencias de los otros: ¿mis creencias concuerdan o contrastan con las creencias de
los otros?
* Sus otras creencias afines: ¿son mis creencias internamente consistentes?
* Sus propias observaciones: ¿se ajustan mis creencias a las observaciones empíricas?
Estos tres criterios son apropiados para provocar la construcción de conocimientos. Son
potencialmente efectivos para inducir un cambio conceptual, al provocar un conflicto en las
creencias de los sujetos al compararlas con las otras informaciones puestas en juego en el
proceso. "La comprobación (testado) de la adecuación de las creencias de los estudiantes no debería ser una empresa
aislada e individual, sino que debe implicar el diálogo y negociación entre los integrantes de la comunidad, la cual
negocia los méritos relativos de las distintas perspectivas" (Konold, 1991; p.155). Como recordaremos, un
esquema que parecía válido para explicar el aprendizaje de los sujetos del conocimiento
probabilístico era el representado por el teorema de Bayes, que no es otro que la modificación de
una idea previa, en función de los nuevos datos empíricos.
Los nuevos conocimientos e intuiciones sobre las nociones que tratan el mundo de la
incertidumbre no son accesibles por simple transmisión verbal directa, sólo a través de la
experiencia y de la actividad desarrollada por el sujeto, entendiendo actividad mental y no sólo
manipulativa, es posible la reelaboración de su conocimiento (Fischbein, 1990). Estas
experiencias deben reflejar la mayor variedad posible de situaciones e introducir en su desarrollo
metodológico la reflexión sobre las estrategias heurísticas empleadas y los sesgos producidos.
Por todo ello, y respetando los principios y pautas metodológicas planteadas desde los
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 207
presupuestos de los que partimos, reflejadas en el Capitulo I, consideramos estas intuiciones
subjetivas, o juicios personales sobre una situación aleatoria concreta, como el punto de partida
de todo aprendizaje estocástico. Proceso que continuara con el contraste a lo largo de todos su
desarrollo con los resultados empíricos de las experiencias presentadas y con las predicciones del
modelo estocástico. Analizando las posibles contradicciones entre ambos tipos de información
podremos reconducir el conocimiento hacia intuiciones más profundas o caracterizaciones más
precisas, posibilitando la aplicación de lo aprendido a nuevas situaciones y contextos. Este
desarrollo constituye un proceso metodológico en espiral que va progresivamente aumentando en
la amplitud y complejidad de los problemas planteados y, en consecuencia, en la comprensión de
los conceptos implicados (Grupo "Investigación en la Escuela", 1991).
Como hemos podido comprobar en la revisión de las investigaciones realizadas con
adultos, fundamentalmente con aquellos sin formación estocástica, éstos suelen presentar,
también, gran cantidad de juicios subjetivos sesgados y estrategias no normativas ante las
situaciones aleatorias o de incertidumbre (Shaughnessy, 1977; Shaughnessy, 1981; Kahneman,
Slovic y Tversky, 1982; Konold, 1989; etc). Esta información no puede ser ignorada a la hora del
diseño y desarrollo de un proceso de formación de profesores, si el objetivo es la comprensión
conceptual y didáctica de los conceptos estocásticos, para facilitar su integración en los procesos
educativos. Feiman-Nemser y Buchman (1986) afirman que los programas de formación de
profesores, si desean obtener un aprendizaje efectivo, han de incluir en su desarrollo la
consideración de las creencias y conocimientos previos mantenidos por los sujetos. En concreto,
con respecto a este campo de la Matemática, las concepciones iniciales de los profesores juegan
un papel de considerable importancia pues, como indica Konold (1991), sólo a partir de ellas y de
su evolución es posible la construcción de un verdadero conocimiento y comprensión de la
probabilidad y su significado. En función de estos datos, concluimos que todo lo descrito en las
hojas anteriores es igualmente válido cuando trabajamos con profesores. De hecho, Fischbein
(1990) sugiere que los profesores han de pasar por las mismas visicitudes que sus alumnos a la
hora de elaborar un conocimiento significativo sobre lo estocástico.
3.6.2. CARACTERÍSTICAS DEL PROCESO DE ENSEÑANZA DEL CONOCIMIENTO
ESTOCÁSTICO
Las peculiaridades del conocimiento estocástico tienen claras consecuencias educativas.
La naturaleza teórica de los conceptos estocásticos provocan un claro conflicto con las formas
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 208
tradicionales de trabajar las matemáticas en las aulas. Partir de definiciones claras y universales
de unos conceptos básicos como "conjunto de referencia", base de todo el desarrollo posterior de
la teoría formal, y la tendencia a organizar las actividades de enseñanza en función de la propia
estructura del conocimiento matemático, entra en claro conflicto con la naturaleza de la
evolución del conocimiento estocástico. Los conceptos básicos de la teoría de la probabilidad no
pueden ser comprendidos simplemente a través de su definición matemática, pues, como ya
hemos indicado, es necesario partir del análisis de situaciones significativas que faciliten un
desarrollo progresivo de los conceptos.
La necesaria interacción entre el modelo matemático y la situaciones empíricas es
requisito imprescindible para la elaboración comprensiva de la teoría formal. Esta idea de
complementariedad, sobre la que hablamos al final del segundo capítulo, entre el objeto y el
modelo y su continua interrelación, como condición necesaria para la elaboración conceptual,
requiere, en los procesos de enseñanza/aprendizaje, de una aproximación al conocimiento
estocástico por diferentes caminos que permitan dicha interrelación, de ida y vuelta. "El complicado
estatus de la retroalimentación, como vehículo de la instrucción, supone un serio cambio para el profesor de
probabilidad" (Falk y Konold, 1992; p.154).
Esta particularidad entra en conflicto con la organización habitual de la enseñanza por
procesos lineales y jerarquizados y, en la cual, la referencia a lo empírico y las aplicaciones
concretas, son consideradas como motivaciones extra-matemáticas, dispensables. "La enseñanza
estocástica no puede estar simplemente basada sobre definiciones explícitas de la probabilidad y el azar, que
proporcionen una comprensión total de su contenido" (Steinbring, 1991; p.144). El significado del
conocimiento estocástico no es obvio ni inmediato, depende de las posibles representaciones de
la situación sobre la que se está trabajando, del enunciado verbal del problema, de los modelos
considerados, de la actividad que se realice y del contexto donde se desarrolle.
La idea de construcción en espiral de los conceptos estocástico y de complementariedad
entre el modelo matemático y las situaciones empíricas, no sólo es útil para explicar la evolución
de dicho conocimiento sino también para diseñar los procesos de interacción en el aula (García
1988; Steinbring, 1991). Su consideración supone evitar caminos unilaterales y lineales en el
desarrollo del conocimiento estocástico, el trabajo en el aula debe establecerse en un proceso
cíclico, con avances progresivos en complejidad. El elemento provocador de tal proceso es el
problema que se presente en las distintas situaciones. Estas situaciones deben integrar una gran
variedad de aspectos, conceptuales y procedimentales, e implicar al sujeto en la toma de
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 209
decisiones directas y en las posibles interpretaciones, permitiéndoles investigar sus propias ideas
y contrastarlas progresivamente con nuevos datos. Para ello, Steiner (1983) plantea que las
situaciones y actividades propuestas al alumno han de guardar un grado suficiente de similitud
con las situaciones reales. En el desarrollo de dichas situaciones hay dos elementos claves: las
actividades a realizar y los medios de representación que se utilicen.
La interrelación continua entre el modelo matemático y el caso individual, objeto-modelo,
puede ser representada de múltiples maneras. Para el caso de las situaciones estocásticas existen
diferentes medios de representación específicos, como las representaciones gráficas de las
distribuciones o los diagramas de árbol, representaciones que normalmente se presentan en
función del tipo de problema que se esté trabajando. Sin embargo, las mismas situaciones pueden
ser representadas a través de diferentes medios; comparando representaciones diferentes se llegan
a nuevas intuiciones sobre la relación existente entre una situación concreta y su modelización
matemática. Ello permite construir un amplio espectro de relaciones entre situaciones concretas y
su modelo matemático a través de las diversas actividades. El conjunto total de las formas de
representación de una situación es el mediador entre dicha situación empírica y el modelo. En los
primeros niveles educativos son de gran utilidad dadas las características del pensamiento
concreto de los niños de esas edades.
Con respecto a las actividades, la tarea matemática concreta tiene un papel prominente en
la planificación del profesor y en la práctica en el aula. La concepción de la tarea matemática
ocupa un lugar relevante en las concepciones epistemológicas del profesor. Por ejemplo,
Thompson (1984) una de las variables que utiliza para analizar las creencias de los profesores
sobre las matemáticas es el tipo de tareas que planifica y desarrolla en su aula. "Los profesores de
matemáticas a menudo piensan y hablan sobre la enseñanza en forma de tareas: las tareas son de alguna forma sus
"conceptos"" (Steinbring, 1991; p.156).
Frecuentemente las actividades son presentadas en el aula aisladamente, sin conexión
entre ellas, o en todo caso con un vago vínculo. Desde la perspectiva de la complejidad del
conocimiento estocástico y sus múltiples interrelaciones con otros conocimientos,
complementada por los presupuestos que conllevan la necesaria presentación globalizada del
conocimiento en los primeros niveles de la educación, es imprescindible, como ya hemos dicho,
plantear las actividades desde otra visión más compleja que la que ofrece una simple secuencia
lineal, organizada normalmente jerárquicamente. La planificación de las actividades deben tener
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 210
"un formato abierto y flexible, con un itinerario de las actividades en espiral con posibles ramificaciones y variantes
adaptables a diferentes contextos" (García y Cubero, 1993; p.17). En el caso de la elaboración del
conocimiento estocástico esta idea esta representada en lo que Steinbring (1984) denomina el
sistema de tareas, que permite introducir variaciones del más diverso tipo en el proceso,
respetando una estructura sistémica entre ellas.
La consideración de las actividades integradas en un sistema que facilite múltiples
itinerarios y relaciones, nos permite respetar la propia naturaleza del conocimiento estocástico y
las condiciones de su aprendizaje. Este sistema de tareas se debe caracterizar por los siguientes
aspectos:
* En lo que se refiere al tratamiento del conocimiento estocástico integrado en un
sistema de tareas, la estructura básica estaría dada por un objeto común de trabajo
representado desde múltiples perspectivas, que permitiera el desarrollo de tareas
análogas. Sólo trabajando con las diversas tareas, los problemas que en ellas se formulan,
sus aplicaciones y sus relaciones, podemos comprobar su carácter sistémico; es decir, su
relación con un mismo objeto y sus características análogas. Está presentación de
problemas análogos es también planteada por Polya (1967), quien la considera una
estrategia importante en la elaboración del conocimiento mediante la resolución de
problemas. Polya reconoce como tareas análogas aquellas que coinciden en ciertas
relaciones, pero que mantienen claras diferencias entre ellas. Se puede hacer variaciones
simples modificando los datos o el contexto situacional, o más complejas variando
incluso el modelo de referencia.
* El sistema de tareas ha de dar una oportunidad para organizar las formas de
representación del conocimiento y las actividades de aprendizaje de formas diversas
estableciendo relaciones entre ellas. Cuando los sujetos, se expresan, experimentan,
toman opciones, recogen datos, los organizan, los comparan, hacen supuestos, deciden,
construyen modelos, dan argumentos matemáticos y no matemáticos, calculan con
formulas concretas, etc, necesitan tanto de los instrumentos generales de conocimiento,
como de los medios concretos estocásticos de representación e interpretación.
* La idea de sistema de tareas también respeta la evolución en espiral del
conocimiento estocástico en su interacción en el aula, pues permite trabajar con estos
saberes en un proceso cíclico, ampliando progresivamente su extensión y aplicación.
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 211
En definitiva, consideramos que la estructura sistémica del conjunto de tareas como un
todo organizado permite al alumno captar el significado estocástico. Si se intentan enseñar los
conceptos, métodos y diagramas estocásticos como hechos y técnicas matemáticas, el carácter
aleatorio y la naturaleza específica de la probabilidad se pierde. La fórmula matemática no
contiene en sí misma el carácter específico de lo estocástico. " Solamente, si es concebido como un
elemento del sistema total de tareas y medios de representación estocásticos, que establece la conexión entre el fenómeno
azaroso concreto y el modelo estocástico, es posible hacer de lo estocástico un saber útil y válido" (Steinbring, 1984;
p.82).
Pero, como ya indicábamos, no podemos olvidar, que en los niveles de Primaria, el
conocimiento debe ser presentado al alumno desde contextos globalizados, lo cual supone la no
existencia, a priori, de situaciones específicas de aprendizaje matemático y mucho menos
estocástico. La adquisición y comprensión de los conceptos estocásticos se realiza, por tanto, en
un desarrollo continuo, y mediante el uso progresivo de múltiples medios de representación y
actividades diferentes, pero integradas en situaciones didácticas o contextos de experiencia más
amplios, que den sentido al proceso. Situaciones que se pueden concretar de múltiples formas:
centros de interés, unidades didácticas, proyecto de investigación, etc; siempre en relación con la
realidad socio-natural, donde los aspectos aleatorios sean fácilmente localizables.
Evidentemente nos enfrentaremos con distintos tipos de situaciones y diferentes niveles
de implicación del conocimiento estocástico, en función de las necesidades y contextos de los
procesos desarrollados en el aula. Pero, en cualquier caso, los datos e informaciones sobre los
que debe actuar el niño, deben proceder de la situación didáctica, contexto original en donde el
problemas ha sido planteado y donde tenía sentido la exploración y búsqueda de información
(Azcárate y Cardeñoso, 1994). El desarrollo de los conceptos estocásticos en situaciones
didácticas es el medio específico a través del cual el concepto puede ser elaborado de forma
personal y comprensiva.
En principio, en estos niveles iniciales serían situaciones didácticas que permitan la
exploración y construcción de las nociones elementales; pero, en niveles superiores podríamos
extender las posibilidades a situaciones de otro tipo más complejas, que conlleven la necesaria
formalización del conocimiento.
El conocimiento estocástico escolar, evidentemente, ha de mostrar un estructura lógica,
pero como punto final del proceso (Steinbring, 1994). La instrucción matemática nos permite
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 212
establecer el puente entre el conocimiento cotidiano y el conocimiento estocástico escolar, siendo
la mediadora entre el proceso de elaboración individual del conocimiento y el proceso curricular
establecido (Steinbring, 1984). Como conclusión de todo lo dicho, podemos caracterizar la
instrucción estocástica como un proceso desarrollado a través de un conjunto variado de
actividades relacionadas entre sí, en las que se utilicen diferentes formas de representación
y que estén integradas en situaciones didácticas que reflejen las múltiples interrelaciones
que se dan en la realidad.
Otro aspecto que hemos de considerar en la elaboración del conocimiento estocástico es
el significado que se atribuye a los distintos conceptos elaborados. Como observamos en el
capítulo anterior, el significado del concepto de probabilidad ha provocado múltiples discusiones
a lo largo de su evolución histórica. El intento de fundamentación del conocimiento matemático
producido en este siglo se ha reflejado en diversas posturas filosóficas y epistemológicas sobre la
fundamentación de la probabilidad: clásica, frecuencialista, subjetiva, etc. Todas estas
controversias han promovido visiones diferentes del significado de la probabilidad y de su campo
de aplicación, que tienen claras implicaciones educativas.
Steinbring (1984) señala como posturas más conocidas y contrapuestas en la
caracterización de la probabilidad las siguientes:
"- La probabilidad es una característica del sujeto-materia de conocimiento que construye este concepto
mientras "rivaliza" con el ambiente. Como opuesto a esto: la probabilidad es una propiedad de ciertos mecanismos
objetivos generadores de azar.
- La probabilidad es un concepto de la realidad observable, es interpretado como el límite de la frecuencia
relativa. En oposición a esto: la probabilidad es un concepto ideal, está constituido por ciertas simetrías ideales.
- La probabilidad es un concepto auxiliar que el sujeto de conocimiento consulta cuando su conocimiento es
incompleto. Si hay suficiente conocimiento alrededor de la situación en cuestión , la probabilidad es superflua. Como
oposición a esto: todo conocimiento sobre la realidad es, en última instancia, materia de incertidumbre: por tanto, el
concepto de probabilidad es el concepto clave de la comprensión científica.
La probabilidad es un concepto relacionado con los fenómenos especiales de masas, no puede ser aplicado a
casos individuales. En oposición a ello: la probabilidad es un concepto del conocimiento cotidiano, el cual es de uso
inmediato y puede aplicarse en todo tipo de situaciones.
- La probabilidad es un concepto teórico, su significado no puede ser directamente inferido, será el resultado de
la construcción de un modelo estocástico y su aplicación. Como apuesto a esto: la probabilidad es un concepto empírico
resultado de desarrollar una valoración de un experimento estadístico." (p.68).
Si hacemos una lectura detenida de todas estas posibilidades, podemos observar en ellas
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 213
el reflejo de las distintas posturas filosóficas, con los variados matices que cada una de ellas
confiere al significado de la probabilidad. Desde esta visión tan compleja del significado del
concepto en su aplicación al mundo real es difícil justificar la introducción de una interpretación
homogénea y universal del concepto en el mundo educativo. Al contrario, la escuela debe
combinar ideas desde diferentes perspectivas, desde los primeros niveles:
" * Lo estocástico como la matemática de los fenómenos de masa.
* Lo estocástico como la lógica de la incertidumbre.
* Lo estocástico como la técnica que transforma los datos en indicadores.
* Lo estocástico como teoría de la decisión" (Dinges, 1981; p.51).
Una de las opciones más simplificadoras, como ya analizamos en la reflexión sobre las
diferentes interpretaciones filosóficas, es la defensa de la postura más dogmática: la axiomática,
planteada por algunos educadores matemáticos y basada en la idoneidad de centrarse
simplemente en el conocimiento de la estructura axiomática. Pero, como ya reconocíamos en el
análisis citado, es una forma de resolver el problema de la variedad de significados, negando
simplemente su existencia.
Como comentábamos en el apartado anterior, en nuestro sistema educativo actual, la
probabilidad y la estadística son introducidas en los niveles de secundaria y se pueden diferenciar
dos formas de acercamiento a estos saberes matemáticos. Una aproximación intuitiva a estos
conceptos está focalizada en experimentos, juegos de azar o situaciones reales, utilizando
conceptos como frecuencia, frecuencia relativa, proporciones numéricas o simetrías, para llegar a
definir la probabilidad como límite de la frecuencia relativa. Después de esta fase más
experimental e intuitiva de la enseñanza hay una progresión en la introducción de los métodos y
conceptos más elaborados. En muchos casos es una presentación operativizada del concepto que
puede tener ciertas consecuencias, puesto que los conceptos son simplemente caracterizados por
su utilización y sus posibles aplicaciones. Este planteamiento intuitivo está basado en la creencia
de que la comprensión y generalización de los conceptos matemáticos se realiza a través de un
abandono progresivo de los hechos específicos (un claro ejemplo de este supuesto es la
introducción del número desde el trabajo con los conjuntos), apoyado por actividades diversas
que permiten adquirir un nuevo conocimiento al establecer una conexión lógica con los hechos ya
conocidos directamente, sin necesidad de reflexiones globales o teóricas.
Alternativamente, quizás en niveles superiores de la educación, se introducen un número
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 214
de conceptos básicos como: suceso aleatorio, resultado, suceso elemental, suceso cierto o
imposible, espacio muestral, etc, que se consideran la base sobre la que se construye la estructura
matemática, como si "el sentido de un nuevo saber deba emanar enteramente de los conceptos fundamentales ya
conocidos" (Steinbring, 1988; p.312). Desde esta perspectiva se suele definir la probabilidad en
términos laplacianos. A veces hay una secuencia temporal entre estas dos formas de acercarse al
conocimiento estocástico, primero se realiza un trabajo experimental concreto para luego ir
desarrollando la teoría formal sobre esas "intuiciones" primarias construidas, cuando en realidad,
como hemos constatado en el análisis de sus significados filosóficos, son simplemente
perspectivas diferentes del mismo concepto: el de probabilidad.
3.6.3. CONCLUSIONES GENERALES
El tratamiento del conocimiento estocástico y la negociación de sus significados en el
aula, han de ser desarrollados desde una perspectiva dinámica que refleje, no sólo la interrelación
entre la modelización matemática y los hechos empíricos, sino también entre las distintas
interpretaciones de su significado. La organización sistémica del conjunto de tareas o actividades
permite la integración de interpretaciones variadas en su desarrollo, su reconocimiento y su
contraste.
La naturaleza del saber estocástico es tanto teórica como experimental, solo el contraste
de ambos aspectos, permitirá una verdadera comprensión de dicho conocimiento.
Como conclusión, podemos extrae las siguientes ideas:
- Todo proceso de enseñanza/aprendizaje donde este implicado el conocimiento
estocástico ha de partir de las concepciones y recursos previos de los sujetos y ha de
respetar en su desarrollo las peculiaridades de dicho saber y de su proceso de
elaboración.
- En este sentido, un elemento a considerar en la planificación y desarrollo de los
procesos de enseñanza/aprendizaje es la idea del "feedback" continuo entre el
modelo matemático y las situaciones empíricas; estableciendo relaciones que
permitan ampliar el campo de aplicación de las nociones exploradas y profundizar
en su significado.
- El punto de partida del proceso son "situaciones estocásticas" que muestren una
gran variedad de aspectos y elementos y en las que el instrumento fundamental para
la transmisión del conocimiento estocástico sea la utilización de ciertos medios de
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 215
representación, integrados en unas determinadas actividades interrelacionadas, que
responde a una aproximación al conocimiento no jerarquizada.
- La actividad desarrollada en dichas situaciones y tareas ha de permitir a los
sujetos investigar sobre sus propias ideas y contratarlas progresivamente,
analizando las condiciones y nociones que implícitamente o explícitamente se hayan
ido presentando a lo largo del proceso de enseñanza.
Para el desarrollo del saber estocástico, integrado definitivamente en las
matemáticas escolares, las situaciones didácticas junto con el sistema de medios de
representación y las actividades, son un cuerpo de referencia necesario para el profesor,
que expresa y recoge su significado específico. Por tanto, han de formar parte del
conocimiento práctico profesional deseable, que informa sobre el qué y cómo enseñar el
conocimiento estocástico en la Escuela Primaria. Su consideración tiene claras
implicaciones en los procesos de formación de profesores.
Como nos recuerda Steinbring (1988), "la relación compleja entre el saber y los modos de
representación y la actividad es de gran importancia, tanto para la enseñanza de esta materia, como para las
aplicaciones de los saberes teóricos en la formación de maestros" (p.313).
3.7. IMPLICACIONES PARA LA FORMACIÓN DE PROFESORES DE
PRIMARIA
En el caso de lo estocástico, como hemos podido ir detectando, no estamos solamente
ante una nueva materia curricular, es un tipo de matemática escolar diferente. Los problemas
didácticos en la enseñanza del conocimiento estocástico no vienen sólo de la comprensión de la
teoría matemática en sí misma, sus procedimientos y sus técnicas, sino fundamentalmente de la
utilización, aplicación e interpretación de los conceptos, métodos y representaciones. Facilitar la
elaboración y dominio de un pensamiento estocástico, es el gran reto de los profesores.
Garfield (1988), en un estudio sobre la enseñanza de la probabilidad y la estadística, cita
cuatro aspectos que impiden que la enseñanza de lo estocástico sea efectiva:
a) El confuso papel de la probabilidad y la estadística en el currículum escolar.
b) El débil vínculo entre la investigación y la instrucción.
c) La escasa preparación de los profesores de matemáticas en esta materia.
d) Y, por último, la poca información clara sobre el proceso de aprendizaje y sus claves
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 216
de desarrollo que, aún hoy, están siendo evaluadas.
Condiciones que se convierten en autenticas barreras que impiden una integración real y
total del conocimiento estocástico en las escuelas, incluso estando ya recogido en casi todos los
marcos curriculares de los diferentes países. Para superar dichas barreras, según Shaughnessy
(1992), es necesario conseguir:
a) Llegar a introducir la estocástica en la corriente principal del curriculum escolar
matemático.
b) Conseguir aumentar los fundamentos de los profesores y sus concepciones sobre la
probabilidad y la estadística.
c) Confrontar las creencias de los estudiantes y profesores sobre la probabilidad y
estadística.
Pero, para poder llevar a cabo la integración definitiva en nuestras escuelas, es necesario
acercarnos progresivamente a una formación adecuada de los profesores, como elemento clave
para dicho objetivo. Gran parte de los estudios revisados constatan una falta de preparación de
los profesores, y por tanto un tratamiento del tema frecuentemente inadecuado (Schools Council,
1980; Cockcroft, 1985; NCTM, 1991; Hawkins, 1990; Shaughnessy, 1992; etc).
Como hemos planteado al comienzo de nuestro trabajo, en un contexto de reforma
educativa como el que estamos viviendo, la formación y actualización de los profesores es un
factor esencial, por no decir el fundamental, para el desarrollo de dicho proyecto de reforma. Sin
un profesorado con conocimientos y actitudes suficientes que le permitan introducir en sus aulas
elementos innovadores ninguna reforma podrá ser llevada a buen término. Si focalizamos sobre
la temática del conocimiento estocástico, contamos con condicionantes añadidos, por un lado la
novedad del tópico dentro de los curricula escolares y por otro las peculiaridades propias de su
naturaleza. Prácticamente ninguno de los actuales profesores de Primaria han tenido una
formación específica, ni conceptual ni didácticamente, sobre el conocimiento estocástico.
En un reciente informe del estudio realizado por Greer y Ritson (1993) sobre la enseñanza
del conocimiento estocástico plantean que la estocástica, "para muchos profesores, no es sólo, algo sobre
lo que pueden tener dificultades a la hora de enseñar, es un área desconocida de la matemática" (p.5). La
probabilidad se corresponde con una línea de pensamiento esencialmente diferente del
razonamiento determinista y causal, desde el que han sido formados la mayoría de los profesores.
En general, los profesores de primaria y en algunos casos los profesores de Secundaria, "no han
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 217
tenido formación inicial alguna sobre la probabilidad, y mucho menos sobre su enseñanza, lo cual crea una inevitable
sensación de incertidumbre hacia ella, dada la ausencia general de información sobre el tema" (p. 6).
Sin embargo, de todo el estudio previo podemos concluir la necesidad del reconocimiento
de la incertidumbre como característica intrínseca de la realidad; aprender a manejarse en las
situaciones dominadas por ella, es parte fundamental del desarrollo intelectual de los individuos
del siglo XXI. El niño y, todo sujeto adulto, ha de poseer unas determinadas herramientas,
estrategias o instrumentos mentales para enfrentarse a dichas situaciones y tomar decisiones, si
fuera necesario, con el menor margen de riesgo posible. En el mundo educativo es el profesor
quien ha de facilitar al niño la adquisición de dichas estrategias e instrumentos, y es él quien ha
de ponerle ante este tipo de situaciones desde los primeros momentos de su escolarización,
guiándoles en su investigación de la realidad aleatoria. Pero, para ello, el profesor debe poseer un
determinado conocimiento profesional relacionado con dichas situaciones.
Para una aproximación efectiva a la enseñanza de la estocástica, todos los aspectos
tratados en las páginas anteriores son, potencialmente, componentes importantes del
conocimiento profesional de los profesores. En el análisis sobre su naturaleza, sobre su
aprendizaje y sobre sus implicaciones en la enseñanza hemos ido señalando aquellas ideas que
consideramos más relevantes: su carácter teórico y complejo; su evolución conceptual en espiral;
su relación complementaria entre el objeto y el modelo; las diferentes interpretaciones y
significados; las características del pensamiento probabilístico en contraste con el razonamiento
determinista; los diferentes estados de su desarrollo, estrategias y sesgos; el papel del conjunto de
medios de representación, del sistema de actividades y las situaciones didácticas; etc.
La interrelación de todos estos componentes configura una propuesta de conocimiento
profesional que, en muchos casos, entra en contradicción con las ideas que sobre la enseñanza de
las matemáticas tienen los profesores. La modificación de sus métodos de enseñanza,
derivándolos hacia procedimientos más abiertos, flexibles e interactivos constituye el gran reto de
la formación de profesores.
De todo lo referido en las páginas anteriores podemos suponer que "las demandas específicas
de esta asignatura requieren al profesor caminos especiales de planificación y enseñanza" (Steinbring, 1991;
p.153) y, por tanto, una formación específica para la enseñanza/aprendizaje de esta materia, ya
que: "ante la tradicional ausencia de lo estocástico en los curricula escolares, el curriculum escolar no ha requerido lo
estocástico y los profesores no han sido preparados para enseñarlo por ningún camino" (Shaughnessy, 1992;
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 218
p.467). Lo que nos hace suponer, en una transferencia a nuestro contexto, y dada su total ausencia
del currículum de las Escuelas de Magisterio, que los profesores en ejercicio y los futuros
profesores de Primaria tienen una débil comprensión de las ideas estocásticas. Al no haber
vivido un proceso, a nivel reflexivo, en el que el conocimiento estocástico haya estado implicado,
el fondo intuitivo primario de los sujetos no se ha sido modificado. Ello puede provocar claras
dificultades a los profesores a la hora de enfrentarse con la selección de estrategias idóneas para
el desarrollo de las intuiciones probabilísticas adecuadas en sus alumnos.
Para superar esta situación es necesario el diseño y puesta en marcha de programas de
formación que recojan el tratamiento conceptual y didáctico del conocimiento estocástico en las
aulas de Primaria. Pero ante dicha propuesta nos encontramos con un problema inicial: la
ausencia de estudios en nuestro entorno educativo sobre las ideas que tienen los profesores y
futuros profesores de Primaria, en lo referente a este nuevo contenido. Como hemos ido
repitiendo a lo largo de nuestro trabajo, todo desarrollo profesional debe partir necesariamente de
las condiciones iniciales de los profesores. Obtener información sobre cuales son sus
conocimientos, sus creencias, su nivel de desarrollo conceptual respecto a estos conceptos es un
paso fundamental y previo para diseñar procesos de formación que posibiliten un conocimiento
profesional significativo sobre esta temática.
Nuestro trabajo empírico se centrará en el estudio de las concepciones y creencias que
actualmente poseen un grupo de futuros profesores de Primaria sobre las nociones elementales
del conocimiento estocástico. Información imprescindible para nosotros al iniciar el diseño de
programas de formación que integren las particularidades de la enseñanza y aprendizaje esta
materia y que se propongan la evolución real en las ideas de los profesores. A dicho estudio
empírico dedicaremos la segunda parte de nuestro trabajo.
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 219
ELABORACIÓN DE UN DISEÑO DIDÁCTICO
El diseño de unidades didácticas es una actividad que se desarrolla paralela al propio
desarrollo de tema, dirigida a planificar un proyecto de acción con los alumnos de
Primaria. En dicho proyecto se proponen, entre otros muchos implicados en la situación
presentada, determinados objetivos y contenidos a trabajar en relación con el conocimiento
probabilístico y se diseñan determinadas secuencias de actividades con explicitación de
todos los elementos puestos en juego.
Los problemas que surgen en su desarrollo son los que orientan el propio estudio teórico y
su resolución debe reflejar las conclusiones elaboradas desde dicho estudio.
Durante su desarrollo se realizan tareas como:
* Detectar y diseñar situaciones/problemas, adecuados para el nivel de Primaria, en
las que, en su resolución, esté implicado el aprendizaje y/o la aplicación de ciertos
conocimientos probabilístico.
* Construir diferentes secuencias de actividades integradas en el desarrollo global
de la unidad didáctica, especificando el problema organizador, el significado para el
niño, el tipo de tareas que ha de realizar en relación con el conocimiento
probabilístico, el papel que como profesores van a desarrollar, los recursos que van
a utilizar, etc.
* Realizar el análisis didáctico-matemáticos de las situaciones de enseñanza-
aprendizaje diseñadas, determinando sobre qué objetivos puede incidir y qué tipo
de contenidos pueden ser trabajados en su desarrollo.
PRESENTACIÓN DE SITUACIONES INICIALES DE ANÁLISIS
Al comenzar su estudio y dadas las peculiaridades de este tema, se proponen a los
estudiantes-profesores, como actividad provocadora de conflicto, una serie cuestiones y
situaciones probabilísticas que han de interpretar, dar su opinión y, en su caso, resolver.
Las diferentes respuestas dadas por cada uno de ellos y por cada pequeño grupo, se
contrastan y debaten en gran grupo detectándose las controversias existentes entre las
posibles interpretaciones y planteando interrogantes sobre su explicación.
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 220
Como ejemplo de cuestiones y situaciones podemos presentar las siguientes:
* Reconocer y caracterizar la posible aleatoriedad de determinados fenómenos del
entorno próximo, como:
⋅ Contraer una determinada enfermedad.
⋅ Obtener un número específico al tirar un dado.
⋅ Sufrir un accidente de tráfico, etc.
* Pronunciarse sobre un conjunto de afirmaciones como, por ejemplo:
⋅ Hay una posibilidad entre dos de que mañana llueva.
⋅ En una urna donde hay bolas rojas y blancas la probabilidad de sacar una
bola roja depende de la proporción de bolas rojas que hay en la urna.
⋅ El azar influye en el porvenir/futuro de cada persona.
* Responder a cuestiones como:
⋅ Si lanzo dos monedas tengo una posibilidad entre tres de que salga una
cara y una cruz ¿estás de acuerdo?
⋅ Al lanzar dos dados la probabilidad de obtener un 5 y un 6 es la misma que
la de obtener dos 6 ¿estás de acuerdo?
⋅⋅⋅⋅ Si conozco los últimos resultados de una lotería ¿Qué utilidad tiene dicha
información para jugar la próxima vez?.
DEBATES EN PEQUEÑO GRUPO Y COLECTIVOS
Estas actividades son el núcleo central del proceso de enseñanza/aprendizaje desarrollado
en nuestras aulas y, ya sea en pequeño grupo, con la profesora o como debates colectivos,
está presente a lo largo de todo el proceso.
Permite la explicitación y contraste de las ideas iniciales, de las interpretaciones dadas a las
nuevas informaciones, de los conflictos surgidos, de las respuestas dadas a los problemas
planteados desde el diseño y de las conclusiones elaboradas desde la reflexión teórica. Es el
elemento que más influye en la evolución y modificación de las ideas de los estudiantes-
profesores en torno a los diferentes aspectos tratados.
Para poder confluir en los debates se les propone a los alumnos, unos puntos de análisis y
reflexión individual y grupal que se reproducen a lo largo de los distintos debates que
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 221
surgen en el aula. Estos puntos no son los únicos que se tratan, pero son un elemento
provocador del contraste y de la discusión que, ya en su desarrollo, se orienta hacia sus
propios conflictos e intereses.
Puntos de análisis como por ejemplo:
* ¿Cuál crees que es el origen del azar? ¿Cómo se puede definir?. Aportad alguna
definición del azar y de la aleatoriedad y aplicadla para caracterizar un fenómeno
concreto.
* ¿Qué tipo de información utilizas como referencia a la hora de tomar
determinadas decisiones en situaciones aleatorias? Poned ejemplos y comparad las
actitudes y estrategias intuitivas que se desarrollan.
* ¿Qué significado otorgamos a los diferentes términos probabilísticos cuando los
usamos en el lenguaje cotidiano?. Indicadlos y analizad su incidencia en la
enseñanza y aprendizaje.
* ¿Qué papel creéis que cumple en la formación del individuo y en su integración
en la sociedad? Reflexionad y comentad sobre su incidencia social y educativa.
LECTURAS SELECCIONADAS
Para acceder a nuevas informaciones es necesario que el estudiante-profesor realice
determinadas lecturas que le puedan aportar nuevos datos de naturaleza didáctica,
fundamentalmente. Para ello, seleccionamos una serie de lecturas relacionadas con algunos
de los tres ámbitos que hemos considerado como fundamentales: el propio conocimiento y
su naturaleza, su aprendizaje y su enseñanza. Ocasionalmente parte de dicha información
es facilitada a través de una exposición por nuestra parte.
Los alumnos realizan estas lecturas individualmente y posteriormente las discuten en el
pequeño grupo. Desde dicha discusión se analizan las nuevas informaciones, las posibles
interpretaciones y sus posibles reflejos en el diseño. Tras el contraste y discusión colectiva
sobre las informaciones que el pequeño grupo ha seleccionado como relevante, su
interpretación y su aportación al desarrollo del grupo, cada grupo elabora un informe o
documento teórico que recogerá, bajo su propia estructura, todos los conocimientos
construidos en los tres ámbitos considerados. Este documento está dirigido al desarrollo de
este conocimiento en el nivel de Primaria y recoge los diferentes aspectos que los
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 222
estudiantes-profesores han considerados significativos para tratar el tema en dichas aulas.
Si bien estas lecturas cambian en el tiempo, dadas las condiciones contextuales y la
información disponible, una selección actual de los documentos de trabajo podría ser :
AYER, A.J. (1974): “El azar”. En Matemáticas en el mundo moderno. Blume. Madrid.
AZCÁRATE, P. (1995): ”La enseñanza del conocimiento estocástico” (350-368). En El conocimiento profesional de los profesores sobre las nociones de aleatoriedad y probabilidad. Su estudio en el caso de la Educación Primaria. Tesis doctoral inédita. Universidad de Cádiz.
AZCÁRATE, P. y CARDEÑOSO, J.Mª (1996): “El lenguaje del azar. Una visión fenomenológica sobre los juicios probabilísticos”. Epsilón, 35, 12(2), (165-178).
BATANERO, C. y SERRANO, L. (1995): “La aleatoriedad, sus significados e implicaciones educativas”. UNO, Año III, 5, (15-28).
BORRÁS, E. (1995): “Procedimientos y recursos para trabajar la Estadística y la Probabilidad en la enseñanza”. UNO, Año II, 3, (61-71).
DIAZ GODINO, J.; BATANERO, C. y CAÑIZARES, MºJ. (1989): “Fundamentos didácticos” (11-46). “Propuestas curriculares” (65-78). “Teoría elemental de la probabilidad” (143-164). En Azar y Probabilidad. Síntesis. Madrid.
ENGEL, A. (1988): “Experiencias aleatorias de una prueba” (13-18). “Algunos ejemplos interesantes” (59-70). “Aplicaciones a la estadística” (71-86). En Probabilidad y estadística, Vol 1. Mestral. Valencia.
GREEN, D. (1989): “La comprensión de la aleatoriedad por los alumnos escolares”. En Morris (Ed.): Estudios en Educación Matemática: La enseñanza de la Estadística. Unesco. París.
HAWKINS, A. S. y KAPADIA, R. (1984): “Children’s concpetions of probability. A psychological and pedagogical review”. Educational Studies in Mathematics, 15, (349-377). (Extracto traducido)
HENRY, M. (1996): “Enfoque frecuentativo de probabilidades en los programas franceses dirigidos a alumnos entre 16 y 18 años”. En La enseñanza de las matemáticas: puntos de referencia entre los saberes, los programas y la práctica. Topiques éditions, Pont-Á-Mousson.
HOEMANN, H.W. y ROSS, B.M. (1982): “Children’s conceptions of chance and probability”. En Brainerd (Ed.): Children’s logical and mathematical cognition. Springer. Verlag. (Extracto traducido)
LIGTHTER, J.E. (1991): “A brief look at the history of probability and statistics”. Matehematics Teacher, November, (623-630).
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 223
NAGEL, E. (1979): “Significado de la probabilidad”. En Newman: Sigma. El mundo de las matemáticas. Vol 3. Grijalbo. Barcelona.
STEINBRING, H. (1991): “The Theoretical nature of probability in the classroom". En Kapadia y Borovcnick (Eds): Chance Encounters: Probability in Education. Kluwer. Dordrecht. (Extracto traducido de las ideas fundamentales)
STEINBRING, H. y von HARTEN, G. (1983): "Learning from experience- Bayes's theorem: a model for stochastic learning". En Green y otros (Eds): Proceedings of the First International Conference on Teaching Statistics. Universidad de Sheffield, Sheffield. (Extracto traducido)
OTRAS ACTIVIDADES A REALIZAR POR LOS GRUPOS
A lo largo del tratamiento del tema en el aula los diferentes grupos realizan diferentes
actividades teórico-prácticas que seleccionan del conjunto de actividades propuestas y que
les permiten poner en juego las informaciones procedentes de las lecturas teóricas y cuyo
análisis queda reflejado en el informe que presentan al final.
Entre dichas actividades podemos señalar:
* Confecionar una lista de situaciones didácticas, cercanas al contexto real, que, en
su desarrollo, puedan permitir el tratamiento del conocimiento probabilístico.
* Realizar un esquema con los diferentes significados de la probabilidad y sus
posibles aplicaciones en la interpretación de fenómenos del entorno.
* Definir y caracterizar la aleatoriedad y la probabilidad en relación con el proceso
de comprensión de una magnitud y su medida.
* Elaborar una propuesta de secuenciación de estos contenidos a lo largo de la
Primaria.Construir un mapa conceptual de los conceptos más significativos y sus
posibles relaciones.
* Realizar, durante el periodo de prácticas, algún estudio relacionado con la
enseñanza/aprendizaje del conocimiento probabilístico como, por ejemplo, el uso
del lenguaje probabilístico en la aulas.
Y como instrumento de análisis de su propio aprendizaje probabilístico se propone:
⋅ Resolver una situación probabilística. Organizar y representar los datos obtenidos
empíricamente en una determinada situación aleatoria y posteriormente hacer un
análisis e interpretación intuitiva de los resultados.
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 224
Para esta última actividad se proponen determinadas situaciones probabilísticas, para que
trabajen con ellas. Su resolución suele ser abordada en pequeño grupo y discutidas sus
soluciones en gran grupo. Y, a partir del análisis de la experiencia se les solicita:
⋅ Estableced los contenidos matemáticos que se tratan en dicha actividad.
⋅ Adaptad está situación para ser tratada en un aula de Primaria. Realizad un
análisis de las dificultades que pueden surgir en su tratamiento.
Son situaciones como por ejemplo:
* Analizar el lanzamiento de dos dados a través de un juego de carreras de fichas
numeradas del uno al doce. ¿Que ficha tiene más probabilidades de llegar la
primera?
* Analizar el lanzamiento de tres monedas ¿Cual es la probabilidad de obtener tres
cruces? ¿Podrías verificarlo empíricamente?
* En una urna hay 100 bolas, 60 negras y 40 blancas, analizar el resultado de tres
extraciones consecutivas ¿Qúe serie es más probable obtener “blanca, blanca,
blanca” o “negra, blanca, negra”?
* Estudiar el resultado de introducir 100 bolas en un Aparato de Galton, realizarlo
empíricamente. ¿Cuál es la probabiliad de que una bola caiga en el centro? ¿ y en
una esquina?
* Si cada año 1 de 10000 automovilistas sufren un accidente ¿Cual es la
probabilidad de que sufra un accidente un automovilista elegido al azar? ¿Y que sea
vuestra profesora?
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 225
BIBLIOGRAFÍA COMPLEMENTARIA
AZCÁRATE, P. y CARDEÑOSO, J.Mª (1996): “El tratamiento de la incertidumbre: un nuevo reto para los profesores de Primaria”. En Actas de las VII Jornadas Andaluzas de Educación Matemática “Thales”.Servicio de Publicaciones de la Universidad de Córdoba, Córdoba.
BLOMM, S. (1994): “Data Buddies: Primary-Grade Mathematicians Explore Data”. Teaching Children mathematics, 1, (2), (80-86) (Resumen traducido)
CANTERO, A. y BARRIO, J. (1996): “Estrategias iniciales en la medida del azar”. En Actas de las VII Jornadas Andaluzas de Educación Matemática “Thales”.Servicio de Publicaciones de la Universidad de Córdoba, Córdoba.
CARDEÑOSO, J. Mª y AZCÁRATE, P. (1995): “Tratamiento del conocimiento probabilístico en los proyectos y materiales curriculares”. Suma, 20, (41-52).
COLERA, J. (1990): “Visión didáctica de la estadística y el azar”. En Aspectos didácticos de la Matemática, 3. ICE de la Universidad de Zaragoza, Zaragoza.
CRAMER, K. (1995): “The importance of informal languaje in representing mathematical ideas”. Teaching Children Mathematics, 1, (6), (332-335).
DIAZ GODINO, J.; BATANERO, C. y CAÑIZARES, MªJ. (1989): Azar y Probabilidad. Síntesis. Madrid.
ENGEL, A. (1988): Probabilidad y Estadística. Mestral. Valencia.
EKELAND, I. (1992): EL AZAR. La suerte, la ciencia y el mundo. Gedisa. Barcelona.
FISCHBEIN, E. y GAZIT, A. (1984): “Does the teaching of probability improve probabilistics intuitions?”. Educational Studies in Mathematics, 15, (1-24).
FISCHBEIN, E.; BARBAT, I. y MÎNZAT, I. (1971): "Intuitions Primaires et Intuitions Secondaires dans l'Initiation aux Probabilités". Educational Studies in Mathematics, 4, (264-280).
FISCHBEIN, E.; NELLO M.S. y MARINO M.S. (1991): "Factors Affecting Probablistic Judgements in Children and Adolescents". Educational Studies in Mathematics, 22, (523-549).
FISCHBEIN, E.; PAMPU, I. y MÎNZAT, I. (1967): "The child's intuition of probability". Enfance, 2, (193-206).
FISCHBEIN, E.; PAMPU, I. y MÎNZAT, I. (1969): "Initiation aux Probabilités à l'École Élementaire". Educational Studies in Mathematics, 2, (16-31).
GADNER, J.M. (1984): ¡AJA! Paradojas. Paradojas que hacen pensar. Labor. Barcelona.
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 226
GRUPO CERO (1982): Estategias, conjeturas y demostraciones. ICE de la Universidad de Valencia, Valencia.
GRUPO CERO (1983): Es posible. ICE de la Universidad de Valencia, Valencia.
HACKING, I. (1995): La emergencia de la Probablidad. Gedisa. Barcelona.
HACKING, I. (1991): La domesticación del azar. Gedisa. Barcelona.
HARTE, S. y GLOVER, M. (1993): “Estimation is Mathematical Thinking”. Arithmetic Teacher, Octubre, (75-77).
HENRY, M. (1994): L’enseignement des probabilités. Irem de Besançon. Besançon.
KOLMOGOROV, A. (1974): “La teoría de probabilidades”. En Kolmogorov y otros : La matemática: su contenido, métodos y significado. Alianza Universidad. Madrid.
LINDGUIST, M.H. y otros (1992): Making sense of data. Serie Addenda. NCTM. Reston.
MORRIS, K. (1989) (Ed.): Estudios en Educación Matemática. Enseñanza de la Estadística. Unesco. París.
NEWMAN, J.R. (1976): Sigma: el mundo de las Matemáticas, Vol 3. Grijalbo. Barcelona.
NORTES, A. (1987): Encuestas y precios. Síntesis. Madrid.
NORTES, A. (1993): Matemáticas, Universidad, Sociedad. Secretariado de publicaciones. Universidad de Murcia, Murcia.
PACKEL, E. (1995): La Matemática de los juegos de apuestas. Euler. Madrid
PÉREZ CUENCA, P. (1995): “Juegos probabilísticos en Primaria”. En Actas de las VII J.A.E.M. Madrid.
RICO, L. y col. (1992): Prensa y Educación Matemática. Síntesis. Madrid.
SHULTE, A.P. (1987): “Learning Probability concepts in elementary school Mathematics”. Arithmetic Teacher, 34, 5, (32-33).
SHULTZ, H.S. y LEORNAD, B. (1989): “Probability and intuition”. Mathematics Teacher, 82, 1, (52-53).
STEINBRING, H. (1984): "Mathematical Concepts in Didactical Situations as Complex Systems: The Case of Probability". En Steiner y Balacheff (Eds): Theory of Mathematics Education. ICME 5. IDM de la U. de Bielefeld, Bielefeld.
STEINBRING, H. (1988): "Nature du savoir mathématiques dans la pratique de l'enseignant". En Laborde, C. (Ed): Actes du premier colloque Franco-Allemand de Didactiques des Mathématiques et de l'Informatique. La Pensée Sauvage, Grenoble.
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 227
STEINBRING, H. (1991): "The Theoretical nature of probability in the classroom". En Kapadia y Borovcnick (Eds): Chance Encounters: Probability in Education. Kluwer, Dordrecht.
STEINBRING, H. (1991a):"The concept chance in everyday teaching: aspects of a social epistemology of mathematical knowledge". En Educational Studies in Mathematics, 22, (503-522).
STEINBRING, H. (1991b): "Mathematics in teaching processes the disparity between teacher and student knowledge". En Recherches en Didactique des Mathématiques, 11 (1), (65-108).
TANUR, J.M. (1992): La estadística. Una guía de lo desconocido. Alianza Universidad. Madrid.
UNO (1995): Mongráfico “Probabilidad y Estadística”. Año II, 5.
UNO (1996): Monográfico“Laboratorio de matemáticas”. Año III, 7.
ZAWOJEWSKI, J. y otros (1991): Dealing with data and chance. Serie Addenda. NCTM. Reston.
REFERENCIAS
AZCÁRATE, P. (1995): El conocimiento profesional de los profesores sobre las nociones de
aleatoriedad y probabilidad. Su estudio en el caso de la Educación Primaria. Tesis doctoral
inédita. Universidad de Cádiz.
AZCÁRATE, P. y CARDEÑOSO, J.Mª (1996): “El lenguaje del azar. Una visión
fenomenológica sobre los juicios probabilísticos”. Epsilón, 35, 12(2), (165/178).
BACHELARD, G. (1948): La formación del espíritu científico.Buenos Aires: Argos. (Original
en 1938)
BAYES, T. (1987): “Essai en vue de résoudre un problème de la doctrine des chances”. Cahiers
d’Histoire et de Philosophie des Sciences, nº 18.
BENNETT, D.J. (1993): The Development of mathematical concept of randomness: educational
implications. New York University. U.M.I. Dissertation Abstracts, nº 9317657.
BLACK, M. (1984): Inducción y Probabilidad. Madrid: Cátedra.
BOYER, C. (1986): Historia de la Matemática. Madrid: Alianza Universidad.
BRIGGS, J. y PEAT, F.D. (1990): Espejo y Reflejo: del caos al orden. Barcelona: Gedisa.
BYRNE, E.F. (1968): Probability and Opinion. A study in the medieval presuppositions of post-
medieval theories of probability. The Hague: Matinus Nijhoff.
CARDEÑOSO, J. Mª y AZCÁRATE, P. (1996): “La integración del conocimiento
probabilístico en la Educación Primaria”. Comunicación breve presentada en VII Congreso
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 228
Internacional de Educación Matemática, ICME 8. Sevilla.
COLLETTE, J.P. (1985): Historia de las Matemáticas. 2 Vol. Madrid: Siglo XXI.
CONDORCET, A. (1990): Matemáticas y Sociedad .México: Fondo de Cultura Económica.
CORDIER, J. y LECOUTRE, M.P. (1990): "Effet du mode de présentation d'un problème
aléatoire sur les modèles développés par les élèves". Bulletin d'Association des Professeurs de
Mathématiques de L'Enseignement Public, 372, (9/22).
COURNOT, A.A. (1984): “Exposition de la théorie des chances et des probabilités”. En Obras
Completas, Vol. I. París: Vrin.
CROMBRIE, A.C. (1985): Historia de la Ciencia: de S. Agustín a Galileo. 2 Vol. Madrid:
Alianza. (Original en 1959)
DASTON, L. (1988): Classical Probability in the Englightenment. Princeton: Princeton
University Press.
DAVID, F.N. (1962): Games, gods and gambling: origins and history of probability and
statistical ideas from the earliest times to the newtonism era. New York: Hafner Publishing
Company.
EKELAND, I. (1992): El Azar. La suerte, la ciencia y el mundo. Barcelona: Gedisa.
FALK, R. Y KONOLD, C. (1992): "The Psychology of Learning Probablity". En Gordon y
Gordon (Eds): Statistics for the Twenty-First Century. Washington, DC: Mathematical
Association of America.
FIENBERG, S.E. (1992): "A Brief History of Statistics In Three and One-Half Chapters: A
Review Essay". Statistical Science, 7 (2), (208/225).
FINE, T.L. (1973): Theories of Probability. New York: Academic Press.
FISCHBEIN, E. (1975): The intuitive sources of probabilistic thinking in children. Dordrecht:
Reidel.
FISCHBEIN, E. (1990): "Training Teachers for Teaching Statistics". En Hawkins (Ed):
Training Teachers to Teach Statistics.Voorburg: International Statistical Institute.
GARCÍA, J.E. (1988): "Fundamentos para la construcción de un modelo sistémico del aula". En
Porlán, García y Cañal: Constructivismo y enseñanza de las Ciencias. Sevilla: Diada.
GARCÍA, J.E. y CUBERO, R. (1993): "Perspectiva constructivista y materiales curriculares de
Educación Ambiental". Investigación en la Escuela, 20, (9/22).
GIGERENZER, G. y otros (1989): The Empire of Chance. How Probability Change Science
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 229
and Everyday Life. Cambridge: Cambridge University Press.
GRIMAL, P. (1989): Diccionario de Mitología Griega y Romana. Barcelona: Paidos. (Original
en 1951)
GUIRAND, F. (1970): Mitología General. Barcelona: Labor.
HACKING, I. (1995): La emergencia de la probabilidad. Barcelona: Gedisa.
HACKING, I. (1991): La domesticación del azar. Barcelona: Gedisa.
HALD, A. (1990): A History of Probability and Statistics and their Aplications before 1750.
New York: Wiley.
HAWKINS, A. S. y KAPADIA, R. (1984): “Children’s concpetions of probability. A
psychological and pedagogical review”. Educational Studies in Mathematics, 15, (349/377).
HEISENBERG, W. (1959): Physics and Philosophy: the revolution of modern science. New
York: Harper y Row.
HENRY, M. (1994): L’enseignement des probabilités.. Besançon: Irem de Besançon.
HENRY, M. (1996): “Enfoque frecuentativo de probabilidades en los programas franceses
dirigidos a alumnos entre 16 y 18 años”. En La enseñanza de las matemáticas: puntos de
referencia entre los saberes, los programas y la práctica. Pont-Á-Mousson: Topiques éditions.
JUNTA DE ANDALUCÍA, (1992): Colección de materiales curriculares para la Educación
Primaria. Sevilla: Consejería de Educación y Ciencia.
KAHNEMAN, D. y TVERSKY, A. (1972): "Subjective probability: a judgment of
representativeness". Cognitive Psychology, 3, (430/454).
KAHNEMAN, D.; SLOVIC, P. y TVERSKY, A. (Eds.) (1982): Judgments under Uncertainty:
Heuristics and Biases. New York: Cambridge University Press.
KENDALL, M.G. (1978): "The Beginnings of a Probability Calculus". En Person y Kendall
(Eds): Studies in the history of statistics and probability, Vol I. Londres: Charles Griffin.
KLINE, M. (1992): El pensamiento matemático de la Antigüedad a nuestros días, 3 Vols.
Madrid: Alianza Universidad.
KOLMOGOROV, A.N. (1973): "La Teoría de Probabilidades". En Varios: La Matemática: su
contenido, método y significado. Madrid: Alianza.
LAPLACE, P.S. (1985): Ensayo Filosófico sobre las Probabilidades. Madrid: Alianza.
(Original en 1812).
LECOUTRE, M.P. y DURAND, J.L. (1988): "Jugements probabilistes et modèles cognitifs:
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 230
étude d'une situation aléatoire". Educational Studies in Mathematics, 19, (357/368).
MAISTROV, L.E. (1974): Probability theory: a historical sketch. New York: Academic Press.
MASON, S.F. (1985): Historia de las Ciencias, 5 Vols. Madrid: Alianza Editorial.
MORIN, E. (1986): El Método I: La Vida de la Vida. Madrid: Cátedra.
NAVARRETE, A. y otros (1992): Una estrategia de formación del profesorado vinculada a la
innovación curricular. Sevilla: Grupo de Investigación en la Escuela.
ORE, O. (1960): "Pascal and the Invention of Probability Theory". American Mathematical
Monthly, 67, (409/419).
PASCAL, B. (1983): OBRAS. Pensamientos, Provinciales, Escritos Cientificos, Opúsculos y
Cartas. Madrid: Alfaguara.
PIAGET, J. e INHELDER, B. (1951): La genése de l'idée de hasard chez l'enfant. París:
P.U.F..
POINCARÉ, H. (1963): "El Azar". En Varios: Ciencia y Método. Madrid: Austral- Espasa
Calpe.
POLYA, G. (1962): Mathematical discovery. New York: John Wiley and Sons.
PRIGOGINE, Y. (1986): La nouvelle alliance: metamorphose de la science. París: Gallimard.
ROSS, A. (1957): El azar en Aristóteles.Buenos Aires: Sudamericana.
SÁNCHEZ ALBORNOZ, C. (1976): España: Un enigma histórico. Barcelona: Edasa.
SHAFER, G. (1990): "The unity and diversity of probability (with discussion)". Statistical
Science, 5 (435/462).
SHAUGHNESSY, J.M. (1992): "Research in Probability and Statistics: Reflections and
Directions". En Grouws (Ed): The teaching and learning of the mathematics. New York:
Macmillam.
STEINBRING, H. (1980): Zur Entwicklung Des Wahrscheinlichkeitsbegriffs - Das
Anwendungsproblem In Der Wahrscheinlichkeitsthoerie Aus Didaktischer Sicht. Bielefeld:
Universidad de Bielefeld, Institut für Didaktik der Mathematik.
STEINBRING, H. (1984): "Mathematical Concepts in Didactical Situations as Complex
Systems: The Case of Probability". En Steiner y Balacheff (Eds): Theory of Mathematics
Education. ICME 5. Bielefeld: Institut für Didaktik der Mathematik, Universidad de Bielefeld.
STEINBRING, H. (1991): "The Theoretical nature of probability in the classroom". En Kapadia
y Borovcnick (Eds): Chance Encounters: Probability in Education. Dordrecht: Kluwer.
───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 231
STEINBRING, H. (1991a):"The concept chance in everyday teaching: aspects of a social
epistemology of mathematical knowledge". Educational Studies in Mathematics, 22, (503/522).
STEINBRING, H. y von HARTEN, G. (1983): "Learning from experience- Bayes's theorem: a
model for stochastic learning". En Green y otros (Eds): Proceedings of the First International
Conference on Teaching Statistics. Sheffield: Universidad de Sheffield.
STEINER, H-G (1983): "Some remarks on the symposium's impact on mathematical
education". En Scholz (Ed): Decision Making under Uncertainty. Amsterdan: Elsevier.
TATON, R. (Ed.) (1972): Historia General de las Ciencias, 5 Vols. Barcelona: Destino.
(Original en 1958).
TRILLAS, E. (1980): Conjuntos Borrosos. Barcelona: Vicens-Vives.
WAGENSBERG, J. (1981): "La necesidad del azar". Mundo Científico, 1, (11/26).
WAGENSBERG, J. (Ed) (1986): Proceso al Azar. Barcelona: Tusquets.
TRANSPARENCIAS:
I.- Nombre del tema y esquema del trabajo
II.- Relación de Objetivos
III-IV.- Esquemas sobre el contenido
V.- Relación de Actividades. Algún ejemplo
VI.- Instrumentos de evaluación