anÁlisis del proceso de enseÑanza/aprendizaje … · sobre epistemología (modelizaciones y...

231
La enseñanza/aprendizaje del conocimiento probabilístico 1 ANÁLISIS DEL PROCESO DE ENSEÑANZA/APRENDIZAJE DEL CONOCIMIENTO PROBABILÍSTICO PILAR AZCÁRATE GODED UNIVERSIDAD DE CÁDIZ Octubre, 1996

Upload: duonghanh

Post on 03-Nov-2018

216 views

Category:

Documents


0 download

TRANSCRIPT

La enseñanza/aprendizaje del conocimiento probabilístico 1

ANÁLISIS DEL PROCESO DE ENSEÑANZA/APRENDIZAJE

DEL CONOCIMIENTO PROBABILÍSTICO

PILAR AZCÁRATE GODED

UNIVERSIDAD DE CÁDIZ

Octubre, 1996

La enseñanza/aprendizaje del conocimiento probabilístico 2

ESQUEMA / RESUMEN DEL TRABAJO

* Presentación: interés, sentido, justificación y situación curricular del tema.

* Objetivos: aspectos del conocimiento didáctico-matemático del estudiante/profesor sobre los

que puede incidir su desarrollo.

*Contenidos: descripción y desarrollo del marco explicativo referentes a las cuestiones a tratar

sobre epistemología (modelizaciones y naturaleza), aprendizaje (lenguaje) y

enseñanza (fenomenología y relaciones, medios recursos)

*Actividades: descripción del tipo de actividades a desarrollar durante el tratamiento del tema

en el aula tanto a nivel de práctico como teórico.

*Evaluación: no puede ser considera como un elemento separado del proceso ya que en todo

momento el propio desarrollo del aula está aportando datos sobre la evolución del

proceso.

*Bibliografía complementaria: relación facilitada a los alumnos como material de apoyo y

para su posible utilización en el futuro.

*Referencias: bibliografía utilizada y referida en la presentación del trabajo.

La enseñanza/aprendizaje del conocimiento probabilístico 3

PRESENTACIÓN

El trabajo que voy a presentar no corresponde, como tal, a ninguna de las unidades

recogidas en el programa, en verdad es una parte de la Unidad III.4 en la que también está

incluida el conocimiento estadístico. Los dos aspectos del conocimiento matemático reflejados en

dicha unidad, el probabilístico y el estadístico, están muy relacionados. La estadística se ha

desarrollado con el fin de organizar, caracterizar y tipificar la información, de forma que pueda

aportar datos significativos para el análisis de la realidad. Esa información puede provenir de una

gran diversidad de fenómenos de la vida social, política, profesional, afectiva, económica, etc. De

todos ellos, nos interesa el universo de fenómenos cuya resolución está afectada por la

incertidumbre, en los que la capacidad de inferir conclusiones, está directamente relacionada con

el sentido probabilístico de dichos datos. El pensamiento probabilístico entendido como la

capacidad de interpretar y manejar la incertidumbre presente en la realidad, es un factor clave en

la sociedad actual. Aunque nuestras reflexiones estarán hoy focalizadas en la problemática de la

enseñanza/aprendizaje del conocimiento probabilístico, se entiende que, el desarrollo de la

unidad correspondiente, se completa en el aula con un tratamiento similar desde la óptica

estadística, para posibilitar que los estudiantes-profesores realicen la síntesis necesaria.

Desde el punto de vista curricular, el tratamiento del conocimiento probabilístico en

nuestras aulas está justificado al estar, por primera vez, recogido en el currículum matemático. En

la última propuesta curricular para la Ecuación Primaria, presentada por la Junta de Andalucía,

(BOJA del 20/6/1992), no hay una presentación explícita de un bloque relacionado con algún

aspecto del conocimiento probabilístico. En su organización de los contenidos no parece

reconocer ni el espacio, ni la problemática específica del conocimiento probabilístico, cuya

naturaleza difiere sustancialmente de otros campos del conocimiento matemático, como, por

ejemplo, el numérico. Sin embargo, curiosamente, dentro del desarrollo de contenidos

pertenecientes al bloque "Números y Operaciones", aparecen indicaciones como:

- "Exploración sobre la causalidad. Constatación del carácter aleatorio de algunas

experiencias"

- "Aproximación a la idea de probabilidad. Exploración del grado de probabilidad de

sucesos sencillos"

Indicaciones que reflejan la necesidad, apoyada por numerosos investigadores, de iniciar

a los alumnos en la interpretación y manejo de la incertidumbre desde los primeros momentos de

su escolaridad. Pero, al ser un tópico cuyo tratamiento en las aulas ha sido inexistente hasta

La enseñanza/aprendizaje del conocimiento probabilístico 4

ahora, gran parte de las ideas que los estudiantes-profesores tienen elaboradas sobre él, son

producto de las experiencias e interacciones directas con el medio socio-natural sin mediación de

proceso formativo alguno. Lo cual provoca la existencia de un gran número de concepciones

espontáneas de carácter intuitivo con fuertes sesgos en sus razonamientos y muy cercanas a un

conocimiento cotidiano de la incertidumbre, como hemos podido comprobar en nuestras propias

investigaciones (Azcárate, 1995). Hecho que puede tener grandes repercusiones en su futura

aulas de Primaria.

Es un aspecto complejo del conocimiento matemático, difícil de tratar en las aulas de

primaria y difícil de tratar en nuestras aulas. Su propia naturaleza entra en contradicción con el

habitual rigor y exactitud de los datos matemáticos; su interpretación y aplicación a las

situaciones del entorno entran en conflicto con el valor inequívoco y verdadero que se le otorga a

la información procedente de cálculos matemáticos. Estas características hacen difícil, en muchos

casos, una verdadera comprensión de la probabilidad y son necesarios procesos de reflexión

conscientes sobre las diferentes experiencias vividas para poder modificar las ideas iniciales de

los estudiantes-profesores sobre el propio conocimiento e introducirlos en la problemática de su

enseñanza/aprendizaje.

Pero, hay un dato más por lo que consideramos necesario e interesante el estudio de este

aspecto del conocimiento, nos referimos a su potencialidad epistemológica. Su comprensión

provoca un salto epistemológico de rango cualitativamente significativo, permitiendo al

estudiante-profesor reconocer esa parcela de la realidad que se mueve entre lo perfectamente

determinado y predecible y aquello considerado como imposible. Como un día comentaban en el

aula, con su estudio aprendemos todos a movernos en la amplia gama de los grises, situación no

habitual en las aulas donde todo parecer ser blanco o negro, correcto o incorrecto, hecho de vital

importancia para que los estudiantes-profesores puedan enfrentarse desde nuevas perspectivas, a

las situaciones educativas.

Los estudiantes-profesores poseen muy poca información sobre este tema, tanto en el

ámbito conceptual como didáctico. Al ser un tema novedoso para ellos, es idóneo para cuestionar

y poner en entredicho muchas de sus ideas sobre las matemáticas y su enseñanza/aprendizaje, al

tener que pasar ellos mismos por muchos de los momentos que ellos mismos diseñarán para sus

futuros alumnos de Primaria. Ello les permite aproximarse al conocimiento matemático desde

perspectivas más flexibles.

Las ideas que se desarrollan a continuación representan el marco de referencia desde el

La enseñanza/aprendizaje del conocimiento probabilístico 5

que se concreta nuestra actuación en el aula. Su desarrollo específico depende de las condiciones

contextuales, del grupo clase y del tiempo disponible.

La enseñanza/aprendizaje del conocimiento probabilístico 6

OBJETIVOS

La introducción de las nociones básicas del conocimiento probabilístico en estos primeros

niveles no se trata más que de un primer contacto con el mundo de la incertidumbre, apoyada

fundamentalmente en una percepción empírica de dicho mundo. Es decir, el objetivo de su

tratamiento en la Primaria es facilitar que los alumnos descubran y describan situaciones o

experiencias aleatorias simples y calcular las primeras probabilidades, fundamentalmente en

contextos de juego o conocidos.

En consecuencia, con el tratamiento de este tema en el aula de la Facultad, nuestro interés

es posibilitar que los estudiantes-profesores se acerquen a las peculiaridades de este campo del

conocimiento matemático, su incidencia en el mundo actual, las características de su aprendizaje

y la problemática de su enseñanza. Y, con ello, facilitar al estudiante-profesor, la construcción

de un conocimiento didáctico-matemático significativo sobre la probabilidad. Es decir, un

conocimiento que le permita diseñar, y en su día desarrollar, un tratamiento adecuado para el aula

de Primaria.

Desde los presupuestos desarrollados en nuestro proyecto, esta idea se concreta en la

necesidad de que el estudiante-profesor elabore determinados marcos de referencia que le

permitan analizar y afrontar los problemas relativos al propio conocimiento puesto en juego, a su

aprendizaje y a su enseñanza, desde la elaboración de principios y presupuestos personales

razonados, argumentados y, por tanto, conscientes.

Este objetivo global lo podemos desglosar analíticamente, en términos más concretos:

* Justificar y analizar la aleatoriedad de los fenómenos, sus posibles caracterizaciones y

significados. Su tratamiento en los procesos de enseñanza/aprendizaje.

* Conocer y analizar los diferentes significados de la probabilidad, sus modelizaciones

matemáticas y sus relaciones. Su rol en los procesos de enseñanza/aprendizaje.

* Conocer y analizar las características y dificultades propias del aprendizaje significativo

del conocimiento probabilístico. Caracterizar los obstáculos más significativos.

* Reflexionar sobre la incidencia de la inexactitud del conocimiento probabilístico y su

influencia en los procesos de enseñanza/aprendizaje matemáticos.

* Reconocer y reflexionar sobre la naturaleza aleatoria de los fenómenos de nuestro

entorno real.

* Reconocer y analizar fenómenos y problemas del entorno, que puedan ser integrados en

situaciones de enseñanza/aprendizaje y que, en su resolución, se relacionen con la

La enseñanza/aprendizaje del conocimiento probabilístico 7

recogida y organización de datos, su análisis e interpretación probabilística.

* Analizar los medios, recursos y tipo de actividades que pueden desarrollarse en el aula

de Primaria.

Para la consecución de dichos objetivos hemos de seleccionar unos determinados

contenidos, coherentes con nuestras intenciones, sobre los que trabajar en el aula.

La enseñanza/aprendizaje del conocimiento probabilístico 8

CONTENIDOS

Los contenidos sobre los que vamos a trabajar en el aula, a través de diferentes tipos de

actividades, están relacionados con los siguientes aspectos del conocimiento probabilístico:

- Fenómenos indeterministas versus deterministas. Características de la aleatoriedad

como noción matemática. Presencia y relaciones con las situaciones del entorno.

- La observación y descripción de los fenómenos deterministas y aleatorios. Sucesos

seguros, posibles e imposibles.

- De la intuición probabilística al cálculo de probabilidades. La probabilidad como

medida de la incertidumbre presente en los fenómenos aleatorios.

Estimación/cuantificación.

- Análisis de los conceptos básicos del Cálculo de Probabilidades: espacio muestral,

sucesos equiprobables, sucesos independientes, frecuencia, distribución normal, ley de

los grandes números, métodos de recuento, combinatoria.

- Las conexiones del concepto de probabilidad con el entorno. Las diferentes

interpretaciones del concepto.

- Génesis y características del desarrollo de las nociones probabilísticas. El modelo

Bayesiano.

- El tratamiento educativo del conocimiento probabilístico.

- Estudio fenomenológico de los diferentes elementos del conocimiento probabilístico.

- Contextos, situaciones, instrumentos, recursos y problemática de su enseñanza.

Para trabajar estos contendidos en el aula de la Facultad de Educación, nosotros como

profesores- formadores tenemos que disponer de un marco general explicativo sobre los

diferentes aspectos que inciden en la enseñanza/aprendizaje del conocimiento probabilístico.

Marco que nos permite, seleccionar y organizar las lecturas e informaciones sobre las que han de

trabajar los estudiantes-profesores, seleccionar y organizar las actividades, orientar las

discusiones desarrolladas en el aula y, en general toda nuestras decisiones en torno a este tema.

MARCO EXPLICATIVO DEL CONTENIDO

La formación obligatoria de todo ciudadano está dirigida a promover el estudio y

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 9

desarrollo de los instrumentos y capacidades que permitan a los sujetos describir, analizar e

intervenir en la realidad. La probabilidad es concebida como un instrumento matemático que

permite la modelización de la realidad afectada por incertidumbre. El sujeto debe construir dicha

modelización desde y durante su propia actividad. La idea de probabilidad puede ser

fundamentada desde diferentes perspectivas, lógica, laplaciana, frecuencial, subjetiva y todas

ellas nos muestran la gran dificultad para delimitar claramente los significados de los conceptos

implicados. En estos primeros niveles educativos el objetivo es introducir a los alumnos en el

reconocimiento de la incertidumbre y de su medida en casos muy concretos y cercanos a

contextos cotidianos.

La probabilidad es un concepto complejo que sólo tiene sentido en relación con un

suceso o acontecimiento de una serie o fenómeno aleatorio, si no existe el fenómeno aleatorio la

probabilidad tampoco. Ello implica que la construcción del concepto de probabilidad sólo

adquiere significado desde la comprensión de la incertidumbre y su modelización matemática, la

aleatoriedad. De un fenómeno o experiencia aleatoria podemos conocer el conjunto de soluciones

posibles, incluso tenerlas bien identificadas, lo cual nos permite conocer su probabilidad de

ocurrencia. Sin embargo, estos conocimientos sobre las condiciones del fenómeno no determinan

la presencia de uno u otro acontecimiento de forma absoluta. Cada uno de los resultados posibles

del fenómeno ocurrirá de forma azarosa y sólo podemos tener una cierta expectativa de su

ocurrencia. La noción de aleatoriedad esta, por tanto, vinculada con otra idea de gran controversia

epistemológica, el azar.

Esta breve visión de las ideas ligadas al propio concepto de probabilidad, nos da algunas

claves para poder comprender las dificultades conceptuales inherentes a la noción de

probabilidad. De hecho, la evolución a lo largo de la historia de los diferentes conceptos

señalados ha tenido claras interacciones (Cuadro 1). Entre otras cosas, es necesario afrontar el

estudio de los obstáculos epistemológicos relacionados con la propia concepción del azar, cuyo

análisis nos aporta una información significativa para comprender el origen de gran parte de las

ideas y creencias de los sujetos.

El azar, diferentes aproximaciones epistemológicas

Históricamente la idea de azar ha estado relacionada con múltiples consideraciones de

rango teológico, filosófico, ideológico y epistemológico. El desarrollo de la propia idea de azar

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 10

nos facilita información sobre los diferentes obstáculos con los que ha estado y está ligada su

comprensión, muchos de los cuales persisten en la sociedad actual (Cuadro 2). Obstáculos sobre

los que el estudiante-profesor ha de reflexionar desde dos perspectivas, desde la de los alumnos

de Primaria, de cara a su futura labor profesional y desde su propia formación, de cara a dominar

las dificultades del propio conocimiento (Fischbein, 1990). Es importante que los estudiantes-

profesores sean conscientes de sus propias ideas y obstáculos para poder analizar, en su día, las

dificultades de comprensión de sus alumnos (Henry, 1996).

(*) Las primeras aproximaciones a la idea de azar son de rango teológico, desde las

cuales el origen de todo está en el poder de los Dioses, quienes conocen todo lo que acontece. El

hombre es incapaz de controlar todas las causas que provocan un resultado observado y al azar

es considerado simplemente como una causa desconocida para él. Desde dichas aproximaciones

a la idea de azar, el estudio o modelización de los sucesos considerados como fortuitos no es

factible, pues están fuera de toda posibilidad de regulación. En términos de Polya (1962),

estamos ante una fase inicial exploratoria y empírica de las ideas que emergen de la realidad y

que, posteriormente, facilitarán su posible modelización matemática a través de lo que hoy

conocemos como aleatoriedad. Fruto de este tipo de explicaciones se detectan diferentes

discursos del azar:

⋅⋅⋅⋅ Así en las civilizaciones más antiguas como la egipcia, babilónica, normanda,

etc., desde la consideración de un universo regido por la búsqueda del orden, el azar es

considerado como una fuerza extraña de origen mágico, que refleja la suerte ciega o el

destino y asociada a la existencia del caos (Morin, 1986). En las distintas mitologías

encontramos signos del poder del orden (Maât para los egipcios, Marduck para los

babilónicos) sobre el caos (Seth o Tiaâmat), representativos de la búsqueda del orden

(Guirand, 1970). Para el mundo primitivo no hay hechos fortuitos, hay causas

desconocidas que, ante la ausencia de justificaciones para su existencia, se

relacionan con lo mágico o lo divino.

⋅⋅⋅⋅ Para el mundo grecorromano, sin embargo, el universo está regido por la

necesidad causal, evitando recurrir a fuerzas sobre naturales o divinas. A los dioses se les

otorga significados semiracionales, concibiéndolos más como fuerzas de la realidad

natural que de naturaleza divina. Uno de los síntomas más significativos de esta

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 11

evolución es la consideración de la dualidad Ananké/Tyché - Necesidad/Azar. La

necesidad o Ananké es lo que viene dado, lo establecido, lo que no se puede evitar, donde

los hechos acaecen por causas necesarias; representa la personificación de la obligación

absoluta (Grimal, 1989). Lo que se escapa de este orden o aparente necesidad es el azar o

Tyché, todo lo que no ocurre por una causa aparente.

Una de las figuras más representativas de estas civilizaciones, Aristóteles,

reconocido como el mayor sistematizador del saber antiguo (Taton, 1972; Mason, 1985),

explica el Azar como el encuentro imprevisto de procesos causales independientes, es

una mera apariencia que atañe a las cosas de la naturaleza y a las humanas, nunca a las

celestes, a las que considera de otra categoría y pertenecientes a lo que llama el mundo

supralunar, donde no existe indeterminación alguna. Su concepción del problema del azar

se manifiesta, por tanto, dentro de un no-determinismo aplicable sólo al mundo terreno,

nunca al celeste al que considera perfecto y ordenado, como indica Ross (1957). Aunque,

según Crombie (1985), hay otros muchos autores que piensan que en las tesis de

Aristóteles no hay indeterminismo alguno, el azar lo considera simplemente como una

apariencia, producto de un encuentro imprevisto de lo determinado. Idea que ha sido

defendida por filósofos como Cournot ([reeditado] 1984) y que subyace en nuestra propia

consideración del azar como casualidad.

Estas ideas tienen también su reflejo en el mundo romano donde se habla de la

diosa Fortuna como la Suerte y de Casus como el Azar, al que designan, al igual que el

azar aristotélico, como la confluencia de series causales. Con respecto a la diosa Fortuna,

el mundo latino la asocia con el sentido positivo a la suerte, a diferencia de su acepción

neutra primitiva. Gran parte de estos términos y significados han llegado hasta nuestros

días, como el del vocablo "Fortuna", cuyo significado hoy sigue unido a la buena suerte,

como algo que no se puede controlar y, en muchos casos, unida intrínsecamente al

destino de las personas.

En resumen, el mundo grecorromano admite en general que la determinación

total no es una característica propia del mundo terreno, en él existe algo

indeterminado que no permite una aserción absoluta y segura sobre el futuro. Las

reflexiones desarrolladas en esta época sobre el tema, son de carácter teórico y metafísico,

sin cuestionarse el posible control y estudio de esos sucesos inesperados o fortuitos

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 12

producidos por "causas accidentales". El azar, reconocido como algo desconocido,

es explicado como un simple reflejo del cruce inesperado de un conjunto de hechos

que son producto de causas necesarias, establecidas por series causales

independientes. Ideas que no son extrañas a los sujetos del siglo XX, ya que, como

apuntábamos antes, un significado similar al dado por Aristóteles es el que hoy

otorgamos al término casualidad, al que en muchos casos diferenciamos de suerte, más

vinculado a las personas concretas. Creencias que, por otro lado, al estar subyacentes en

nuestras decisiones representan en muchos casos grandes obstáculos epistemológicos

para comprender el posible estudio de los sucesos reconocidos como fortuitos o

aleatorios.

⋅⋅⋅⋅ Un tercer momento diferenciado lo encontramos ya en plena Edad Media, en el

que las formas históricas de magia y mitología se transformaron progresivamente en las

grandes religiones que hoy conocemos. Desde ellas el poder de Dios está presente en

todas las posibles explicaciones de cualquier fenómeno. El universo está regido por la

Divina Providencia y el azar sólo es el reflejo de su voluntad incomprensible para el

hombre. Durante la Edad Media, con el apogeo del Cristianismo, las ideas de la Iglesia

adquieren un peso significativo en la sociedad. Su persistencia en el papel de la

Providencia Divina como causa única y última de todas las cosas condena a lo

indeterminado y, por tanto, al azar a la inexistencia, relacionándolo con un sentido

cabalístico y mágico del mundo, y prohibiendo en múltiples ocasiones cualquier alusión

a él. Su estudio sigue siendo, por tanto, inconcebible.

Según Sánchez Albornoz (1976), en el Medievo se pueden diferenciar dos

interpretaciones de la noción de azar. La oficial y, por tanto, la de todos los creyentes, y la

vulgar o del incrédulo. Para los primeros, el azar no existe, el hecho que observamos

como inexplicable es una proyección de la suprema voluntad de Dios, cuyo sentido no lo

puede captar la deficiente razón humana; sin embargo, para el no creyente, el azar es una

fuerza de la naturaleza ciega, inexplicable y mágica, reflejando las concepciones

primitivas sobre lo incontrolable. Así, los acontecimientos extraños e inesperados,

resultado de la convergencia accidental de procesos causales para los aristotélicos o del

poder de fuerzas ocultas y mágicas para los paganos, para el hombre docto medieval

son simplemente producto de la voluntad divina, que se justifica como causa última

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 13

ajena al hombre (Hacking, 1995). Cabría apuntar que, en nuestra cultura actual, esta

concepción está identificada con los grupos fatalistas y fundamentalistas.

(*) El progresivo papel del hombre en el control de la naturaleza, representó la búsqueda

de una nueva imagen del mundo donde la realidad estaba regida por sus propias leyes. El mundo

científico, a partir de los siglos XVI/ XVII, se focalizó en el intento de explicación y control de

los fenómenos de la naturaleza. En dicho contexto, toda noción que estuviese relacionada con el

desorden, la incertidumbre o lo indeterminado era relegada a segundo plano y desechada como

parte del saber científico. Estas ideas provocaron un "retroceso del poder del azar en función del

progreso del conocimiento" (Wagensberg, 1981: 16), entrando en una época de gran confusión en

torno al problema del azar.

A partir de la formulación matemática de las leyes fundamentales de la Mecánica

Clásica, se consolidó, definitivamente, la teoría determinista; se tenía la certeza de que se habían

descubierto las bases de las Leyes Universales de la Naturaleza que regían el universo (Taton,

1972). Desde los presupuestos de la teoría determinista, se reconocían en la naturaleza dos tipos

de fenómenos:

* Aquellos que se regían por leyes armónicas y, por tanto, eran previsibles en su

evolución y repetición.

* Y otra serie de fenómenos que, aparentemente, eran inexplicables e

impredecibles, sobre los que se tenía una clara ignorancia.

Estos últimos son los que, desde el pensamiento newtoniano, se atribuyen al azar. Desde

él, el mundo se regía por leyes estrictamente causales y no se podía ni pensar que existiesen leyes

del azar o de lo irregular y mucho menos que éstas pudieran ofrecer una alternativa válida para el

estudio de la realidad. Como plantea Hacking (1991: 18), "a ninguno de ellos se le ocurría

pensar por un instante que las leyes del azar podrían suministrar una alternativa de las leyes

estrictamente causales". Se consideraba que todo fenómeno tenía una causa, por mínima que ésta

fuera y, que aunque un fenómeno pareciera fortuito, ello sólo era producto del desconocimiento

sobre las causas y leyes que lo regían. El azar era simplemente el efecto de la ignorancia

humana a la hora de traducir científicamente, según leyes causales y deterministas, ciertos

acontecimientos de la Naturaleza. Según esta concepción, no existe el azar en sí mismo, es

nuestra ignorancia lo que nos hace recurrir a él, como instrumento explicativo.

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 14

En paralelo al retroceso sufrido en el estudio de la significación del azar como expresión

de lo indeterminado, se produce la progresiva emergencia de la noción de probabilidad. En

realidad, es un hecho fácilmente explicable ya que el espíritu de la época se caracterizaba por la

obsesión por el control de todos los fenómenos de al naturaleza. Ante los hechos fortuitos, cuyas

leyes eran ignoradas, el Cálculo de Probabilidades posibilitaba adentrarse en el estudio de

algunos de estos fenómenos, aunque fuera provisionalmente. Su objeto de estudio, por tanto, son

los denominados sucesos aleatorios, sobre los que si bien se dispone de alguna información a

través de la experiencia, no son previsibles en sus resultados.

En este momento de la historia, se hacía una clara distinción entre la noción de azar y la

noción de probabilidad. El azar designaba el carácter indeterminado y fortuito de la realidad

física, sin interés para el estudio científico; la probabilidad, sin embargo, era una categoría

epistémica derivada de la imposibilidad humana para conocer de manera absoluta el

fundamento de ciertos procesos reales, los aleatorios; aportaba información, aunque fuera

parcial, sobre su funcionamiento. Ideas que, en cierta manera, tienen también un reflejo en las

creencias de muchas personas, niños y adultos, cuando diferencian el azar y lo aleatorio

claramente de la probabilidad. Esta última es considerada un dato matemático, y como tal,

conocido y no sujeto a la incertidumbre que conlleva la presencia del azar.

La consagración del azar como ignorancia se alcanza curiosamente en el discurso

laplaciano, al principio del siglo XIX. Laplace, en su famoso Ensayo filosófico sobre las

probabilidades (Laplace [reeditado], 1985: 25), expone el ideal determinista cuando imagina una

inteligencia infinita que, "en un momento determinado conociera todas las fuerzas que animan a

la naturaleza, así como la situación respectiva de los seres que la componen, además, fuera lo

suficientemente amplia como para someter a análisis tales datos, podría abarcar en una sola

fórmula los movimientos de los cuerpos más grandes del universo y los del átomo más ligero;

nada le resultaría incierto y tanto el futuro como el pasado estarían presentes ante sus ojos”. Es

decir, como analizan Briggs y Peat (1990), según su filosofía llegaría un día en que los científicos

encontrarían una expresión matemática que permitiría la explicación y control de todo fenómeno

de la Naturaleza, ese día quedaría eliminada la incertidumbre. Mientras esto no ocurra, no queda

otra opción que acudir a las probabilidades, como "mal menor". Es decir, desde un punto de vista

epistemológico, el determinismo absoluto conduce a Laplace a justificar lo aleatorio a partir de

nuestra ignorancia acerca de como podemos controlar las causas de un suceso, ya sea por nuestras

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 15

limitaciones de análisis o de cálculo.

Estas tesis deterministas van a cuajar fuertemente en los ámbitos escolares y la idea de

azar producto de lo desconocido persiste en gran parte de las concepciones adultas. El

reconocimiento de la falta de información sobre el desarrollo de los fenómenos aleatorios, es

decir, aquellos que son producto del azar, puede llevar en numerosas ocasiones a otros obstáculos

de comprensión, como el de la equiposibilidad. Ante un fenómeno aleatorio, cualquiera de sus

posibles acontecimientos puede suceder, no hay leyes que lo regulen y no disponemos de ninguna

razón válida de favorecer uno u otro, es simplemente producto del azar y, por tanto, todos los

sucesos tienen las mismas posibilidades de ocurrir. Dicho de otra forma, nuestra ignorancia de

los fenómenos aleatorios nos conduce a la equiprobabilidad de los acontecimientos. Forma de

razonamiento presente en las concepciones espontáneas de numerosos alumnos y detectadas por

diferentes investigadores, como Lecoutre y Duran (1988), Cordier y Lecoutre (1990).

(*) Progresivamente y ante la inmensa variedad de acontecimientos socio-naturales que

no podían ser explicados desde leyes deterministas, el mundo científico empieza a plantear la

necesidad de una reelaboración del concepto de fenómeno fortuito. Ya en los umbrales del siglo

XX, se comienza a vislumbrar la existencia de sucesos socio-naturales que, por su carácter

complejo o por la multitud de variables que intervienen en ellos, son imposibles de controlar

intrínsecamente. Esta imposibilidad es, evidentemente, producto de nuestra ignorancia o

incapacidad, pero ya no considerada como una imperfección, sino como el reflejo de la

existencia en la Naturaleza de eventos que no obedecen a leyes causales y regulares. Como

afirma Poincaré "es necesario entonces, que el azar sea otra cosa más que el nombre que damos

a nuestra ignorancia" (Poincaré [recopilación], 1963: 54). La ruptura definitiva con la idea de

ignorancia viene representada por los trabajos de Heisenberg (1959).

Las grandes convulsiones y avances del siglo XX en todos los campos del saber:

Economía, Ciencia, Social, Arte, etc., han puesto al hombre ante un mundo complejo en

continuas transformaciones donde todo sufre constantes cambios y modificaciones, que no

siempre pueden ser controladas. Así, "la ciencia de hoy no se sitúa ni en procesos puramente

deterministas ni en procesos puramente aleatorios... el mundo real se encuentra en algún punto

intermedio" (Prigogine, 1986:192). En los avances producidos en el presente siglo, ya a punto de

finalizar, se ha roto el ideal laplaciano: el conocimiento y control completo de la Naturaleza no

existe. El desarrollo de teorías como la Mecánica Estadística, la Mecánica Cuántica o la moderna

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 16

Ciencia del Caos han puesto en entredicho la culminación de tal ideal y han llevado al mundo

científico a buscar nuevas relaciones lógicas superadoras de la lógica clásica que dejan en el aire

una pregunta: "¿Es el azar un producto de la ignorancia o un derecho intrínseco de la

Naturaleza?" (Wagensberg, 1986: 15).

A partir del reconocimiento y estudio de los fenómenos fortuitos se va conformando un

nuevo discurso, el azar como elemento provocador de la complejidad existente en la

realidad, donde su significación puede estar ligada a un carácter más ontológico. En él,

comienzan a definirse los límites de la comprensión humana de la Naturaleza (Ekeland, 1992).

Actualmente el azar representa la existencia de fenómenos complejos, inaccesibles en su

desarrollo. “La idea contemporánea es la de un desorden complejo que estructura el orden

mediante unas regulaciones cuya resultante es previsible dentro de un marco probabilístico”

(Henry, 1996: 93).

La regulación y modelización científico-matemático del azar le ha desprovisto

definitivamente de su significado mágico. El acontecimiento aleatorio es aquel cuyas variables no

pueden ser determinadas en su totalidad y por lo tanto, su control se realiza a través de modelos

probabilísticos. Posiblemente, desde un punto de vista epistemológico, uno de los mayores éxitos

alcanzados por el pensamiento humano es la modelización matemática de los fenómenos

aleatorios (Trillas, 1980).

El desarrollo de los modelos probabilísticos

Es difícil determinar el comienzo del tratamiento de la probabilidad como ciencia

matemática. Sus orígenes la reducen a una ciencia empírica ligada a los juegos de azar. Su

transformación cualitativa fue el resultado de un lento y paulatino proceso, con grandes

connotaciones de tipo filosófico (Cuadro 3). Hemos podido detectar, en la revisión precedente,

cómo la propia noción de azar ha pasado por muy diversas vicisitudes. La noción de azar es ajena

al pensamiento primitivo y durante un largo período de la historia, el propio significado asociado

al azar fue un obstáculo para el desarrollo de un estudio sistemático de los fenómenos fortuitos

(Hacking, 1991; Bennett, 1993).

Llama la atención que, aunque los instrumentos de los juegos de azar existían desde

hacía miles de años en numerosas civilizaciones, la teoría de la probabilidad, como una

abstracción conceptual de las leyes del azar, no inicia su andadura hasta el final del

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 17

Renacimiento. El desfase producido entre el reconocimiento de la imprevisibilidad en ciertos

fenómenos, presentados generalmente en contextos de juegos de azar, y su conceptualización y

estructuración en una teoría matemática, es atribuido por Hacking (1995) a la no existencia de las

"precondiciones" necesarias para el nacimiento de la probabilidad como objeto intelectual. El

concepto de probabilidad está relacionado con todo un conjunto de ideas que fueron el resultado

de un largo y necesario proceso; proceso que permitió a la humanidad dar cabida a una nueva

forma de concebir la realidad y los sucesos que en ella acontecen y que constituye en sí mismo

parte de la fase exploratoria del concepto de probabilidad.

Otros autores dan numerosas razones para dicho desfase, como las siguientes: el poder

del determinismo, la falta de ejemplos empíricos de alternativas equiprobables, la ausencia de un

problema económico que la ciencia de la probabilidad satisficiera, la superstición de los

jugadores, las barreras morales o religiosas, etc. (David, 1962; Maistrov, 1974; Daston, 1988;

Kline, 1992; etc.). Desde una perspectiva más científico-matemática, Kendall (1978) enuncia

como otras posibles causas: la ausencia de un álgebra combinatoria y de una noción clara del

suceso aleatorio, ya que, sin dichos instrumentos, era difícil pensar en el estudio matemático de

los sucesos dominados por el azar.

Por alguna de estas razones o quizá por la confluencia de todas ellas, la probabilidad,

como modelo matemático que permite el estudio de cierto tipo de fenómenos fortuitos, los

aleatorios, no comienza su andadura hasta un momento muy tardío de la historia y, para ello, será

necesario superar fuertes obstáculos de orden conceptual.

(*) Así, podemos diferenciar una primera etapa que constituye su fase exploratoria, en

palabras de Polya (1962), en la que se gestaron las principales ideas relacionadas con el

concepto de probabilidad, más que las teorías. Momento de la historia que reconocemos

como la Prehistoria del Cálculo de Probabilidades (hasta el sigo XVI).

Como apuntábamos en párrafos precedentes, en épocas previas al Renacimiento, las

situaciones afectadas por la incertidumbre eran consideradas como situaciones ajenas al campo

de la ciencia y su estudio estaba sometido a la llamada evidencia externa, que era la evidencia

basadas en testimonios. La probabilidad era materia de opinión en poder de los hombres doctos

que opinaban sobre la posibilidad de ocurrencia de un determinado suceso y cuya sabiduría

provenía del poder divino, en línea con el espíritu que reinaba en la Edad Media. Posteriormente,

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 18

ya en los albores del Renacimiento, el progresivo protagonismo del hombre en el control de la

naturaleza permitió que el estudio de estos fenómenos se fuera apoyando, progresivamente, en la

reconocida como evidencia interna. Ésta provenía de los signos externos, eran ellos los que

daban información sobre su posible ocurrencia (Byrne, 1968; Hacking, 1975). Gran parte de las

ideas que se manejaban en esta época tienen hoy su reflejo en las concepciones de los sujetos,

tanto en la confianza de la opinión de los llamados expertos, aunque su fuente de información no

sea la divina, como en la información que aportan determinados signos externos. Ambas ideas

determinan, en muchos casos, las decisiones tomadas por los sujetos ante situaciones inciertas y

aleatorias, lo que provoca gran número de decisiones sesgadas y no adecuadas a las situaciones al

no considerar todos los elementos y variables contextuales puestas en juego.

Según Hacking (1995), la consideración de los signos que provenían de las cosas y de

los hechos y no exclusivamente de las personas como evidencia válida y base para la inferencia

de resultados más generales, originó el salto definitivo que permitió surgir la probabilidad.

(*) Es en una segunda etapa, donde se inicia realmente las posibilidades del estudio

sistemático de la probabilidad, aunque sin alcanzar niveles de formalización matemática.

Estamos ante un momento intermedio entre la fase de exploración y la fase de

formalización, que denominamos Iniciación del Cálculo de Probabilidades (siglo

XVII).

La idea moderna de probabilidad surge a partir de los trabajos de Fermat y Pascal sobre

el “problema de los repartos”, ya en el pleno siglo XVII. Aunque, en la historia podemos

encontrar algunos estudios desarrollados en los siglos precedentes como los realizados por

Gardano, Pacioli o el propio Galileo (Ore, 1960: Collete; 1985; Boyer, 1986).

La concepción pascaliana de la probabilidad numérica - aunque como apunta Shafer

(1990), ni Pascal ni Fermat usaron la palabra “probabilidad en su correspondencia, sólo pensaban

en repartos justos - supone la equiposibilidad de los sucesos elementales y excluye su aplicación

a los fenómenos naturales. Aunque no definida explícitamente, en sus cálculos ya aparece la

relación clásica de la proporción entre casos favorables y posibles para el cálculo de la

probabilidad en un espacio muestral definido y simétrico. Pascal en su obra, aporta otra visión

importante sobre la probabilidad distinta de la numérica. Su argumentación sobre lo que se

conoce como "la apuesta de Pascal" puede considerarse como una primera contribución a la

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 19

Teoría de la Decisión. Dicha apuesta estaba relacionada con la creencia o no de la existencia de

Dios y en ella analizaba las distintas argumentaciones posibles al tomar una postura o decisión

sobre ello (Pascal [reeditado], 1983). Encontramos en Pascal un doble significado de la

probabilidad: por un lado, un estudio de carácter más empírico, relacionado con el análisis de las

posibilidades de ciertas situaciones de juego y, por otro, sus consideraciones, más de carácter

epistemológico, relacionadas con la creencia de la existencia de Dios. Este carácter dual de la

probabilidad será, como comprobaremos, una constante de la historia de la probabilidad

(Hacking, 1975; Daston, 1988; Hald, 1990; etc.).

La probabilidad nace desde su aplicación al estudio de situaciones de juego ligadas a

contextos empíricos. A lo largo de todo su desarrollo, el estímulo principal vendrá dirigido

por la necesidad de dar respuesta a los problemas planteados desde sus aplicaciones en

contextos específicos. El campo de sus aplicaciones, en continuo desarrollo y ampliación, es el

motor de su evolución. Como plantea Steinbring (1980: 416), "la teoría de la probabilidad puede

considerarse, en cierto modo, como "modelo" de una teoría orientada a la aplicación", proceso

que a su vez provoca su progresivo avance teórico en una relación dinámica e interactiva entre la

práctica y la teoría.

Esta idea es de gran potencialidad didáctica a la hora de su tratamiento en el aula. Por un

lado todos los niños se han enfrentado en su vida cotidiana a los fenómenos aleatorios a través de

los juegos de azar y han, incluso, emitido expectativas sobre sus resultados. Gran parte de sus

concepciones previas están ligadas en su origen a los juegos de azar y las experiencias vividas en

el entorno próximo y, como apunta Bachelard (1948: 24), “en la formación del espíritu

científico, el primer obstáculo es la primera experiencia”. La movilización de las ideas iniciales

y la construcción significativa del conocimiento probabilístico necesita de la puesta en juego de

dichas concepciones en diferentes y variadas situaciones empíricas. La actividad desarrollada en

las situaciones concretas y la interacción con el modelo matemático, es la clave para la

elaboración comprensiva del concepto (Steinbring, 1991).

Ya al final de siglo, Bernoulli, estudiando el aparente desorden que presentaban los

resultados obtenidos en las situaciones de juego, observó una cierta regularidad en la aparición de

dichos resultados, hallazgo que tomó la forma de la primera ley probabilística. Su trabajo fue

recogido en una obra póstuma denominada Ars Conjectandi. En él desarrolla un tratado de

análisis combinatorio sobre permutaciones y combinaciones, recoge todos los trabajos anteriores

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 20

y plantea, por primera vez, la aplicación de la probabilidad a temas de interés del momento, fuera

ya de los contextos de juego. Constituye el primer trabajo teórico importante del Cálculo de

Probabilidades.

En la obra de Bernoulli aparece la primera y más simple formulación de la que hoy

conocemos como "la ley de los grandes números". Es la primera ley probabilística de carácter

empírico y se refiere a la estabilidad de la frecuencia en la repetición de un gran número de

ensayos semejantes: "la probabilidad constante de un suceso es p si al realizar la experiencia n

veces, dicho suceso tienen lugar m veces, y el cociente m/n se acerca tanto como se quiera a p,

con tal que el número de pruebas n sea suficientemente grande"; esta ley es un caso particular

del teorema central del límite tal como lo conocemos hoy. En la formulación de este teorema se

hace visible por primera vez la circularidad del conocimiento probabilístico: el contenido del

concepto de probabilidad no se puede definir sin que la probabilidad tenga que ser presupuesta de

alguna forma. Las ideas de Bernoulli caracterizan una concepción objetivista de la

probabilidad, propuesta desde una aproximación a posteriori de manera experimental,

evaluando los datos frecuenciales de los diferentes sucesos.

Este teorema posibilitó la progresiva aplicación de la probabilidad a fenómenos

aleatorios reales, en los que todos los resultados posibles podían ser analizados desde el modelo

probabilístico. La limitación inicial de la aplicación de la probabilidad a fenómenos con un

conjunto finito de resultados equiprobables, influyó significativamente en el campo de sus

aplicaciones y ligó durante años la probabilidad a situaciones de estas características, no muy

comunes entre los hechos socio-naturales. Cuestión que también tiene su influencia en las

personas a la hora de conceptualizar los fenómenos aleatorios y que ha de ser considerada a la

hora de su tratamiento didáctico.

Sin embargo, en su obra, Bernoulli considera la estimación de la probabilidad realizada

por los sujetos como algo personal y, por tanto, susceptible de variación en función del

conocimiento individual. El cálculo de la probabilidad depende de la interpretación a priori de los

sujetos, otorgándole un cierto rango de subjetividad como contraposición al dato objetivo,

achacado al estudio a posteriori del fenómeno, producto de una aproximación frecuencial.

En todo caso, como expone Fienberg (1992), no podemos olvidar que todos estos

autores están inmersos en un mundo determinista y utilizan la probabilidad para describir cierto

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 21

tipo de fenómenos sobre los que la ignorancia humana es manifiesta.

(*) Ya, en la tercera etapa, entramos en la fase de formalización propiamente dicha,

configurándose la teoría matemática y el concepto de probabilidad. Nos referimos, por tanto, a la

etapa de Formalización y Configuración del Cálculo de Probabilidades (siglo XVIII,

principios del XIX).

En este periodo surge un eslabón significativo para el desarrollo de la modelización

matemática fueron los trabajos del clérigo T. Bayes. Este autor analizó el problema de la

determinación de la probabilidad de las causas a través de los efectos observados y representa el

primer deslizamiento claro hacia la valoración de la aproximación subjetiva a la estimación de la

probabilidad. El problema básico se centró en estimar la probabilidad de las diferentes hipótesis

planteadas sobre las causas que han producido un determinado suceso, hipótesis elaboradas en

base a los resultados observados. Para ello formuló la expresión de la probabilidad inversa

conocida como el Teorema de Bayes, mediante el cual se podía determinar la probabilidad de un

suceso "a posteriori" en función de una probabilidad "a priori", producto de la creencia

personal o de una información ya establecida y de la información muestral obtenida a través de

la experiencia. La primera, que se busca estimar, es objetiva. La segunda que representa el valor

posible desde las consideraciones del sujeto, es subjetiva (Bayes [reeditado], 1987).

El esquema del teorema propuesto por Bayes refleja, en gran parte, el

funcionamiento ideal de los sujetos ante situaciones aleatorias: se considera una cierta

probabilidad de ocurrencia de un determinado suceso "a priori", en función del conocimiento

personal basado tanto en creencias como en la evidencia de las cosas; posteriormente esta

probabilidad es matizada y modificada, si fuera necesario, a la luz de la experiencia, obteniendo

una probabilidad "a posteriori" del suceso (Steinbring y von Harten, 1983; Hawkins y Kapadia,

1984). El teorema de Bayes es un instrumento potencial para el desarrollo del pensamiento

analógico y su esquema nos puede servir como punto de referencia a la hora del diseño de

procesos de enseñanza/aprendizaje del conocimiento probabilístico. Su estructura es una

síntesis potente entre el funcionamiento racional del sujeto y su interacción con los datos

empíricos (Azcárate, 1995).

A partir de este momento de la historia, aparecerán dos perspectivas desde las que

abordar el estudio de la probabilidad, relacionadas con el contexto de aplicación. Una de estas

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 22

perspectivas, la bernouillana, atenderá al estudio de las frecuencias relativas; la otra, la

bayesiana, se presentará más relacionada con los grados de credibilidad y sus necesarios

ajustes con la realidad. Dualidad objetivismo/subjetivismo que son el origen de las diferentes

interpretaciones del significado de la probabilidad.

Otro autor significativo de esta época, Condorcet (1990), llego a caracterizar la doble

distinción del concepto de probabilidad subyacente en los trabajos anteriores. En primer lugar

entre la definición matemática y su interpretación, y luego entre los dos sentidos de dicha

interpretación, bien como estimación objetiva/subjetiva, a partir de la observación y la

distribución de frecuencias, o bien en función de las creencias personales.

El trabajo de Bayes fue retomado y completado definitivamente por Laplace a principios

del siglo XIX. El estudio de la probabilidad de las causas inició el camino para utilizar la

probabilidad en la valoración de afirmaciones hipotéticas en el campo de la investigación y de la

toma de decisiones, confrontadas luego con la experiencia, adentrándose en el campo de la

probabilidad subjetiva. De hecho, Laplace tenía una concepción de la probabilidad cercana a la

subjetivista y su cálculo lo consideraba como una poción transitoria, ante la falta de conocimiento

sobre el fenómeno, "el buen sentido reducido a cálculo" (Laplace [reedición], 1985: 140). La

obra de Laplace constituye la base de la teoría clásica de la probabilidad y, en ella, Laplace no

define explícitamente la probabilidad, pero sí su medida como la proporción entre los casos

favorables de un suceso y los casos posibles de un conjunto de alternativas equiprobables.

Definición que muchos sujetos mantienen como única definición y, no ya de su medida, sino de

la propia probabilidad.

(*) En una cuarta etapa, entramos ya en la fase de asimilación de los avances teóricos

dados desde la teoría, desarrollándose en paralelo su nivel de profundización y extensión al

ampliarse significativamente el campo de sus aplicaciones. Es, por tanto, una etapa de

Profundización y Sistematización (siglo XIX).

Durante esta época se extendió de forma significativa el uso del Cálculo de

Probabilidades, abarcando todos los campos del conocimiento. El campo de aplicación de la

probabilidad fue ampliándose progresivamente, ya "hacia la mitad del siglo XVIII la teoría de la

probabilidad comienza a aplicarse más y más en diferentes áreas, primero en demografía,

seguros, estimación de errores observables, organización de loterías, etc." (Maistrov, 1974:

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 23

101), extendiéndose al estudio, no sólo de los fenómenos naturales, sino también de los sociales,

donde son especialmente significativos los trabajos de Condorcet. Ante la avalancha de datos

proporcionados, el interés se centró en la búsqueda de regularidades que permitieran hallar leyes

de la sociedad semejantes a las leyes de la naturaleza, establecidas por Newton. Según avanza el

siglo XIX, los estudios sobre aplicaciones de la probabilidad y sus posibles interpretaciones se

multiplicaron, posibilitando su progresiva sistematización. Se acumula información sobre las

características de la sociedad, el estudio de dicha información permite conocer las condiciones y

los funcionamientos propios de la sociedad, intentando elaborar a partir de dicho conocimiento

las leyes sociales. Se mantiene la idea de que la conducta humana se regía por esas nuevas leyes

estadísticas y probabilísticas que, al igual que las leyes de la física, no podían violarse.

Las probabilidades quedan atrapadas dentro de la estructura de la ley probabilística por

excelencia, "la ley de los grandes números", la cual era considerada como el modo de funcionar

de las cosas mismas, una ley de carácter universal, no como algo que debiera verificarse y

ajustarse con la experiencia. Hecho que representó un claro obstáculo a la hora de interpretar los

datos aportados desde la aplicación de la teoría: "La ley de los grandes números, no el teorema

de Poisson, sino una proporción sobre la estabilidad de los fenómenos tomados en masa, se

convirtió para las siguientes generaciones en una verdad sintética a priori." (Hacking, 1991:

156).

Los investigadores del comportamiento humano ante situaciones de incertidumbre han

detectado un funcionamiento similar a nivel individual. Cuando se enfrentan a situaciones de

incertidumbre, el sujeto analiza las condiciones en comparación con los datos que le aporta la ley

general, realizando una transferencia directa de la ley a situaciones puntuales, estrategia

heurística que denominan Representatividad (Kahneman, Slovic y Tversky, 1982). Estrategia que

puede dar origen a razonamientos sesgados, tanto en adultos como en niños, descritos por

Kahneman y Tversky (1972), como la falacia del jugador, o por Fischbein (1975) como efecto de

recencia negativa. Según estos investigadores, los sujetos piensan que en una serie de

experiencias aleatorias independientes, los resultados tienden a buscar “el equilibrio” entre las

frecuencias de aparición de los diferentes sucesos posibles descrito por la ley general. Por

ejemplo, en una serie sucesiva de nacimientos esperan que haya igual número de niñas que de

niños.

(*) Por último, podemos diferenciar una quinta etapa que constituye la Consolidación

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 24

definitiva del Cálculo de Probabilidades (siglo XX), al nivel de su estructura matemática, tras

la elaboración de su axiomática y a nivel del reconocimiento científico y social de los modelos

probabilísticos como sistemas para interpretar e intervenir en los hechos de la realidad.

Con las armas matemáticas desarrolladas en el último siglo, la Teoría de la Probabilidad

dio el salto definitivo. En 1933 aparece la primera axiomática, formulada por Kolmogorov a

partir de la teoría de conjuntos y de la teoría de funciones, elevando la probabilidad a la categoría

de rama separada e identificable dentro de la Matemática. Proporcionando por un lado los

fundamentos a la primitiva Teoría Clásica y, por otro, una poderosa base para la demostración de

resultados matemáticos en teoría estadística (Gigerenzer y col., 1989). En palabras del propio

Kolmogorov (1973: 298) "la Teoría de Probabilidades se puede considerar como parte de una

teoría más general que se llama Teoría de la Medida". La Teoría de la Probabilidad entra así en

el dominio definitivo de la matemática pura.

En la revisión y reflexión del desarrollo de este campo del conocimiento matemático

(Cuadro 3), hemos ido detectando ciertos puntos claves que, junto con los señalados en el

apartado anterior, han condicionado de alguna forma su evolución y que son significativos a la

hora de su tratamiento en las aulas con claras implicaciones didácticas, como son: las limitadas

condiciones iniciales de su aplicación; la atadura a fenómenos con espacio muestral finito y

equiprobable; la circularidad presente en sus definiciones; la no disposición de

instrumentos matemáticos idóneos; la relación interactiva entre la extensión del campo de

aplicaciones y su evolución teórica; o la presencia continua de la dicotomía

objetivo/subjetivo en lo referente al significado de la probabilidad en contextos específicos.

Con respecto a este último aspecto, hemos de tener en cuenta que la validez de los

resultados obtenidos desde la teoría, al aplicarla a la vida real, depende de su interpretación, es

decir, de la concreción de su significado. Las estimaciones de carácter probabilístico son útiles y

usuales en la vida cotidiana y en el mundo científico y son utilizadas en numerosas ocasiones

para elaborar juicios concernientes, tanto a sucesos no observados o futuros, como para la

formulación de hipótesis imposibles de verificar (Black, 1984). El problema se nos presenta al

dar significado y validez a dichas estimaciones, ya sea en lo referente a las posibilidades de

ocurrencia de ciertas clases de eventos, ya sea en el dominio de la toma de decisiones en

situaciones de incertidumbre.

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 25

Como nos recuerda Black (1984), la teoría matemática es neutral en relación con las

diferentes interpretaciones filosóficas que puedan darse del significado del término

"probabilidad". Pero ninguna teoría matemática puede ser útil sin una interpretación o significado

que nos sirva de puente con la realidad, que dé a sus términos indefinidos y abstractos

interpretaciones complementarias que conviertan a los axiomas en aserciones significativas. El

término probabilidad no es unívoco en su interpretación; puede presentarse con diferentes

significados en los distintos contextos de la realidad donde es utilizado. En la actualidad

podemos distinguir diferentes y complejos puntos de vista sobre el significado de la probabilidad,

provocados en gran medida por el alto rango de aplicaciones del Cálculo de Probabilidades y la

amplia variedad de fenómenos aleatorios que encontramos en la realidad. Entre ellos podemos

diferenciar dos grupos de interpretaciones de la probabilidad, en función de la dicotomía

subjetivo/objetivo.

El punto de vista subjetivo relaciona la probabilidad con el grado de creencia en las

posibilidades de un acontecimiento, esta creencia puede estar o debe estar garantizada por la

evidencia; es una concepción de carácter epistemológico. En el segundo grupo de

interpretaciones se relaciona la probabilidad con la frecuencia de ocurrencia de los sucesos y con

la tendencia a producir frecuencias estables que muestran ciertos sucesos, otorgándole un carácter

empírico. La probabilidad concebida tanto subjetiva como objetivamente no es más que una

interpretación, fundamentalmente con fines prácticos, de la noción abstracta utilizada en la teoría

matemática (Fine, 1973). Estas interpretaciones alternativas aparecen formuladas y desarrolladas

en el siglo XX pero, en realidad, son producto de la propia génesis del término y han ido

apareciendo implícita o explícitamente a lo largo de la historia.

En realidad la probabilidad que, habitualmente, se le atribuye a un acontecimiento

depende de la interpretación del sujeto de la información que posee y no puede ser considerada

como un dato objetivo sobre el fenómeno. Se podría considerar como una “estimación” de la

posibilidad de ocurrencia de un determinado suceso. Diferenciar la información objetivo,

achacable al propio fenómeno, y la interpretación subjetivo que el sujeto hace sobre su ocurrencia

es en, muchos casos, un auténtico obstáculo epistemológico. Desde una aproximación

frecuencial, por ejemplo, se trata de introducir al sujeto en el análisis de la frecuencia observada

en una serie de experiencias aleatorias, de su relativa estabilidad y del número de experiencias

necesarias. Ello permite establecer el “valor” objetivo de la probabilidad mediante un

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 26

razonamiento que considere adecuada y sufuciente la observación realizada. Desde un punto de

vista personal, la “estimación” de la probabilidad será más adecuada cuan mayor sea el número

de experiencias realizadas. La dificultad de resolución de un problema probabilístico reside en la

construcción del modelo idóneo a cada contexto, a partir de los datos de la observación. El

concepto será comprendido cuando sea interpretado apropiadamente y aplicado, bajo la

modelización pertinente, a la situación específica (Steinbring, 1984).

La presencia de diferentes interpretaciones en el mismo núcleo del concepto imponen la

necesidad de su consideración en el aula, permitiendo la presencia de diferentes posibilidades y

no limitando el estudio de la probabilidad y de la aleatoriedad a una única aproximación

epistemológica. De todo el análisis realizado sobre los distintos aspectos del conocimiento

probabilísticos que los estudiantes-profesores han de poner en juego en sus aulas, se pueden

extraer ciertas conclusiones con fuertes implicaciones de orden didáctico (Cuadro 4) e

información sobre los obstáculos epistemológicos inherentes a su construcción (Cuadro 5).

Ambas informaciones son determinantes a la hora de analizar las características propias de los

procesos de enseñanza/aprendizaje del conocimiento probabilístico en las aulas de Primaria.

La enseñanza/aprendizaje de la probabilidad

De lo expuesto podemos concluir que, si el conocimiento matemático, en general, no es

algo obvio por su simple definición, en el caso de la probabilidad esta características se acentúa.

Hay una fuerte contradicción entre el rigor referido a una definición matemática y el carácter

aleatorio de la probabilidad y una clara imposibilidad de reducir la comprensión del concepto a

su simple definición matemática (Steinbring, 1984). La naturaleza de los conceptos

probabilísticos provocan un claro conflicto con las formas tradicionales de trabajar las

matemáticas en las aulas: partir de definiciones claras y universales de unos conceptos básicos

como soporte de todo el desarrollo posterior de la teoría formal; y la tendencia a organizar las

actividades de enseñanza en función de la propia estructura del conocimiento matemático. Ambas

consideraciones son suficientes como para impedir o al menos dificultar la evolución del

conocimiento probabilístico.

Los conceptos básicos de la teoría de la probabilidad no pueden ser comprendidos

simplemente a través de definiciones matemáticas formalizadas en su sistema deductivo, sino que

es necesario partir del análisis de situaciones significativas que faciliten la argumentación, la

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 27

interpretación y la toma de decisión. La fórmula matemática no contiene en sí misma el carácter

específico de la probabilidad. Si se intentan enseñar las definiciones, métodos, instrumentos,

representaciones y diagramas como hechos y técnicas matemáticas, el carácter aleatorio y la

naturaleza específica de la probabilidad se pierde. Tópicos tan significativos para este campo

conceptual como la aleatoriedad o la probabilidad no pueden ser definidos de forma única y

precisa, su significación varía según los diferentes contextos y la interpretación de los sujetos que

actúan en dichos contextos. Esto indica que la probabilidad no representa solamente un nuevo

tópico curricular, es un tipo de matemática escolar diferente. Facilitar la elaboración y dominio

de un pensamiento probabilístico, es uno de los grandes retos de los profesores, más aún en los

primeros niveles en los que se inicia al niño en sus conceptos fundamentales.

Como hemos podido comprobar, hay básicamente dos aproximaciones a la probabilidad

que son como dos formas complementarias:

* Una a priori, desde la información subjetiva del sujeto

* Una a posteriori, desde la información a partir de los datos del análisis del fenómeno,

bien a través de un análisis lógico de sus posibilidades (concepción clásica), bien a través de un

análisis empírico de la ocurrencia de sus posibilidades (concepción frecuencial).

La enseñanza de la probabilidad debe facilitar la síntesis de las diferentes

aproximaciones conceptuales adecuadas a los distintos conceptos. Para ello es requisito

imprescindible la interacción entre las situaciones empíricas y el modelo matemático. Ni la

situación empírica por sí misma, el objeto, ni la representación matemática en sí misma, el signo

o el modelo, pueden expresar el significado completo de nociones tan elementales como

aleatoriedad o probabilidad. Su comprensión y significado depende de las situaciones, de las

representaciones y del trabajo desarrollado por el sujeto en un continuo feed-back entre el objeto

y el signo (Steinbring, 1991a; Azcárate, 1995). Más cuando nos referimos a su tratamiento en las

aulas de los primeros niveles educativos, donde el objetivo es una primera aproximación al

significado de dichos conceptos.

En el caso del conocimiento probabilístico hay una gran cantidad de información

experiencial que provoca que existan numerosas concepciones espontáneas sobro los aspectos

probabilísticos que reproducen en muchos casos nuestra irracionalidad ante la incertidumbre. Hay

numerosas investigaciones que han puesto de manifiesto las numerosas concepciones sesgadas

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 28

que tienen los sujetos de todas las edades sobre los aspectos probabilísticos de la realidad. Según

Kahneman, Slovic y Tversky (1982) muchas de estas ideas son producto de una escasa

preparación y reflexión sobre el tema, pero muchas otras provienen de una inadecuada

percepción de los datos de la realidad incierta y no se modifican con el simple conocimiento de la

teoría matemática de la probabilidad, sino que necesitan de una profunda reflexión sobre el tema.

Hecho que Fischbein (1990) extiende al caso de los profesores en formación, dado su precario

conocimiento del tema.

El aprendizaje de la probabilidad supone para el sujeto una revolución similar a la

acaecida en la historia del conocimiento. El alumno de primaria y los estudiantes-profesores han

de aceptar la presencia de la incertidumbre como algo inherente a la realidad y adoptar la

convención de representar dicha incertidumbre cuantitativamente (Falk y Konold, 1992). Desde

una perspectiva constructivista, se incide en la idea de que el sujeto sólo adquirirá una

verdadera comprensión del conocimiento probabilístico a través de la interacción, en

situaciones concretas, de sus nociones subjetivas, fruto de sus experiencias y conocimientos

previos, con los conceptos y modelos matemáticos. En la literatura de investigación no hay un

modelo completo sobre el desarrollo conceptual en probabilidad y estadística, pero lo que sí está

claro desde las investigaciones consultadas (Piaget e Inhelder, 1951; Fischbein, 1975) es que los

sujetos, incluso los más pequeños, disponen de ciertos recursos y concepciones sobre los aspectos

probabilísticos de la realidad. Los sujetos "siempre tienen elaborados sus propios heurísticos,

errores y creencias sobre la probabilidad y la estadística" (Shaughnessy, 1992: 472), como

producto de sus propias experiencias. Concepciones y estrategias que han de ser tenidas en cuenta

en el diseño y desarrollo de los procesos de enseñanza/aprendizaje, pues constituyen las ideas

iniciales de los sujetos, que, además, al ser producto de su interacción espontánea con el entorno

reflejan una gran diversidad. Concepciones que, por otro lado, las distintas investigaciones

analizadas y nuestra propia experiencia (Navarrate y otros, 1992) indican que no se modifican

desde un aprendizaje formal del conocimiento matemático de la teoría de probabilidades.

Un lugar relevante en la consolidación de dichas concepciones viene determinado por el

propio lenguaje cotidiano y la ambigüedad de su significado. El estudio del campo semántico del

concepto de probabilidad es un dato de gran trascendencia que nos permite analizar sus diferentes

significados y usos en los distintos contextos donde se presenta y es parte del estudio

fenomenológico necesario para su tratamiento en el aula (Azcárate y Cardeñoso, 1996). Un

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 29

ejemplo de dicha ambigüedad nos lo da el uso del término “probable”. Éste es utilizado en el

lenguaje cotidiano tanto referido a algo que creemos que va suceder casi con total seguridad,

como a algo que pueda que suceda, ambigüedad que se resuelve generalmente por el tono o el

énfasis que ponemos en el habla. Además, en general el término “probable” comparte el campo

semántico con “posible” aunque etimológicamente tienen un origen diferente. “La palabra

"posible" es un cultismo derivado de la palabra latina "Potere: poder"; por tanto con un

sentido más relacionado con "poder ser". Sin embargo, la palabra "probable" es un derivado

de "Probare: probar, ensayar", como algo factible de ser probado, "cosa que se prueba”"

(Azcárate y Cardeсoso, 1996: 170).

En pocas palabras, los nuevos conocimientos e intuiciones sobre las nociones que tratan

el mundo de la incertidumbre se deben apoyar en las ideas previas de los sujetos y, en cualquier

caso, no son accesibles por simple transmisión verbal directa, sólo a través de la experiencia y de

la actividad desarrollada por el sujeto, entendiendo actividad mental y no sólo manipulativa, es

posible la reelaboración de su conocimiento (Cardeñoso y Azcárate, 1996). Un esquema que

puede ser válido para analizar el proceso de aprendizaje del conocimiento probabilístico

era el representado por el teorema de Bayes (Cuadro 6), que plantea la modificación de una

idea o hipótesis previa (probabilidad a priori), en función de los nuevos datos empíricos

obtenidos, dando lugar a un reformulación posterior (probabilidad a posteriori). Lo cual facilita el

sentido procesual y abierto que la construcción del significado de la probabilidad requiere

(Azcárate, 1995).

Las tareas de enseñanza de la probabilidad, por tanto, no pueden ser reducidas a la

presentación y desarrollo de su estructura conceptual ni siquiera cuando nos referimos a los

conceptos más elementales. Es necesario considerar que por encima de dicha estructura los

sujetos tienen construidas sus propias intuiciones y modelos intuitivos, que determinan sus

estrategias de pensamiento, sus interpretaciones y sus valoraciones de las situaciones, ignorando

en la mayoría de los casos el conocimiento normativo. Pero, los problemas didácticos de su

enseñanza no vienen sólo de la comprensión de la teoría matemática en sí misma, sus

procedimientos y sus técnicas, sino fundamentalmente de la utilización, aplicación e

interpretación de los conceptos, métodos y representaciones.

En la propuesta curricular actual, a la hora de las orientaciones metodológicas, hay

algunas indicaciones referidas a estos temas. Así, indican que los niños del segundo ciclo suelen

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 30

tener un especial interés por situaciones donde ha de analizarse y preverse la probabilidad de un

suceso o la repetición de un elemento. Aclaran que siempre en un tono investigativo y lúdico, se

le pueden proponer actividades tendentes a discriminar lo seguro, lo posible, lo probable, etc.

Igualmente importantes consideran las actividades experimentales sobre modelos de

probabilidad, localizadas en el tercer ciclo. En ellas se ha de enfrentar al alumno con experiencias

concretas en situaciones de naturaleza probabilísticas, en las que tengan que prever el resultado y

comprobarlo experimentalmente, "descubriendo progresivamente que, puede saberse qué suceso

es más probable, y "cuanto" más probable es" (Junta de Andalucía, 1992).

En los primeros niveles, uno de los recursos más idóneo para introducir la noción de

azar/aleatoriedad y la probabilidad parecen ser las situaciones de juego. En el juego, el alumno

puede formular hipótesis (apuestas), explorar diferentes formas de analizar la situación, tomar

datos, interpretarlos y tomar decisiones. No hay que olvidar que el juego forma parte de las

vivencias de todos los alumnos, incluso en niveles superiores, y es fuente de gran parte de sus

concepciones. Hacer explicitas dichas concepciones y enfrentarlas reflexivamente con el

desarrollo real de las situaciones probabilísticas, es una pieza clave para provocar su evolución.

La idea de construcción en espiral de los conceptos probabilístico y de

complementariedad entre el modelo matemático y las situaciones empíricas, no sólo es útil

para explicar la evolución de dicho conocimiento, sino también para diseñar los procesos de

interacción en el aula (García 1988; Steinbring, 1991). Su consideración supone evitar caminos

unilaterales y lineales en el trabajo en el aula. El elemento provocador de tal proceso son los

problemas que se presenten en las distintas situaciones. Estas situaciones deben integrar una gran

variedad de aspectos, conceptuales y procedimentales, e implicar al sujeto en la toma de

decisiones directas y en las posibles interpretaciones, permitiéndoles investigar sus propias ideas,

las estrategias heurísticas empleadas y los sesgos producidos desde el contraste progresivo con

nuevos datos. Estas situaciones propuestas al alumno han de guardar un grado suficiente de

similitud con las situaciones reales, como ya indicaba Steiner (1983).

Además de las situaciones propias de los juegos de azar, en la vida cotidiana nos

enfrentamos con numerosos fenómenos aleatorios, que pueden ser integrados en la planificación

de las diferentes unidades didácticas, adaptados al nivel de los alumnos de Primaria. Nos

referimos a fenómenos de muy diversas áreas entre las que podíamos señalar:

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 31

La política, con las encuestas sobre las tendencias de voto y las valoraciones y

predicciones aproximadas de los resultados esperados, etc.

La economía, con los estudios de evolución de los precios de mercado, valoraciones de

la magnitud de determinadas decisiones, los estudios sobre el riesgo y su control, etc.

El mundo físico, como son los trabajos sobre las condiciones metereológicas, el

comportamiento de los gases, estimación de errores, etc.

La sanidad, con el estudio de la herencia, la evolución y control de una posible

epidemia, la evolución de las poblaciones, incidencia de enfermedades, etc.

La agricultura, con el estudio de la efectividad de determinadas semillas, injertos,

técnicas, fertilizantes que permiten tomar decisiones sobre las mejores condiciones con el menor

riesgo, etc.

Las ciencias sociales como tales, con los estudios sobre las condiciones de los seguros,

la esperanza de vida, etc.

En el desarrollo de dichas situaciones hay dos elementos claves: las actividades a

realizar y los medios de representación que se utilicen. Con respecto a las actividades

desarrolladas en dichas situaciones, la tarea matemática concreta tiene un papel prominente en la

planificación y en la futura práctica en el aula. Frecuentemente las actividades matemáticas son

presentadas en el aula aisladamente, sin conexión entre ellas, o en todo caso con un vago vínculo.

Sin embargo, desde la perspectiva de la complejidad del conocimiento probabilístico y sus

múltiples interrelaciones con otros conocimientos, es imprescindible plantear las actividades

desde otra visión más compleja que la que ofrece una simple secuencia lineal organizada,

normalmente, de forma jerárquica. Pensamos que la planificación de las actividades debe tener

"un formato abierto y flexible, con un itinerario de las actividades en espiral con posibles

ramificaciones y variantes adaptables a diferentes contextos" (García y Cubero, 1993: 17). En

el caso de la elaboración del conocimiento probabilístico esta idea está representada en lo que

Steinbring (1984) denomina el sistema de tareas, que permite introducir variaciones del más

diverso tipo en el proceso, respetando una estructura sistémica entre ellas.

Para realizar las actividades y tareas propuestas en las distintas situaciones

probabilísticas podemos utilizar variados materiales. Todos los materiales que pueden ser

utilizados en situaciones de juego o de simulación: dados, barajas, ruletas, bolas, peonzas, dianas,

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 32

monedas, tablas de recuento, ordenadores, informaciones periodísticas, datos estadísticos de

diferentes fenómenos, etc. Y para su estudio empírico podemos utilizar múltiples

representaciones como: diagramas de árbol, circuitos, figuras geométricas, diagramas de barras,

etc. En ellas podemos recoger los datos e informaciones procedentes de las diferentes actividades

realizadas. Las diferentes representaciones se suelen presentan en función del tipo de problema

que se esté trabajando, sin embargo, las mismas situaciones pueden ser representadas a través de

diferentes medios; comparando representaciones diferentes se llegan a nuevas intuiciones sobre

la relación existente entre una situación concreta y su modelización matemática. Ello permite

construir un amplio espectro de relaciones entre situaciones concretas y su modelo matemático a

través de las diversas actividades. En los primeros niveles educativos los medios de

representación son los recursos matemáticos por excelencia para enfrentarse con la

aleatoriedad, dadas las características del pensamiento concreto de los niños de esas edades

y la necesidad de moverse con informaciones perceptivas, como datos provocadores de la

reflexión.

En pocas palabras, podemos caracterizar la enseñanza/aprendizaje de la probabilidad en

la educación Primaria como un proceso que, poniendo en juego las ideas iniciales de los alumnos,

se desarrolle a través de un conjunto variado de actividades relacionadas entre sí, en las que se

utilicen diferentes formas de representación y que estén integradas en situaciones didácticas que

reflejen las múltiples interrelaciones que se dan en la realidad y den sentido al proceso (Cuadro

7). Estas situaciones se pueden concretar de múltiples formas: centros de interés, unidades

didácticas, proyecto de investigación, etc. que han de estar en relación con la realidad socio-

natural, donde los aspectos aleatorios son fácilmente localizables. El esquema metodológico

desarrollado en el tratamiento de dichas de dichas situaciones sería el representado en la figura 1,

adaptado en cada momento al problema propuesto.

Pero ahora, una vez definida brevemente, nuestra propia concepción de la

enseñanza/aprendizaje del conocimiento probabilístico, nos enfrentamos con un nuevo problema

¿Cómo trabajar estos contenidos en nuestras aulas para facilitar su elaboración comprensiva por

los estudiantes-profesores?

PROCESO METODOLÓGICO

El esquema metodológico seguido en el desarrollo de esta unidad es el que hemos

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 33

descrito en el proyecto (Cuadro 8). Por tanto, se desarrollaran actividades de diferentes tipos

orientadas al análisis de su propio conocimiento sobre el tema y al estudio de la problemática de

la enseñanza/aprendizaje del conocimiento probabilístico en las aulas de Primaria. Estas

actividades giraran, por un lado, en torno al estudio teórico sobre el tema mediante actividades de

diferente rango, que culminan con la elaboración de un informe final de conclusiones. Y, por

otro, al estudio de carácter práctico focalizado en la planificación de una unidad didáctica en la

que esté implicado el conocimiento probabilístico. Ambos tipos de actividades son simultáneos e

interaccionan entre ellos, aunque hay un tiempo específico de aula para cada uno de ellos. Su

tratamiento en el aula es de, aproximadamente, dos semanas.

Relación de actividades tipo propuestas

En cuanto al trabajo práctico, entendido este como actividad práctica de carcácter

profesional, las tareas que se realizan en el aula se focalizan en:

* Elaboración de un Diseño Didáctico

Con respecto al estudio teórico del tema, se proponen actividades de diferentes rangos,

según los momentos del proceso y el objetivo perseguido:

* Presentación de situaciones iniciales de análisis

* Debates en pequeño grupo y colectivos

* Lecturas seleccionadas

* Actividades teórico-prácticas a realizar por los grupos

Proceso de evaluación

A lo largo de todo el proceso son objeto de valoración, la implicación y participación de

los estudiantes-profesores en las diferentes actividades, la naturaleza y profundidad de sus

reflexiones, los conflictos surgidos, las formas de abordarlos, los logros obtenidos, etc. Para

obtener datos de todo ello, utilizamos las diferentes fuentes de información señaladas en el

proyecto: producciones escritas de los grupos, observaciones, pruebas escritas individuales,

diario de los alumnos.

Las producciones excritas son una de las fuentes de información más significativas pues

en ellas se recogen la evolución rela del grupo, estas son:

⋅ el informe final, que nos aporta datos sobre el trabajo desarrollado por cada grupo y el

nivel alcanzado en sus reflexiones teóricas.

⋅ el diseño realizado, valorado desde su evolución a lo largo del curso y desde el reflejo

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 34

de las conclusiones teóricas aportadas en el informe elaborado tras el estudio teórico.

Por otro lado, son objeto de evaluación, por parte de los alumnos, los documentos

aportados, su pertinencia y su validez, las actividades desarrolladas y el interés y nivel alcanzado

por el grupo clase como parte integrante y, en muchos casos, determinante del proceso.

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 35

2.1. INTRODUCCIÓN

En este capítulo nos adentraremos en el estudio de la naturaleza del conocimiento

probabilístico. Para ello nos centraremos en el análisis de las nociones de azar, aleatoriedad y

probabilidad, por considerar que la comprensión de dichas nociones es el núcleo de la

elaboración del pensamiento probabilístico.

La revisión histórica realizada la hemos analizado desde una doble perspectiva:

* Una, de carácter histórico-crítico, que nos permita analizar la evolución de dichas

nociones y su sentido cultural a lo largo de la historia, como saber socialmente

reconocido.

* Y otra, de carácter epistemológico, que nos permita conocer y analizar las concepciones

que, sobre el significado de dichas nociones, se han presentado en los distintos momentos

históricos.

Dicho análisis nos permitirá reconocer la existencia de estados de conocimiento,

cualitativamente diferentes, en función de la propia maduración sociocultural de la sociedad y de

la evolución de sus necesidades. La revisión de las distintas formulaciones que se han ido

sucediendo a lo largo de la historia, sin tener un correlato estricto con el proceso de evolución del

pensamiento individual, sí pueden ilustrar sobre el necesario camino a recorrer, los problemas

claves, las posibles soluciones o explicaciones dadas, las controversias específicas de cada época,

los obstáculos que se han ido detectando, etc.

Quizás, lo más difícil en el tratamiento del tema ha sido acotar la información y decidir el

enfoque con el que profundizar en el desarrollo de su estudio. A medida que penetramos en el

mundo del azar, más aspectos de la realidad y del conocimiento se relacionan con él, el árbol se

ramifica, aparecen nuevos matices, las relaciones se multiplican y las perspectivas de análisis se

hacen inconmensurables. ¿Cuál es la más idónea?, ¿hacia cuál dirigir el estudio?, ¿qué

información considerar y cuál desechar? La propia finalidad de este trabajo pudo determinar las

respuestas. En nuestro caso, como ya señalamos en páginas anteriores, intentábamos obtener

información significativa sobre la naturaleza de estas nociones, para facilitar su correcto

tratamiento didáctico en el aula. Esperamos haber seleccionado, conjugado y sintetizado la

información oportuna en la dirección adecuada y no haber dejado en el camino datos importantes

o significativos; aunque sin duda, se habrán quedado muchos interesantes y complementarios.

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 36

La información seleccionada la hemos organizado en tres grandes bloques (Figura 11), en

cuyo orden de exposición hemos querido reflejar el propio orden histórico. Aunque siendo

conscientes de que muchas veces quedan solapados entre sí, creemos que su diferenciación nos

permite tener una visión más compleja de la evolución de este campo del conocimiento. Estos

bloques son:

A) Síntesis histórica de la evolución de la noción de azar, donde analizamos sus distintos

significados asociados al campo semántico del azar, como modelo filosófico del mundo

de la incertidumbre, y su relación con la modelización matemática, a través de la noción

de aleatoriedad.

B) Análisis de la revisión histórica realizada sobre el desarrollo de la teoría matemática

de las Probabilidades desde sus inicios, hace pocos siglos, hasta su actual construcción

axiomática.

C) Estudio de la gestación y significado de las distintas interpretaciones filosóficas de la

probabilidad, que hoy manejamos. Dichos significados reflejan, en general, puntos de

vista contrapuestos.

Figura 11: presentación CII

En el Cuadro 4 se puede ver reflejada una imagen del proceso histórico comparado, en el

podemos observar el paralelismo entre los tres procesos históricos.

Esta reflexión, de carácter epistemológico, es fundamental a la hora de diseñar y

desarrollar procesos de formación, entre cuyos objetivos está la elaboración de un conocimiento

profesional significativo sobre esta temática específica. Por ello, cerrando el capítulo,

aportaremos aquellas consideraciones didácticas que hemos de tener en cuenta desde el

reconocimiento de la naturaleza del conocimiento probabilístico.

2.2. LA IDEA FILOSÓFICA DE AZAR Y SUS RELACIONES CON LA

NOCIÓN DE FENÓMENO ALEATORIO

Un objetivo del hombre siempre ha sido poder explicar, comprender y dominar los

sucesos y fenómenos que acontecían a su alrededor. Desde los inicios de la evolución del

pensamiento humano, encontramos datos significativos que nos muestran el interés de las

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 37

civilizaciones antiguas por la búsqueda de relaciones causales en los fenómenos de la naturaleza,

así como posibles interpretaciones de su existencia. Los humanos siempre hemos considerado

que todos los hechos pueden ser explicados a través de un conjunto de leyes, más o menos

elaborado. En general, el ser humano tiene una inclinación natural hacia la búsqueda del orden y

sus causas (Hoemann y Ross, 1982; Pozo, 1987).

Cuadro 4: cronología comparada

En esta búsqueda sistemática de explicaciones, para llegar a comprender todo aquello que

acontece ante sus ojos, el hombre se ha enfrentado siempre con un conjunto de fenómenos

"extraños" que no podían ser ni explicados nicontrolados, que se rebelaban a toda regularización

y cuya existencia provocaba siempre desconcierto. Históricamente podemos detectar una clara

tendencia en el pensamiento humano a "reducir la incertidumbre de los sucesos, remitiéndolos a formas de

determinación más controlables" (Pozo, 1987; p.83). El estudio del azar, como expresión de lo

indeterminado o bien es eludido o se afronta a través de la simplificación de los hechos. Actitud

que provoca, en muchos casos, la pérdida de información relevante, en aras de encontrar

explicaciones que nos permitan conocer y actuar sobre esos fenómenos "extraños".

Por lo demás, la incertidumbre, lo irregular y lo indeterminado está presente en gran parte

de los sucesos que rodean nuestra vida cotidiana. Si hay algo característico del período histórico

actual es el progresivo reconocimiento de la incertidumbre en todas las esferas de nuestras vidas,

"la duda, la perplejidad, la inseguridad y una incertidumbre general se han instaurado en toda mente profundamente

reflexiva" (Martínez, 1993; p.14). La búsqueda de explicaciones a su existencia y de su

comprensión está presente a lo largo de toda la historia del pensamiento humano, siempre en

controversia con el estudio de lo regular, lo ordenado y lo determinado. Dichas explicaciones han

configurado la idea de azar como modelo de carácter filosófico que intenta explicar la existencia

de la incertidumbre.

Al principio, para justificar su existencia, se les achacaba un sentido oculto, misterioso o

sagrado, pero sin intentar realizar juicios ni valoraciones sobre su posible predicción. Sólo a

partir del momento en que se consideraron los hechos en sí mismos, sin relacionarlos con dioses

o astros, comenzó en verdad su posibilidad de estudio. Es decir, el propio significado de la

noción de azar ha sido un obstáculo de tipo epistemológico para el inicio del estudio de las

posibles leyes del azar que regulan este tipo de fenómenos, obstáculo epistemológico en el

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 38

sentido del término planteado por Brousseau (1983), ya introducido por Bachelard (1948); es

decir, son obstáculos ligados a la propia evolución del conocimiento y que pueden reflejarse en

obstáculos de tipo cognitivo en el desarrollo de los sujetos.

Las sucesivas explicaciones dadas a la existencia de estos fenómenos son reflejo de la

propia evolución de la idea de azar. Dicha evolución va paralela a la transformación gradual del

modo de pensamiento simbólico/mitológico/mágico, característico de las civilizaciones más

antiguas, hacia un modo de pensamiento de carácter empírico/técnico/racional (Morin, 1988).

Hoy, la comprensión del azar como el reflejo de la complejidad presente en todos los aspectos de

la realidad permite un salto epistemológico relevante, al configurar una nueva visión de la

realidad. Es un concepto cuya adquisición permite una reorganización del conocimiento al

integrar la relatividad de los fenómenos que nos rodean, la complejidad que estos conllevan y la

incertidumbre en su resolución.

Para aceptar el estudio de estos fenómenos, los que en el lenguaje común achacamos al

azar o a la suerte, como una rama importante del conocimiento científico, ha sido necesario un

largo proceso en el que la idea de azar ha pasado por numerosas interpretaciones relacionadas con

el propio devenir del pensamiento humano, sin llegar a tener, aún hoy, una definición única, clara

y concisa. El mundo científico, dominado por el pensamiento más empírico y racional, ha

mantenido al mundo de lo indeterminado fuera de su ámbito de estudio, hasta hace pocos siglos.

Como matemáticos, en realidad podemos prescindir de la idea de azar y considerar sólo la

modelización matemática de este tipo de fenómenos. Desde nuestra perspectiva, aquellos

fenómenos sobre los que conocemos algunas circunstancias pero sin ser enteramente caóticos, los

reconocemos como aleatorios, su resultado concreto es impredecible (Kyburg, 1974). Sobre la

noción de aleatoriedad y su propia problemática, trataremos en el apartado 2.2.2., pero, en primer

lugar, nos centraremos en el estudio de la evolución de la noción de azar (apartado 2.2.1.), por

considerarla de especial significatividad para interpretar la evolución del estudio de estos

fenómenos. Estudio que, por otra parte, nos aportará una información sustancial a la hora de

caracterizar las concepciones personales de los sujetos sobre la idiosincrasia del mundo de la

incertidumbre, objetivo de la investigación empírica que presentamos en el Capitulo V.

2.2.1. LOS DISCURSOS DEL AZAR

En una rápida visión por la historia podemos diferenciar, a grandes rasgos, ciertas etapas

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 39

significativas en las que enmarcar las sucesivas explicaciones dadas a la existencia de los

fenómenos indeterminados, lo que Vázquez (1982) ha dado en llamar los distintos "Discursos del

Azar". Revisión histórica que hemos realizado desde el esquema siguiente:

* Discurso del ORDEN (Civilizaciones antiguas: egipcia, babilónica, griega, etc.).

* Discurso de AZAR/NECESIDAD (Civilización grecorromana).

* Discurso de la PROVIDENCIA (Edad Media y Renacimiento).

* Discurso de la RACIONALIDAD/IGNORANCIA (Finales del XVI a principios del

XX).

En el desarrollo del conocimiento científico actual, o más bien del conocimiento humano

en general, podemos reconocer un nuevo discurso del azar presente ya en algunos estudios de

principio de siglo pero no tratado explícitamente hasta la segunda mitad del siglo XX, es lo que

hemos denominado como el:

* Discurso de la COMPLEJIDAD (Segunda mitad del XX)

Analizaremos brevemente cada una de estas posibles explicaciones.

El Discurso del ORDEN

Los diversos pueblos primitivos fueron dando diferentes explicaciones a aquellos

fenómenos o hechos cuyo origen era desconocido para ellos. En general, eran atribuidos a la

acción de alguna fuerza oculta o mágica que rompía el orden establecido.

Todos los mitos arcaicos de la humanidad están relacionados con la idea del Caos como

origen del Universo (Morin, 1986). Posteriormente, el Caos inicial fue superado y dominado por

las fuerzas del orden, imponiendo sus procesos de orden y organización entre los distintos

elementos. Desde entonces, el caos y el orden coexisten en la naturaleza, "los pueblos antiguos creían

que las fuerzas del caos y el orden formaban parte de una tensión inestable, una armonía precaria" (Briggs y Peat,

1990; p.19). Su coexistencia estaba controlada por los Dioses, quienes dirigían y determinaban el

destino de todos los seres.

En las distintas mitologías encontramos signos de este poder del orden sobre el caos, con

diferentes matices (Guirand, 1970). Así, por ejemplo:

* Para la civilización egipcia, Maât, mitológicamente relacionado con el Dios RA,

significaba el orden primigenio que venció al universo caótico inicial. Este orden o

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 40

armonía a veces se rompía por la irrupción de las fuerzas del mal o el desorden

representadas por Seth.

* En la mitología babilónica el poder del caos originario se llamaba Tiâmat y

representaba las fuerzas ciegas de la naturaleza. De forma similar, encontramos el triunfo

de Marduck, que significa el orden, sobre Tiâmat, que desde entonces rige el destino de

todos los seres (Guirand, 1970).

* En los primeros textos de la civilización griega, también es recogida esta idea en

la representación de la gran batalla que libró Zeus con Tifeo o Tifón, Dios de las fuerzas

del mal, y que culminó con la victoria definitiva del primero. Zeus es el más grande de los

dioses del Panteón helénico, que mantiene el orden y la justicia en el mundo.

Puede establecerse un paralelismo entre Seth - Tiâmat - Tifeo como representantes de las

fuerzas rebeldes e incontroladas de la naturaleza que a veces rompen el orden y la armonía del

universo establecido por Maât - Marduck - Zeus.

Posteriormente, en el mundo griego se van introduciendo nuevos elementos provocadores

de sucesos inesperados o incontrolados como son las Moiras, que representaban el destino o la

suerte que a cualquier ser le ha tocado vivir. La Moira es inflexible, encarna una ley que ni los

mismos dioses pueden transgredir sin poner en peligro el orden del universo.

En los distintos textos las Moiras toman nombres y matices diferentes. Así aparece

Láquesis, que designa la necesidad que tiene el hombre de elegir su propia suerte o destino, es la

suerte entendida como oportunidad frente a Tyché, la suerte ciega, inaprehensible, a la que se

asocian los sucesos inesperados e incontrolados, favorables o desfavorables y va estrechamente

unida al destino, idea cercana a las fuerzas ocultas e incontroladas. Como nos dice Rose (1970),

los designios de Tyché caen inexorablemente sobre los hombres, representando el poder, mitad

providencia mitad casualidad, al que está sometido el mundo. De ahí expresiones como "caer en

suerte", que aún hoy utilizamos cuando queremos expresar el dominio incontrolado del azar.

Sus designios también dan origen a hechos inesperados o fortuitos pero que tienen una

razón de ser, no son sino sucesos del propio destino que cada ser tiene marcado, "por ello, para la

mitología griega el AZAR/TYCHÉ y el DESTINO/MOIRA son uno y aparecen conjugados en la trayectoria vital de los

mortales" (Vázquez, 1982; p.14).

Podemos observar cómo en las primeras civilizaciones, lo indeterminado e incontrolado,

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 41

es decir, aquello que es atribuido habitualmente al azar, se asocia al viejo desorden inicial que a

veces surge a través de las fuerzas incontroladas. Para el mundo primitivo no hay hechos

fortuitos, hay causas desconocidas que, ante la ausencia de justificaciones para su

existencia, se relacionan con lo mágico o lo divino. El azar, como causa desconocida que

produce sucesos inesperados o "extraños", es atribuido a fuerzas ocultas de origen mágico o

divino, y en algunos casos, vinculadas estrechamente con el propio destino.

El Discurso del AZAR/NECESIDAD

La civilización griega, a diferencia de otros pueblos como los babilónicos, egipcios,

indios, etc., no sólo da gran importancia a las ideas y a "las verdades" sino que busca el por qué

de esas verdades, intentando sistematizar los resultados y construyendo sistemas de

explicaciones; de hecho, según Crombie (1985), ellos inventaron realmente la Ciencia.

La evolución gradual de la filosofía griega se reflejó en la búsqueda de explicaciones de

los fenómenos de la naturaleza a través de elementos de la propia naturaleza, evitando recurrir a

fuerzas sobrenaturales o divinas. Paralelamente, se les va dando a los dioses significados

semiracionales, concibiéndolos más como fuerzas de la realidad natural que de naturaleza divina.

Uno de los síntomas más significativos de esta evolución es el estudio de los términos del

léxico donde se pone de manifiesto. Por ejemplo, la dualidad Ananké/Tyché - Necesidad/Azar, en

donde el sentido de Tyché está de nuevo matizado. La necesidad o Ananké es lo que viene dado,

lo establecido, lo que no se puede evitar, donde los hechos acaecen por causas necesarias;

representa la personificación de la obligación absoluta (Grimal, 1989). Lo que se escapa de este

orden o aparente necesidad es el azar o Tyché. La problemática planteada por esta dualidad de la

naturaleza existe ya desde los presocráticos, aunque su sentido no es clarificado (Kirk y Raven,

1969). Un claro ejemplo lo tenemos en las interpretaciones y explicaciones de la Física

Atomística griega, defendidas por figuras tan significativas como Demócrito o Epicuro.

El problema del azar, su existencia o no, su significación, carácter y relevancia, está

presente en gran parte de las reflexiones de la filosofía griega. Discusiones sobre él y sobre la

relación azar/necesidad encontramos en las obras de figuras tan representativas como Platón o

Aristóteles, el mayor sistematizador del saber antiguo. Sus ideas, contrapuestas a las de

Demócrito, serán las que dominen el trabajo del mundo científico durante siglos. En los

numerosos estudios y tratados sobre la historia de la Ciencia, la Filosofía o sobre la Filosofía de

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 42

la Ciencia encontramos recogidas las ideas de Aristóteles (Ross, 1957; Taton, 1972; Crombie,

1985; Mason, 1985; etc.).

Aristóteles recoge y estudia las ideas de los filósofos precedentes y a su vez fundamenta

sus propias tesis. Reconoce la suerte y el azar como causas accidentales, provocadoras de los

eventos fortuitos o inesperados, pero establece ciertas diferencias entre ambas (Ross, 1957;

Hamelin, 1978). Considera a Tyché, la Suerte, como una causa accidental que actúa en los

procesos causales en los que interviene el hombre, el cual, como ser responsable, tiene capacidad

de elegir y, por tanto, la elección puede conllevar "buena" o "mala" suerte. Mientras que el Azar,

Automatón, es un concepto más amplio que incluye la Suerte y hace referencia a procesos en los

que intervienen también seres inanimados o animales y sobre los que no hay control posible.

Aristóteles explica el Azar como el encuentro imprevisto de procesos causales

independientes, es una mera apariencia que atañe a las cosas de la naturaleza y a las humanas,

nunca a las celestes, a las que considera de otra categoría y pertenecientes a lo que llama el

mundo supralunar, donde no existe indeterminación alguna. Su concepción del problema del azar

se manifiesta, por tanto, dentro de un no determinismo aplicable sólo al mundo terreno, nunca al

celeste al que considera perfecto y ordenado, como indica Ross (1957). Aunque, según Crombie

(1985), hay otros muchos autores que piensan que en las tesis de Aristóteles no hay

indeterminismo alguno, el azar lo considera simplemente como una apariencia, producto de un

encuentro imprevisto de lo determinado.

Estas ideas tienen también su reflejo en el mundo romano donde se habla de la diosa

Fortuna como la Suerte y de Casus como el Azar, al que designa, al igual que el azar aristotélico,

como la confluencia de series causales. Sin embargo, con respecto a la diosa Fortuna hay un

matiz diferente en el mundo latino: la asociación progresiva de un sentido positivo a la suerte,

perdiendo su acepción neutra original.

Gran parte de estos términos y significados han llegado hasta nuestros días, como el del

vocablo "Fortuna", cuyo significado hoy sigue unido a la buena suerte, como algo que no se

puede controlar y, en muchos casos, unida intrínsecamente al destino de las personas.

En resumen, el mundo grecorromano admite en general que la determinación total no es

una característica propia del mundo terreno, en él existe algo indeterminado que no

permite una aserción absoluta y segura sobre el futuro. Las reflexiones desarrolladas en esta

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 43

época sobre el tema, son de carácter teórico y metafísico, sin cuestionarse el posible control y

estudio de esos sucesos inesperados o fortuitos producidos por "causas accidentales". Sus

trabajos se centraron en el estudio del Universo Celeste, al que sí consideraban totalmente

determinado y ordenado. El azar, reconocido como algo desconocido, es explicado como un

simple reflejo del cruce inesperado de un conjunto de hechos que son producto de causas

necesarias, establecidas por series causales independientes. Un significado similar al que hoy

otorgamos al término casualidad, al que en muchos casos diferenciamos de suerte.

El Discurso de la PROVIDENCIA

Las formas históricas de magia y mitología se transformaron progresivamente en las

grandes religiones que hoy conocemos; aunque, según Morin (1988), "la magia arcaica ha devenido

residual y periférica en las civilizaciones en las que se han impuesto las grandes religiones" (p.180). Esta

transformación provocó (en el Medievo) una modificación sustancial de las ideas y concepciones

sobre el azar, sin embargo, no podríamos decir que dicha modificación realmente representara

una evolución. La existencia de la incertidumbre del mundo grecorromano se transformó en el

poder de la Providencia, que garantiza el orden y la armonía del Universo. Durante la Edad

Media, con el apogeo del Cristianismo, las ideas de la Iglesia adquieren un peso significativo en

la sociedad. Su persistencia en el papel de la Providencia Divina como causa única y última de

todas las cosas condena a lo indeterminado y por tanto al azar a la inexistencia,

relacionándolo con un sentido cabalistico y mágico del mundo, y prohibiendo en múltiples

ocasiones cualquier alusión a él. En general, durante esta etapa de la historia, fundamentalmente

en los primeros siglos de la Edad Media, se dejan de lado y se ignoran todas las reflexiones y

conocimientos del mundo antiguo, algo no exclusivo del conocimiento sobre el azar, ya que se

puede generalizar a casi todos los campos del saber.

Según Sánchez Albornoz (1976), en el Medievo se pueden diferenciar dos

interpretaciones de la noción de azar. La oficial y, por tanto, la de todos los creyentes, y la vulgar

o del incrédulo. Para los primeros, el azar no existe, el hecho que observamos como inexplicable

es una proyección de la suprema voluntad de Dios, cuyo sentido no lo puede captar la deficiente

razón humana; sin embargo, para el no creyente, el azar es una fuerza de la naturaleza ciega,

inexplicable y mágica, reflejando las concepciones primitivas sobre lo incontrolable.

Manteniendo este significado divino, se admite la existencia del azar en el sentido

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 44

aristotélico de confluencia de series causales independientes, pero provista de finalidad. Las

manifestaciones de Dios, como aquél que gobierna y ordena todos las cosas, son a veces

inescrutables para el hombre, lo que le lleva a considerarlas como acontecimientos inesperados,

fortuitos, sin causa aparente.

Según Gilson (1978), Stº Tomás plantea que la Divina Providencia no elimina la suerte o

la casualidad; lo que realmente no tiene cabida en el universo cristiano es el azar entendido como

reflejo de lo desordenado, lo incontrolado o lo no causal. El mundo medieval resuelve la dualidad

Necesidad/Azar considerando que la Providencia, que todo lo gobierna, determina que coexistan

lo necesario como necesario y lo aparentemente contingente como contingente, pero todo con un

fin prefijado por la voluntad divina. Una idea típica en el Medievo es el "Milagro", explicación

alternativa a la existencia de sucesos "extraños" e "inexplicables", considerándolos como una

manifestación inexplicable de la Providencia Divina. En el intento de realizar juicios sobre ellos

surge una primera noción de "probable", con un significado muy distante del actual, las

manifestaciones "probables" o probadas son aquellas apoyadas en las opiniones y razones de las

autoridades doctas, generalmente relacionadas con la Iglesia (Hacking, 1975), como analizaremos

posteriormente.

El poder de la Providencia preside todo el discurso medieval y mantiene como

inexplicable para el ser humano los designios de Dios. Progresivamente el individuo va

adquiriendo relevancia como sujeto central del cosmos y, en aras a su progreso, se admite la

búsqueda de explicaciones. Se comienza entonces a estudiar la Naturaleza, manteniendo la idea

de Dios como algo "ajeno" y "omnipresente", no cuestionable, pero que no impide la búsqueda

sistemática de explicaciones sobre la realidad que nos rodea, poniendo los pilares de la

Revolución Científica, la cual forjará un nuevo discurso sobre el significado del azar.

Así, los acontecimientos extraños e inesperados, resultado de la convergencia

accidental de procesos causales para los aristotélicos o del poder de fuerzas ocultas y mágicas

para los paganos, para el hombre docto medieval son simplemente producto de la voluntad

divina, que se justifica como causa última ajena al hombre. Cabría apuntar que en la cultura

actual esta concepción está identificada con los grupos fatalistas y fundamentalistas.

El Discurso de la RACIONALIDAD/IGNORANCIA

El pensamiento de los siglos XVI y XVII se caracterizó por la progresiva separación del

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 45

poder y la voluntad de Dios a través del cultivo del hombre y la naturaleza, superando la visión

cristiana del mundo y de los fenómenos que en él acontecen; ello representó la búsqueda de una

nueva imagen del mundo donde la realidad, regida por sus propias leyes, se concebirá como

imagen del "Cogito" o Pensamiento; leyes a las que se le asociaba un carácter universal. Se

impone la recuperación del mundo sensible desde el sujeto, cuya esencia fundamental es el

pensar. Es ejemplificadora del espíritu de esta época la famosa frase de Descartes "Cogito ergo

sum". Para Descartes, se desecha como improbado todo aquello que no puede ser considerado

como evidente para un espíritu atento, admitiendo como "probable" no sólo los argumentos de las

autoridades, sino también lo probado por la evidencia explícita de las cosas (Taton, 1972; Morin

1988).

Durante estos siglos se da un papel relevante al desarrollo del saber científico, lo cual

provocó un profundo estudio de los fenómenos físicos y de sus causas, dirigido hacia la búsqueda

de las leyes universales que los regulan. La síntesis de todo ese trabajo, su expresión máxima, son

las Leyes de la Mecánica de Newton, publicadas en 1686 en su libro Philosophiae naturalis

principia mathematica, primer código de la ciencia moderna de la Mecánica, como lo llama

Taton (1972). Su elaboración reflejaba el poder del "Logos", pensamiento empírico/racional,

sobre el "Mitos", pensamiento simbólico/mitológico. En la última etapa de la historia occidental,

esta ruptura entre la razón y el mito ha llevado a la separación definitiva entre ciencia y religión

(Morin, 1988).

Esta situación provocó una era de crisis y convulsiones. El mundo científico estaba

centrado en ese intento de explicación y control de los fenómenos de la naturaleza. En dicho

contexto, toda noción que estuviese relacionada con el desorden, la incertidumbre o lo

indeterminado era relegada a segundo plano y desechada como parte del saber científico. Estas

ideas provocaron un "retroceso del poder del azar en función del progreso del conocimiento" (Wagensberg,

1981; p.16), entrando en una época de gran confusión en torno al problema del azar.

Aunque su estudio no fue considerado por gran parte de la comunidad científica, sí se

producen en estos siglos importantes debates que originan significativas controversias surgiendo

numerosas posturas complejas y contradictorias entre sí. Así, entre los autores de esta época,

encontraremos desde negaciones absolutas del azar, postura defendida por el Racionalismo de

Descartes, hasta manifestaciones que defienden su presencia en todo suceso de la realidad, tesis

planteada por Pascal. Este último autor, concibe al azar como un principio no controlado del

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 46

mundo natural y humano. Otros muchos autores de los siglos XVI, XVII y XVIII reivindicaron la

importancia e influencia del azar. Por ejemplo, Crombie (1985) nos habla de Maupertius quien,

en el siglo XVIII, estudió la influencia del azar en la evolución de los seres vivos, o las ideas

expuestas por Voltaire que, según Boursin (1968), llegó a escribir: "Su Majestad el Azar todo lo

decide".

A partir de la formulación matemática de las leyes fundamentales de la Mecánica Clásica,

se consolidó, definitivamente, la teoría determinista; se tenía la certeza de que se habían

descubierto las bases de las Leyes Universales de la Naturaleza. Desde los presupuestos de la

teoría determinista, se reconocían en la naturaleza dos tipos de fenómenos:

* Aquellos que se regían por leyes armónicas y, por tanto, eran previsibles en su

evolución y repetición.

* Y otra serie de fenómenos que, aparentemente, eran inexplicables e impredecibles,

sobre los que se tenía una clara ignorancia.

Estos últimos son los que, desde el pensamiento newtoniano, se atribuyen al azar. Desde

él, el mundo se regía por leyes estrictamente causales y no se podía ni pensar que existiesen leyes

del azar o de lo irregular y mucho menos que éstas pudieran ofrecer una alternativa válida para el

estudio de la realidad. Como plantea Hacking (1991), "a ninguno de ellos se le ocurría pensar por un

instante que las leyes del azar podrían suministrar una alternativa de las leyes estrictamente causales" (p.18). Se

consideraba que todo fenómeno tenía una causa, por mínima que ésta fuera y, que aunque un

fenómeno pareciera fortuito, ello sólo era producto del desconocimiento sobre las causas y leyes

que lo regían. El azar era simplemente el efecto de la ignorancia humana a la hora de traducir

científicamente, según leyes causales y deterministas, ciertos acontecimientos de la Naturaleza.

Según esta concepción, no existe el azar en sí mismo, es nuestra ignorancia lo que nos hace

recurrir a él, como instrumento explicativo.

En paralelo al retroceso sufrido en el estudio de la significación del azar como expresión

de lo indeterminado, se produce la progresiva emergencia de la noción de probabilidad. En

realidad, es un hecho fácilmente explicable ya que el espíritu de la época se caracterizaba por la

obsesión por el control de todos los fenómenos de al naturaleza. Ante los hechos fortuitos, cuyas

leyes eran ignoradas, el Cálculo de Probabilidades posibilitaba adentrarse en el estudio de

algunos de estos fenómenos, aunque fuera provisionalmente. Su objeto de estudio, por tanto, son

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 47

los denominados sucesos aleatorios, sobre los que si bien se dispone de alguna información a

través de la experiencia, no son previsibles sus resultados.

El Cálculo de Probabilidades surge en 1662 a partir del estudio de los juegos y de la

necesidad de prever los posibles resultados que en ellos se podían presentar. Si analizamos lo

dicho en las líneas anteriores, el interés por el desarrollo del Cálculo de Probabilidades tiene su

justificación desde el intento de controlar, en cierta manera, las posibilidades del juego, buscando

alguna ley o regla que regulase su funcionamiento, a través de su observación y sistematización.

Nace así como instrumento matemático neutralizador, a un determinado nivel, de la ignorancia

humana y se va conformando definitivamente en esta época.

Los trabajos de importantes autores de esta época provocaron avances significativos en el

campo del Cálculo de Probabilidades, entre ellos podemos nombrar a Huygens, De Moivre,

Bernoulli, etc., cuyos escritos analizaremos más detalladamente en el apartado siguiente,

dedicado al desarrollo histórico del Cálculo de Probabilidades.

En este momento de la historia, se hacía una clara distinción entre la noción de azar y la

noción de probabilidad. El azar designaba el carácter indeterminado y fortuito de la realidad

física, sin interés para el estudio científico; la probabilidad, sin embargo, era una categoría

epistémica derivada de la imposibilidad humana para conocer de manera absoluta el fundamento

de ciertos procesos reales, los aleatorios; aportaba información, aunque fuera parcial, sobre su

funcionamiento.

Una expresión significativa de esta distinción la encontramos en los escritos de B. Pascal,

gran científico del siglo XVII. Pascal, adepto de la racionalidad y cristiano ferviente, sabe que

Dios no puede ser probado racionalmente (Morin, 1992). Utiliza la duda y el cálculo racional

para justificar una apuesta, sobre cuál será la mejor decisión aceptar o negar la existencia de

Dios, postulado que considera no sometido al azar sino a la probabilidad, la de hacer una elección

con una mayor o menor probabilidad de equivocarse. Se trata de un problema de decisión y no de

naturaleza azarosa, como podemos analizar en los pensamientos de Pascal recogidos en sus

Obras (Pascal, 1983). El trabajo de Pascal es considerado por algunos autores - Hacking (1975) -

como el principio de la Teoría de la Decisión.

La consagración del azar como ignorancia se alcanza curiosamente en el discurso

laplaciano, al principio del siglo XIX. Laplace, en su famoso Ensayo filosófico sobre las

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 48

probabilidades (Laplace [reeditado], 1985), expone el ideal determinista cuando imagina una

inteligencia infinita que, "en un momento determinado conociera todas las fuerzas que animan a la naturaleza, así

como la situación respectiva de los seres que la componen, además fuera lo suficientemente amplia como para someter a

análisis tales datos, podría abarcar en una sola fórmula los movimientos de los cuerpos más grandes del universo y los

del átomo más ligero; nada le resultaría incierto y tanto el futuro como el pasado estarían presentes ante sus ojos"

(p.25). Es decir, como analizan Briggs y Peat (1990), según su filosofía llegaría un día en que los

científicos encontrarían una expresión matemática que permitiría la explicación y control de todo

fenómeno de la Naturaleza, ese día quedaría eliminada la incertidumbre. Mientras esto no ocurra,

no queda otra opción que acudir a las probabilidades, como "mal menor".

A finales del siglo XIX el estudio del azar empieza a ocupar un lugar relevante en las

investigaciones, a través de la aplicación del Cálculo de Probabilidades en los fenómenos socio-

naturales. Junto a esta progresiva extensión del Cálculo de Probabilidades, considerado por

Laplace como una posible salida a nuestra ignorancia, concebida ésta como una imperfección, la

noción de azar como ignorancia persistió durante largo tiempo en el mundo científico, aunque el

significado de esa ignorancia fue adquiriendo diferentes matices y valoraciones. Estas tesis

deterministas van a cuajar fuertemente en los ámbitos escolares.

Sin embargo, ante la inmensa variedad de acontecimientos socio-naturales que no podían

ser explicados desde leyes deterministas, era necesario una reelaboración del concepto de

fenómeno fortuito. A finales del siglo XIX, ya en los umbrales del siglo XX, se comienza a

vislumbrar la existencia de sucesos socio-naturales que, por su carácter complejo o por la

multitud de variables que intervienen en ellos, son imposibles de controlar intrínsecamente. Esta

imposibilidad es evidentemente producto de nuestra ignorancia o incapacidad, pero ya no

considerada como una imperfección, sino como el reflejo de la existencia en la Naturaleza de

eventos que no obedecen a leyes causales y regulares. Como afirma Poincaré "es necesario entonces,

que el azar sea otra cosa más que el nombre que damos a nuestra ignorancia" (Poincaré [recopilación], 1963;

p.54).

En busca de una noción de azar que representara algo más que el nombre dado a la

ignorancia humana, Poincaré (1979), a caballo entre el siglo XIX y el siglo XX, describió tres

tipos de sucesos cuyo comportamiento era atribuido normalmente al azar:

* En un primer análisis de estos fenómenos, observó cómo algunos de ellos

pueden estar producidos por causas insignificantes que se nos escapan perceptivamente,

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 49

pero que determinan un efecto considerable. Al observar el efecto, sin poder apreciar la

causa que lo origina, éste se atribuye al azar. Una pequeña diferencia en la situación

inicial del fenómeno puede producir grandes diferencias en los efectos que producen, y la

predicción resulta imposible. Un ejemplo claro de este tipo de eventos indeterminados

son los fenómenos atmosféricos, en los que una pequeña perturbación puede causar un

efecto desproporcionado; es famoso el ejemplo del posible efecto sobre la situación

atmosférica del vuelo de una mariposa, problema estudiado por el meteorólogo E. Lorenz

en la década de los 60, ya en el presente siglo.

* Desde otra aproximación a estos fenómenos surgen aspectos algo diferentes. Existen

fenómenos en los que lo sorprendente no es la pequeñez de las causas que lo provocan, sino la

complejidad de las interacciones entre ellas. Estamos ante fenómenos complejos cuyo desarrollo

no depende de una causa determinada sino de una complicada relación entre muchas causas.

Tenemos entonces un conjunto de causas, cada una produce su efecto correspondiente, su reunión

e interacción lleva a determinar grandes efectos que son los que observamos. Todos los elemen-

tos del sistema empiezan a interaccionar entre sí y al no poder predecir la cadena de conexiones

que originan, ni la situación final que provocan, la predicción resulta imposible. Tenemos de

nuevo un fenómeno indeterminado ante nosotros. Un ejemplo representativo es el movimiento de

las moléculas de un gas, desarrollado en la Teoría Cinética de los Gases por J. Maxwell a

principios de este siglo.

* Por último, considera aún otra forma más de afrontar la presencia del azar, quizás de

menor importancia que las dos anteriores. Cuando queremos prever un acontecimiento,

generalmente nos remontamos a analizar las situaciones previas a él, pero como no podemos

abarcar todo el universo que le rodea, nos limitamos a indagar en lo que parece tener alguna

relación con el entorno directo de dicho acontecimiento. Nuestras propias limitaciones nos

impiden abarcar todas las partes del universo a la vez y actuamos, por tanto, de forma aislada

considerando sólo los aspectos directamente implicados. Al no tener en cuenta que esas partes

que hemos ignorado siguen actuando sobre el proceso, produciendo un cierto efecto sobre los

acontecimientos, el efecto resultante, al presentar un desfase con lo esperado, nos parece

achacable al azar, aunque a veces no lo sea realmente. El caso más simple es el del accidente

fortuito, donde se pueden controlar ciertos elementos del sistema (nuestra prudencia), pero otros

quedan fuera de nuestras posibilidades de control (imprudencia de otros), y no contamos con su

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 50

posible influencia.

Estas visiones de los fenómenos fortuitos eran intentos explicativos de Poincaré sobre

cómo se concibe el azar, sin llegar a una definición precisa del mismo. Era una explicación del

tipo de fenómenos que se relacionan con el azar, bien por no tener causa directa conocida, bien

por ser su causalidad remota y compleja. En cualquier caso, eran necesarios modelos no causales

para poder representarlos de una forma más precisa (Díaz Godino, Batanero y Cañizares, 1988).

Todavía será necesario esperar algunos años para retomar estas ideas planteadas por

Poincaré y dar la entrada definitiva del nuevo discurso del azar en el mundo científico.

El Discurso de la COMPLEJIDAD

A lo largo de este siglo hemos entrado en una vertiginosa crisis en los fundamentos del

conocimiento: la incertidumbre, el desorden y la relatividad de su validez, se han introducido

hasta sus raíces más profundas; como analiza Morin (1988), "todos los avances del conocimiento nos

acercan a un algo desconocido que desafía nuestros conceptos, nuestra lógica, nuestra inteligencia" (p.24).

Las grandes convulsiones y avances del siglo XX en todos los campos del saber:

Economía, Ciencia, Arte, etc., han puesto al hombre ante un mundo complejo en continuas

transformaciones donde todo sufre constantes cambios y modificaciones, que no siempre pueden

ser controladas. Todo este cúmulo de conocimiento, como expone Wagensberg (1986), ha

llevado al hombre a buscar nuevas posiciones en las cuales acomodar sus creencias y

conocimientos, situadas entre las posturas extremas del determinismo y su negación; así, "la

ciencia de hoy no se sitúa ni en procesos puramente deterministas ni en procesos puramente aleatorios....el mundo real se

encuentra en algún punto intermedio" (Prigogine, 1986; p.192).

En los avances producidos en el presente siglo, ya a punto de finalizar, se ha roto el ideal

laplaciano: el conocimiento y control completo de la Naturaleza no existe. El desarrollo de

teorías como la Mecánica Estadística, la Mecánica Cuántica o la moderna Ciencia del Caos han

puesto en entredicho la culminación de tal ideal y han llevado al mundo científico a buscar

nuevas relaciones lógicas superadoras de la lógica clásica. Wagensberg (1986) en la sesión

inaugural de un seminario celebrado en Figueras entre pensadores de diferentes disciplinas sobre

"determinismo versus indeterminismo", dejó en el aire una pregunta: "¿Es el azar un producto de la

ignorancia o un derecho intrínseco de la Naturaleza?" (p.15).

Cuando intentamos analizar hoy el comportamiento de un fenómeno o predecir su

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 51

evolución, nos basamos en la información que sobre él poseemos. De los llamados vulgarmente

fenómenos fortuitos carecemos en general de información esencial y exacta que nos permita su

estudio absoluto. De forma general, y en función de la naturaleza de la información o de la

ausencia de ella, podemos distinguir, según Ekeland (1992), dos tipos de sucesos imprevisibles:

* Aquellos en los que la carencia de información sobre los mismos emana de la propia

naturaleza del fenómeno. Sus causas, por razones semejantes a las señaladas por

Poincaré, nos son totalmente desconocidas y su funcionamiento incontrolable. Estamos

ante el azar esencial, natural u ontológico. Sobre estos fenómenos, el Cálculo de

Probabilidades nos podrá informar parcialmente, en algunos casos y, en otros, será

necesario elaborar nuevos y más sofisticados instrumentos, conceptuales y de cálculo.

* Aquellos cuyo funcionamiento depende de leyes empíricas, fruto de la observación del

hombre, y sobre los cuales tenemos aún una información parcial de sus posibles causas.

La carencia de información se debe en muchos casos a nuestra insuficiencia o ignorancia.

Se trata de un azar relativo, humano o epistemológico. Sobre ellos el Cálculo de

Probabilidades nos puede informar provisionalmente y nos ayudará a su posible

predicción a falta de una mejor información.

A partir de su reconocimiento y estudio se va conformando un nuevo discurso, el azar

como elemento provocador de la complejidad existente en la realidad, donde su significación

puede estar ligada a un carácter más ontológico. En él comienzan a definirse los límites de la

comprensión humana de la Naturaleza.

Por un lado, la regulación y modelización científico-matemático del azar a través del

Cálculo de Probabilidades le ha desprovisto definitivamente de su significado mágico. El

acontecimiento aleatorio es aquel cuyas variables no pueden ser determinadas en su totalidad y

por lo tanto, su control se realiza a través de modelos probabilísticos y estadísticos.

Posiblemente, desde un punto de vista epistemológico, uno de los mayores éxitos alcanzados por

el pensamiento humano es la modelización matemática de los fenómenos aleatorios. Su

formalización se realizó a través de la axiomática de Kolmogorov, dentro del marco asociado a la

lógica clásica (Trillas, 1980).

Pero aún quedan numerosos fenómenos de la Naturaleza que presentaban un

funcionamiento esencialmente irregular y sobre los que no es posible aplicar el Cálculo de

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 52

Probabilidades y para cuya modelización no es aplicable la estructura de la lógica clásica.

Ya en pleno siglo XX, en la década de los 70, un grupo de científicos de campos tan

diversos como la Física, la Fisiología, la Biología o la Matemática intentan dar sentido a la

complejidad de la vida real con una mayor comprensión de las irregularidades que presenta la

naturaleza (Gleick, 1988; Stewart, 1991). De sus estudios surgen los primeros trabajos

relacionados con lo se ha dado en llamar la Ciencia del Caos o más recientemente Ciencia de la

Complejidad. Esta ciencia, todavía en fase de hipótesis, estudia la realidad bajo una nueva luz: la

complejidad que provoca el azar.

Hoy se reconoce que, en la generalidad de los sistemas dinámicos, aparecen trayectorias o

comportamientos perfectamente regulares, junto con otros de gran complejidad que producen

efectos incontrolables, produciendo un movimiento en principio impredecible, desordenado y, en

cierta manera, caótico (Fernández-Rañada, 1990). Pero el mayor descubrimiento fue que no sólo

los sistemas complejos presentaban esa particularidad: "Algunos sistemas deterministas muy simples, con

sólo unos pocos elementos pueden generar comportamiento aleatorio. El azar es algo fundamental del sistema; la

información no lo esfuma. A la aleatoriedad así generada hoy le llamamos caos." (Crutchfield y col., 1990; p.68).

La ciencia de la complejidad emerge en el desarrollo de la teoría de los sistemas

dinámicos no lineales, aquellos que no tienen un comportamiento regular, factible de ser

estudiado mediante el instrumento matemático de las ecuaciones diferenciales lineales; es decir,

son sistemas que reflejan un comportamiento estocástico (Crutchfield y col, 1990). El

comportamiento de estos sistemas, cuya génesis parte de las explicaciones de Poincaré sobre el

origen del azar, produce unos efectos macroscópicos observables que son el objeto de estudio de

dicha ciencia: "En el mundo no lineal, que incluye la mayor parte de nuestro mundo real, la predicción exacta es

práctica y teóricamente imposible" (Briggs y Peat, 1990; p.24)

Desde sus presupuestos, la posición del azar en el dominio del conocimiento se ha

transformado profundamente. Ha pasado de ser un obstáculo, una carencia o ignorancia que el

Cálculo de Probabilidades pretendía ocultar, a convertirse en un instrumento para la investigación

de procesos caracterizados por su irreductible complejidad.

Así, el crecimiento de las poblaciones, las oscilaciones de los circuitos eléctricos, el flujo

de un fluido turbulento, el mercado bursátil, el medio atmosférico, el diseño de válvulas

cardíacas, el campo inmunológico, las reacciones químicas oscilantes, la descripción de la

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 53

superficie terrestre, las sinuosidades de una línea costera, los pensamientos humanos, etc., son

algunos de los fenómenos que se han analizado desde esta perspectiva, recogidos en los escritos

de Gleick (1988), Stewart (1991), Ekeland (1992), Hayles (1993), etc.

El estudio del caos o de la complejidad no es sólo una teoría, progresivamente se va

transformando en una nueva forma de hacer ciencia y puede tener una influencia determinante en

la sociedad, al ser su objeto de estudio los fenómenos cotidianos, por tratar, en suma, con el

mundo que vemos y tocamos. Su estudio ha provocado nuevos planteamientos, tanto en el mundo

de la ciencia tradicional como en el campo de las ciencias sociales, donde está aportando una

reorganización de los conocimientos. No tendría sentido que en el mundo complejo de las

realidades humanas se mantuviera la validez del principio determinista simplificador.

En este sentido, es significativo el trabajo de E. Morin sobre la naturaleza del

conocimiento, pues como expone Porlán (1989), este autor se sitúa "en un lugar difícil e incómodo, pero

no por ello menos apasionante y fructífero: en el multiespacio fronterizo existente entre las ciencias experimentales y las

sociales, entre éstas y la filosofía y entre todas ellas y la teoría política" (p. 42). En su estudio, Morin introduce

la dimensión azar en el origen de toda forma de desorden y complejidad presente en un sistema:

"El azar o "alea" constituye una dimensión presente en todas las formas de desorden" (Morin, 1987; p.424). Es la

conjunción entre el orden y el desorden la que rige la interacción entre los distintos elementos del

sistema, dando origen a la organización del propio sistema.

Siguiendo el análisis de Porlán (1989), Morin "no se conforma con describir la naturaleza actual de

la ciencia o de los criterios de racionalidad de la misma desde una posición estrictamente filosófica, tan frecuente entre

epistemólogos, sino que desde una concepción crítica y socio-política elabora alternativas favorecedoras de un nuevo

conocimiento: el conocimiento complejo" (p.44). El trabajo transdisciplinar de E. Morin es una reflexión

sobre el conocimiento desde diversas perspectivas: física, biológica, antropológica, socio-cultural

y organizativa, asentando las bases de una nueva epistemología, la "epistemología compleja", que

permitirá abrir y complejizar el punto de vista epistemológico, introduciendo nuevos elementos y

relaciones que permitan otra manera de observar, pensar y transformar la realidad.

Su discurso, por otra parte, tiene importantes implicaciones en el estudio de los sistemas

educativos. Toda situación escolar está integrada en un sistema dinámico con un funcionamiento

interactivo no lineal, es decir en un sistema complejo: "La complejidad aporta una nueva ignorancia. La

problemática del pensamiento complejo no es eliminar sino trabajar con la paradoja, la incertidumbre y el desorden"

(Morin, 1987; p.414), como superación de todo reduccionismo o simplificación.

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 54

Como analizábamos en el capítulo anterior, el reconocimiento de la realidad educativa

como un sistema complejo es uno de los principios fundamentales de los que partimos en nuestro

trabajo. Esta confluencia de ideas es una de las razones por las que consideramos que la

comprensión del concepto de azar, como origen de la complejidad y como algo intrínseco a los

sistemas, es un elemento clave en el desarrollo profesional. Su integración permite una

reorganización del conocimiento en su sentido más amplio.

En nuestro rápido recorrido para situarnos en el tema (Cuadro 5), hemos visto cómo

desde un primer significado del azar como algo cercano a lo mágico o a lo divino, la

humanidad y, en particular, el mundo científico, ha evolucionado hacia una clara

aceptación de la influencia del azar en numerosos fenómenos de la realidad. Durante siglos,

la consideración de estos fenómenos como algo de origen mágico o divino, y por tanto

inalcanzable, los mantuvo fuera del mundo científico, siendo un claro obstáculo para su

posible estudio. Sólo a partir del reconocimiento de la existencia de una posible predicción

de su funcionamiento, aunque de naturaleza diferente a la presente en los sucesos

determinados, hizo posible su tratamiento sistemático desde el mundo matemático. La

ciencia actual admite, cada día más, la existencia de la indeterminación o la irregularidad

de ciertos fenómenos como algo intrínseco a ellos, ya no sólo como efecto de una parcial

ignorancia humana sobre su funcionamiento, sino como efecto de su propia complejidad,

efecto de un azar esencial en la Naturaleza.

Cuadro 5.- azar

2.2.2. NOCIÓN DE FENÓMENO O EXPERIMENTO ALEATORIO

En el apartado anterior hemos ido identificando las distintas ideas que sobre el azar se han

presentado a lo largo de la historia de la filosofía y de la filosofía de la ciencia. Esta evolución

está ligada en su primer momento a la propia elaboración de la noción de aleatoriedad, hasta sus

formalizaciones sucesivas como modelo matemático.

Para la Matemática, un experimento o fenómeno aleatorio es aquél que se caracteriza

por la posibilidad de dar lugar, en idénticas condiciones, a diferentes efectos. Los posibles

resultados de un experimento aleatorio es lo que reconocemos como un suceso aleatorio. Es

decir, son fenómenos sobre los que, si bien disponemos de alguna información sobre ellos y

sobre su funcionamiento, dicha información no nos permite anticipar su resultado con seguridad.

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 55

Para analizar sintéticamente la elaboración de dicha noción, podemos apoyarnos en las

etapas propuestas por Polya (1962). Este autor plantea que todo concepto científico pasa por

diferentes etapas en su desarrollo histórico:

* Una fase inicial exploratoria, a menudo incompleta y errónea, en la que las

ideas emergen desde el contacto con la realidad. En el caso de la noción de aleatoriedad,

esta fase comienza con las ideas presentes en las primeras civilizaciones, hasta la Edad

Media, con una evolución paralela a la comprensión de la noción de azar. Entre la Edad

Media y los inicios del siglo XIX se detecta un estado transitorio entre esta fase y la

siguiente en la que el reconocimiento empírico de lo aleatorio se va trasladando del juego

a los fenómenos naturales en la medida que se va configurando el Cálculo de

Probabilidades.

* Una segunda fase, denominada de formalización, en la que se define el

concepto y se introduce con la terminología apropiada. Con respecto a la noción de

aleatoriedad, ésta comienza, como veremos en el apartado 2.3., cuando Laplace y Gauss

formalizan el teorema del límite central (Bennett, 1993) y se va desarrollando a lo largo

de estos dos últimos siglos, en los que surgen distintas definiciones matemáticas con

ciertas matizaciones que han dado origen a innumerables debates.

* Polya diferencia una tercera fase de asimilación, representada por la etapa en la

que el concepto se extiende en su comprensión y aplicación. Fase que en nuestro caso aún

está en desarrollo, constatando cómo el campo de aplicación de la noción de aleatoriedad

y del Cálculo de Probabilidades se extiende.

La noción de aleatoriedad aparece por primera vez definida en el libro de Venn, Logic of

Chance. En su tercera edición, en 1888, Venn dedica un capítulo completo al concepto de

aleatoriedad y su tratamiento; en él caracteriza lo aleatorio como el orden global frente a la

irregularidad individual. Según Bennett (1993), Venn consideraba la cuestión de la aleatoriedad

como un hecho estadístico.

Años más tarde, en 1939, Von Mises definía la probabilidad como el limite de la

frecuencia relativa de un suceso en una secuencia aleatoria, expresión "considerada el punto de partida

de la definición matemática moderna de la aleatoriedad" (Bennett, 1993; p.130). Ya aquí podemos detectar

la dependencia entre la caracterización de la aleatoriedad y la definición de la probabilidad, hecho

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 56

que es una constante en gran parte de las definiciones posteriores. Así, según el sentido que

otorguemos a la probabilidad, la consideración de suceso aleatorio puede ser diferente, bien como

elemento de una larga secuencia de sucesos repetibles indefinidamente en idénticas condiciones,

bien como la expresión de nuestra ignorancia sobre los posibles resultados del fenómeno, o bien

como reflejo de la complejidad del proceso generador del suceso. El hilo común a todas estas

perspectivas es la impredecibilidad del resultado futuro, inmediato, del fenómeno o experimento

aleatorio en función de los resultados obtenidos en el pasado. En cualquier caso, acecha siempre

una potencial circularidad entre la definición de la noción de aleatoriedad y la noción de

probabilidad (Kyburg, 1974).

Hay una cierta controversia sobre cómo se podría definir la aleatoriedad

independientemente del concepto de probabilidad. Como alternativa Kyburg (1974) nos ofrece

una interpretación epistemológica de lo aleatorio independiente de la noción de probabilidad que

nos aporta un importante referente a la hora de tratar con estas nociones en el ámbito educativo.

Considera la relación "ser miembro aleatorio" de una clase como una relación de cuatro términos

que implica:

* Una referencia al objeto que queremos reconocer como miembro aleatorio de una clase

o conjunto de sucesos.

* Una referencia, por tanto, al conjunto al que ha de pertenecer o no el objeto.

* Una referencia, aunque sea implícita, al cuerpo de conocimiento, desde el cual

valoramos la pertenencia o no pertenencia. El ser aleatorio o no puede depender de lo que

conozcamos sobre el objeto y sobre la clase considerada.

* Y por último, la propiedad que implícitamente determina dicha pertenencia del objeto a

la clase. Es decir, respecto de la cual el suceso es miembro de esa clase.

Considera que la aleatoriedad es, por tanto, "un concepto relacionado con nuestro cuerpo de

conocimiento, el cual, de algún modo, refleja lo que conocemos y no conocemos" (p.217). No parece absurdo

aceptar que el conocimiento que un observador tiene de las cosas no es uniforme, sino que

cuando menos depende del contacto físico y conceptual que hay tenido con tales cosas. Este nivel

experiencial va a influir significativamente en la opinión que las personas configuren sobre la

aleatoriedad de los distintos fenómenos o situaciones.

La aleatoriedad es un concepto ambiguo que sólo puede ser definido en función de los

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 57

instrumentos de los que se disponga para probar el carácter aleatorio del fenómeno ante el que

nos enfrentamos; no existe una forma única y precisa, universalmente válida, para definir la

aleatoriedad: "La aleatoriedad no es simplemente una propiedad empírica de una situación real dada, es

simultáneamente un concepto teórico que debe ser desarrollado, redefinido y analizado" (Steinbring, 1991; p.145).

Su elaboración depende tanto de la actividad racional del sujeto como de la información empírica

disponible.

Un ejemplo de dicha ambigüedad lo encontramos al analizar las definiciones de

aleatoriedad realizadas por diferentes sujetos. Al enfrentarnos a una cierta secuencia parcial, de

ceros y unos, o de caras y cruces, ¿cuál es el modelo o patrón de referencia que nos determina

que estamos realmente ante una sucesión aleatoria? Konold y Falk (1992) describen cómo los

sujetos dan razonamientos muy diversos y, en muchos casos, sin relación aparente entre sí, para

justificar la aleatoriedad de una serie presentada. Ayton, Hunt y Wright (1989), a través de sus

investigaciones, plantean la imposibilidad de dar una definición rigurosa de secuencia aleatoria

como explicación de la variedad de criterios que presentan los sujetos.

En nuestro entorno cercano podemos detectar cómo para unas personas lo aleatorio es

todo aquello relacionado con la "suerte" y por tanto incontrolable, dado su origen desconocido;

mientras que para otras es simplemente producto de nuestra propia ignorancia sobre las

características y el funcionamiento de los fenómenos. En otros casos se le considera más

relacionado con la complejidad intrínseca de los fenómenos y por tanto, con la imposibilidad de

una predicción exacta de su resultado. Explicaciones detectadas, todas ellas, en los distintos

momentos históricos sobre la idea de azar y que es previsible que se reproduzcan, en cierta

manera, en el desarrollo de los individuos. Konold y otros (1991), en su investigación sobre el

reconocimiento y justificación de sucesos aleatorios, detectan claramente cuatro modelos de

razonamientos, en las respuestas de los sujetos: "equiprobabilidad", "múltiples posibilidades",

"incertidumbre" y "causalidad". Algunos de estos modelos de razonamiento pueden ser un

obstáculo de tipo epistemológico para la comprensión de los conceptos probabilísticos.

Como analizan estos autores, "la noción de aleatoriedad es ambigua y compleja, pero mantenemos que

las variantes del concepto son, sin embargo, el corazón del pensamiento probabilístico y estadístico" (p.2). Hay

muchos autores, como Hietele (1975), Steinbring (1991) o el propio Konold (1991), que

consideran que el nivel de comprensión de la aleatoriedad influye sustancialmente en la

comprensión del conocimiento probabilístico. La capacidad de reconocimiento y tratamiento de

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 58

los sucesos aleatorios depende a su vez del nivel de reconocimiento de la incertidumbre y la

complejidad presentes en los fenómenos, es decir, de la comprensión de la noción de azar.

Aspectos, por tanto, básicos que han de ser considerados a la hora del tratamiento del

conocimiento probabilístico en el aula.

El estudio de los fenómenos aleatorios ha sido posible en gran parte gracias al desarrollo

de una teoría matemática que ha permitido su sistematización, el Cálculo de Probabilidades, de

cuyo origen, desarrollo y significado nos ocupamos a continuación.

2.3. DESARROLLO HISTÓRICO DE LA NOCIÓN DE PROBABILIDAD

Es difícil determinar el comienzo del tratamiento de la probabilidad como ciencia

matemática. Sus orígenes la reducen a una ciencia empírica ligada a los juegos de azar. Su

transformación cualitativa fue el resultado de un lento y paulatino proceso, con grandes

connotaciones de tipo filosófico.

Hemos podido detectar, en la revisión precedente, cómo la propia noción de azar ha

pasado por muy diversas visicitudes. Hemos visto cómo la noción de azar es ajena al

pensamiento primitivo. Desde Aristóteles, se admite una idea cualitativa del azar: como reflejo

de una aparente intención humana (suerte); o de una aparente finalidad natural (azar). Más tarde,

el cristianismo sustituye el azar por el poder de la Divina Providencia, sólo será al final del

Renacimiento cuando aparece algo parecido a un estudio del azar. Durante un largo período de la

historia, el propio significado asociado al azar fue un obstáculo para el desarrollo de un estudio

sistemático de los fenómenos fortuitos.

Al final de la Edad Media, el desarrollo del comercio hace que los contratos de seguro se

multipliquen, siendo necesario estudiar sus condiciones, ligadas generalmente a procesos no

controlables; pero fue realmente la generalización del juego y los problemas relacionados con él,

el origen del estudio matemático de las llamadas leyes del azar (Trillas, 1980; Bisson, 1983;

Hacking, 1991; Bennett, 1993; etc.).

No es menos difícil descubrir el momento de la aparición de los juegos de azar. Los

juegos de azar han sido algo inherente al hombre, quien los ha dotado, en muchos casos, de un

sentido mágico. Se sabe, por medio del estudio de manuscritos antiguos y restos arqueológicos,

que ya en las civilizaciones más antiguas como Egipto, Grecia o Roma existían juegos de

distintos tipos. Por ejemplo, son significativos los juegos que utilizaban las "tabas" o huesos de

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 59

astrágalo, claro predecesor del dado, costumbre que aún existe en nuestros días en determinados

núcleos rurales. El primer dado cúbico que se conoce fue construido en cerámica y encontrado en

el norte de Iraq; su antigüedad se remonta al tercer milenio antes de Cristo. Otros dados, con

distintas posiciones y valores de los números, aparecen en el antiguo Egipto.

Llama la atención que, aunque los instrumentos de los juegos de azar existían desde hacía

miles de años en numerosas civilizaciones, la teoría de la probabilidad, como una abstracción

conceptual de las leyes del azar, no inicia su andadura hasta el final del Renacimiento.

El desfase producido entre el reconocimiento de la imprevisibilidad en ciertos fenómenos,

presentados generalmente en contextos de juegos de azar, y su conceptualización y estructuración

en una teoría matemática, es atribuido por Hacking (1975) a la no existencia de las

"precondiciones" necesarias para el nacimiento de la probabilidad como objeto intelectual. El

concepto de probabilidad está relacionado con todo un conjunto de ideas que fueron el resultado

de un largo y necesario proceso; proceso que permitió a la humanidad dar cabida a una nueva

forma de concebir la realidad y los sucesos que en ella acontecen y que constituye en sí mismo

parte de la fase exploratoria del concepto de probabilidad.

Otros autores dan numerosas razones para dicho desfase, como las siguientes: el poder del

determinismo, la falta de ejemplos empíricos de alternativas equiprobables, la ausencia de un

problema económico que la ciencia de la probabilidad satisfaciera, la superstición de los

jugadores, las barreras morales o religiosas, etc. (David, 1962; Maistrov, 1974; Daston, 1988;

Kline, 1992; etc.). Desde una perspectiva más científico-matemática, Kendall (1978) enuncia

como otras posibles causas: la ausencia de un álgebra combinatoria y de una noción clara del

suceso aleatorio, ya que, sin dichos instrumentos, era difícil pensar en el estudio matemático de

los sucesos dominados por el azar.

Analizando los pasos que han guiado la elaboración del concepto de probabilidad y la

teoría que lo integra a lo largo de la historia, podemos diferenciar ciertas etapas (Polya, 1962),

reflejo de las tres fases antes señaladas:

* Una primera etapa que constituye su fase exploratoria en la que se gestaron las

principales ideas relacionadas con el concepto de probabilidad y se inicia el estudio de

hechos concretos. Momento de la historia que reconocemos como la Prehistoria del

Cálculo de Probabilidades (hasta el sigo XVI).

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 60

* Una segunda etapa intermedia en la que se inicia realmente las posibilidades de

su estudio sistemático, aunque sin alcanzar niveles de formalización matemática, en la

que se inicia su fase de formalización. A la que denominamos Iniciación del Cálculo de

Probabilidades (siglo XVII).

* Ya en la tercera etapa entramos en la fase de formalización configurándose la

teoría matemática y el concepto de probabilidad. Nos referimos, por tanto, a la etapa de

Formalización y Configuración del Cálculo de Probabilidades (siglo XVIII,

principios del XIX).

* En una cuarta etapa entramos en la fase de asimilación de los avances teóricos

dados desde la teoría, desarrollándose en paralelo su nivel de profundización y extensión,

ampliándose significativamente el campo de sus aplicaciones. Es una etapa de

Profundización y Sistematización (siglo XIX).

* Por último, consideramos una quinta etapa que constituye la Consolidación

definitiva del Cálculo de Probabilidades (siglo XX), a nivel de su estructura

matemática, tras la elaboración de su axiomática y a nivel del reconocimiento científico y

social de los modelos probabilísticos como sistemas para interpretar e intervenir en los

hechos de la realidad.

Analizaremos brevemente los hitos más significativos, desde nuestra perspectiva, de cada

etapa de la historia.

2.3.1. LA PREHISTORIA DEL CÁLCULO DE PROBABILIDADES. PRIMERAS

REFLEXIONES (hasta el siglo XVI)

El concepto de probabilidad no siempre existió como tal y no siempre tuvo las

características con las que hoy le conocemos. Para tener una visión completa de la génesis del

concepto hemos de analizar el proceso a través del cual surge el concepto (Hacking, 1975). En las

siguientes páginas tomamos como base de la exposición el trabajo de Hacking, The Emergence of

Probability, pues, como reconoce Shaughnessy (1992), es "quizás el mejor informe crítico sobre el

desarrollo histórico y filosófico del concepto de probabilidad" (p.468); éste ha sido contrastado con la

información aportada por otros autores que han estudiado sobre el tema, como Sheynin (1974),

Daston (1988) o Hald (1990), aunque este último autor ha tratado el término desde una

perspectiva más técnica que filosófica.

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 61

Pero, ¿qué existía en el conocimiento humano en el lugar de la probabilidad antes del

siglo XVII, cuando realmente se inicia su estudio?

La Prehistoria de la probabilidad puede empezar con un estudio de los primeros

significados de las palabras y conceptos que ocupaban su lugar. El papel de lo indeterminado en

la Antigüedad está descrito en las primeras páginas de este capítulo. En ellas analizamos los

diferentes sentidos que se le daba al azar en las primeras épocas de la Historia, buscando siempre

una explicación a la existencia de sucesos "extraños" y cuán lejos se estaba de intentar realizar

juicios sobre su predicción, salvo el estudio a través de Artes Adivinatorias de muchos tipos,

hasta ya bien entrada la Edad Media.

En la epistemología medieval se consideraba una clase de fenómenos que podían ser

conocidos a través de la demostración (Ciencia) y otra clase de fenómenos que solamente podían

ser testificados por signos dados por Dios, reconocidos por hombres con manifiesta autoridad, en

base a los cuales emitían oráculos, siguiendo la tradición clásica. La "probabilidad" era un

atributo de "opinión" en contraste con el conocimiento que era obtenido por demostración

(Byrne, 1968). Una "opinión" probable para el mundo de la Edad Media no es la apoyada en la

evidencia de las cosas, sino aquélla que es confirmada por alguna autoridad, son creencias

resultado de alguna reflexión o argumentación, como por ejemplo, se refleja en la filosofía de Stº

Tomás de Aquino en el mundo cristiano o en la Cábala en el mundo judaico (Taton, 1972;

Mason, 1985). En su estudio sobre el tema, Byrne (1968) explica los posibles significados y

relaciones entre lo que hoy conocemos como "probabilidad" y lo que entonces denominaban una

"opinión probable". "La atribución de "probabilidad" a la "opinión" tiene varias connotaciones. En primer lugar,

está referida a la autoridad de aquéllos que aceptan la opinión dada, y desde este punto de vista "probabilidad" sugiere

APROBACIÓN con respecto a la proposición aceptada y PROBIDAD (rectitud, honestidad) con respecto a la autoridad

que la aceptó. En segundo lugar, "probabilidad" está referida a los argumentos que se presentan en favor de la opinión

en cuestión, y desde ese punto de vista, ello sugiere EVIDENCIA, que es la capacidad para ser evidenciado (pensamiento

no necesariamente demostrable). En tercer lugar, "probabilidad" tomada con una cierta connotación peyorativa

justamente hasta donde la proposición en cuestión es meramente probable, desde este punto de vista la proposición está

solamente PROBADA y no estrictamente demostrada" (p.188).

En el medievo se manejaba otra idea de carácter más empírico, pareja al de "opinión", era

el concepto de "signo", conjunto de síntomas que pueden prever un hecho, muy usado en

Medicina. Estos signos provenían de la naturaleza y de las cosas, lo cual podía entrar en

controversia con el poder absoluto de Dios, controversia que quedaba eliminada al considerar que

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 62

al fin y al cabo la naturaleza es un reflejo de la voluntad de la Divina Providencia.

El concepto de "signo" era propio de ciencias como la Alquimia o la Medicina, las

llamadas ciencias bajas, en las que sus hechos y conocimientos no eran demostrables como lo

eran en la Astronomía o la Mecánica, sino más bien relacionados con la opinión de los expertos.

Ateniéndose a los "signos" podían establecerse en algunos casos "opiniones probables" en

función de la frecuencia con que estos aparecían asociados a ciertos sucesos, pues no todos los

signos eran igual de fiables y algunos era necesario testificarlos, combinando implícitamente la

noción de probabilidad, como opinión, con la de frecuencia de las observaciones.

Este concepto de "signo" ocupa un papel significativo en el origen de la idea de

probabilidad pues será, a partir de su transformación, como se crearán las condiciones necesarias

para el surgimiento del concepto de probabilidad. Este salto sería la modificación, y en cierta

manera construcción del concepto de "evidencia" a partir del propio concepto de "signo".

La evidencia que se concebía en la época medieval estaba sólo relacionada con los

testimonios de la autoridad y provenía por tanto de las personas. Al principio del Renacimiento,

testimonio y autoridad eran primero y las cosas podían mostrar una evidencia siempre que ésta

fuera similar al testimonio del observador y a la autoridad de los libros. En el transcurso del

Renacimiento se da una gran valoración a los manuscritos antiguos, se redescubre la cultura

clásica. A la vez se intenta superar la palabra escrita y acercarse al estudio de la naturaleza a

través de la experimentación, dándole un lugar importante a los datos que de ella se extraían

(Taton, 1972; Crombie, 1985).

Durante el Renacimiento se retoma la concepción aristotélica de ciencia según la cual ésta

procedía por demostración de los efectos a las primeras causas, pero introduce una modificación

significativa: en la nueva ciencia se preconizaba que las causas eran inferidas desde los

experimentos y no de forma especulativa. Se intentaba "...comprender la estructura racional del mundo sin

alusión a los milagros y a la revelación divina" (Ponomariov, 1992; p.351). El papel de la prueba en el

pensamiento científico fue modificado; en la vieja ciencia las pruebas eran demostrativas sin

más, en la nueva filosofía de la ciencia el resultado de pasar una prueba o experimento era,

simplemente, una buena evidencia inductiva para la hipótesis de partida. La ciencia ya no se

apoyaba en la mera especulación, sino en la experimentación y progresivamente en la

formulación matemática de las demostraciones (Koyré, 1982).

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 63

Esta nueva comprensión del papel del experimento fue la que permitió la transformación

señalada del "signo" en "evidencia", condición básica para la emergencia del concepto de

probabilidad. La nueva "evidencia", la que nació a partir de la transformación del concepto de

"signo", es la "evidencia" de las cosas o de los hechos. En la lógica de Port Royal aparece, por

primera vez, claramente la distinción entre las dos clases de evidencias: la evidencia que proviene

de las cosas, a la que denominan "interna" y la evidencia basada en testimonios, que nombran

como "externa".

La primera clase de evidencia "interna" que surgió en el Renacimiento fue la que provenía

de las cosas particulares a las cosas particulares, en una fase transductiva; más tarde fue

manifestándose la posibilidad de una mayor generalización desde la observación y

experimentación. El método experimental de razonamiento empezó a ocupar un papel

significativo, ya no sólo se observaba a la naturaleza, sino que se comenzó a estudiarla, a realizar

experimentos, registrando los resultados con números, comprobando o desechando hipótesis. De

esta forma, fueron desarrollándose progresivamente los procesos de inferencia, enunciando

manifestaciones universales, como probables, a partir de la observación de hechos singulares. La

validez de dicho proceso fue cuestionada por primera vez por Hume en su A Tratise of Humna

Nature, al formular lo que se conoce como "el problema escéptico de la inducción" (Popper,

1962; Taton, 1972; Hacking, 1975; Koyré, 1983; Ponomariov, 1992).

En pocas palabras y resumiendo las ideas fundamentales (Figura 12), hemos visto cómo la

vieja probabilidad medieval era materia de opinión. En la epistemología escolástica, una opinión

era probable si era sostenida por testimonios de la autoridad, es decir, estaba bien confirmada.

Con la llegada del Renacimiento se acepta una nueva clase de testimonio, el de la naturaleza,

capaz de testificar a través de signos; el signo probable es aquél a través del cual el mundo da

habitualmente testimonio. Lo probable siempre estaba relacionado con la autoridad, pero, cuando

la "opinión" de la autoridad estaba fundamentada en signos naturales, era de una especie

diferente, provenía en cierta forma de las cosas y de los hechos, no exclusivamente de las

personas. La consideración de éstos como evidencia válida, y base para la inferencia de

resultados más generales, originó el salto definitivo. El espacio donde podía surgir la

probabilidad estaba completo (Hacking, 1975).

La idea de probabilidad unida a los juegos de azar comienza su andadura, como ya

anunciábamos, en el Renacimiento con L. Pacioli, primer matemático, según Boyer (1986), del

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 64

que se tiene una cierta imagen de su trabajo.

Figura 12: prehistoria

Al final del siglo XV, Pacioli publica un pequeño tratado, Summa de arithmetica,

compuesto por cinco partes. La primera trata sobre aritmética y

álgebra, la última sobre geometría y las otras tres partes del libro están dedicadas a distintas

aplicaciones al comercio. En estas partes encontramos una discusión sobre el reparto de la

apuesta entre dos jugadores antes de terminar un juego de azar, al que considera un problema

comercial; emplea relaciones aritméticas y no lo resuelve satisfactoriamente. El problema sería

retomado un par de siglos después por Pascal y Fermat (Rey Pastor y Babini, 1985).

Fue realmente G. Cardano, ya en pleno siglo XVI, en su libro Liber de ludo aleae, el

primero en realizar un argumento teórico para calcular las posibilidades de los distintos

resultados relacionados con el juego de los dados. Enunció ciertas reglas válidas para resolver

problemas de dados y dio una relación de precauciones a tomar para evitar las trampas en los

juegos de azar. En él se encuentran los gérmenes de un estudio reflexivo del azar. También

Galileo en algunos de sus escritos resolvió problemas propios de los juegos con los dados, sin

aportaciones significativas para el conocimiento matemático del azar (Todhunter, 1965; Collette,

1985; Rey Pastor y Babini, 1985). Paralelamente, en el mismo siglo XVI, empiezan a aparecer

consideraciones de tipo probabilístico relacionadas con ideas intuitivas sobre el grado de

posibilidad, con algunos cálculos de frecuencia teórica, pero, como analiza Ríbnikov (1987), aún

no son reconocidas como un tratamiento sistemático de la probabilidad, por su carácter

anecdótico y aislado. Todos estos trabajos están inmersos en la época reconocida como

prehistoria de la probabilidad, durante la cual se gestaron las ideas más que las teorías.

De todo lo expuesto en las páginas anteriores, hay dos elementos que son de particular

importancia por su posible implicación en la enseñanza/aprendizaje de la probabilidad: en primer

lugar, la trama de conceptos y relaciones implicados en el discurso de la probabilidad, no obvias

ni de inmediata comprensión y, en segundo lugar, la no separación, en su origen, del carácter

empírico/objetivo de la probabilidad del carácter epistemológico/subjetivo. Ambos elementos

pueden determinar las condiciones del aprendizaje probabilístico y por tanto, de su enseñanza. A

continuación nos adentramos en la elaboración de la propia teoría matemática.

2.3.2. INICIACIÓN DEL CÁLCULO DE PROBABILIDADES, DE PASCAL A

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 65

BERNOULLI (siglo XVII)

El siglo XVII es reconocido como el del nacimiento oficial del cálculo de probabilidades,

ignorando todas las fuentes italianas anteriores que representaban Cardano o Pacioli, pues, como

explica Ore (1960), gran parte de los escritos anteriores eran totalmente desconocidos en aquella

época. Nace en un contexto fundamentalmente empírico, relacionado directamente con los juegos

de azar y como resultado del intercambio de correspondencia entre Pascal y Fermat sobre las

soluciones de la "Regla de los Repartos", ya tratado por Pacioli. Un problema de juego

presentado por el caballero De Meré a ambos científicos fue la justificación. El problema era el

siguiente: un juego entre dos jugadores se interrumpe de común acuerdo antes de su final y

quieren hacer un reparto justo de las cantidades apostadas, ¿en qué proporción ha de repartirse la

apuesta de acuerdo con la probabilidad que cada uno tenía de ganar?

Las soluciones encontradas por ambos científicos, aunque diferentes, estaban relacionadas

con el análisis combinatorio y las proporciones de las posibilidades. La solución a que llega

Fermat es de tipo combinatorio, Pascal utiliza las proporciones para calcular el reparto y opina al

principio que el método de Fermat es excesivo, que el suyo es más corto y más claro. No

obstante, según se puede intuir de la última carta de Pascal, fechada el 27 de Octubre de 1654, en

la que leemos: "Admiro vuestro método para los repartos, tanto más cuanto que lo entiendo muy bien; es totalmente

vuestro y no tiene nada de común con el mío, y llega al mismo fin pero fácilmente" (Pascal [recopilación], 1983;

p.672), al final queda satisfecho con el método de Fermat. Pascal murió en 1662, Fermat en

1665; ninguno de ellos publicó el resultado de su trabajo. De todas formas, como nos recuerda

Shafer (1990), ni Pascal ni Fermat usaron la palabra "probabilidad" en su correspondencia,

solamente estaban pensando en repartos justos.

Pascal en su obra aporta otra visión importante sobre la probabilidad distinta de la

numérica. Su argumentación sobre lo que se reconoce como "la apuesta de Pascal" puede

considerarse como una primera contribución a la Teoría de la Decisión. Como apuntábamos en el

apartado 2.1.1., dicha apuesta estaba relacionada con la creencia o no de la existencia de Dios y

en ella analizaba las distintas argumentaciones posibles al tomar una postura o decisión sobre ello

(Pascal, 1983). Encontramos en Pascal un doble significado de la probabilidad: por un lado, un

estudio de carácter más empírico, relacionado con el análisis de las posibilidades de ciertas

situaciones de juego y, por otro, sus consideraciones, más de carácter epistemológico,

relacionadas con la creencia de la existencia de Dios. Este carácter dual de la probabilidad será,

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 66

como comprobaremos más tarde, una constante de la historia de la probabilidad (Hacking, 1975;

Daston, 1988; Hald, 1990; etc.).

La probabilidad nace desde su aplicación al estudio de situaciones de juego ligadas a

contextos empíricos. A lo largo de todo su desarrollo, el estímulo principal vendrá dirigido por la

necesidad de dar respuesta a los problemas planteados desde sus aplicaciones en contextos

específicos. El campo de sus aplicaciones, en continuo desarrollo y ampliación, es el motor de su

evolución; como plantea Steinbring (1980a), "la teoría de la probabilidad puede considerarse, en cierto

modo, como "modelo" de una teoría orientada a la aplicación" (p.416), proceso que a su vez provoca su

progresivo avance teórico en una relación dinámica e interactiva entre la práctica y la teoría.

Durante el medio siglo siguiente, el estudio de la probabilidad avanzó muy poco. Lo más

característico de estos años es:

* El trabajo de Huygens, quien, en su libro De ratiociniis in ludo aleae, recopiló

las soluciones propuestas por Pascal y Fermat, añadiendo algunos problemas sobre juegos

resueltos por él, siendo la primera obra teórica sobre la probabilidad.

* En este mismo siglo, Leibniz, precursor junto con Newton del análisis

infinitesimal, establece la teoría combinatoria sobre una base científica en el primer

monográfico sobre el tema, Ars combinatoria. Obra que constituyó uno de los pilares

sobre los que se desarrolló la Teoría de la Probabilidad en sus comienzos, aunque

progresivamente se iría independizando de ella, en la medida en que se enriquecieron los

métodos de la propia teoría de las probabilidades con la introducción de los instrumentos

desarrollados desde el Análisis Matemático.

* Ya al final de siglo, J. Bernoulli, estudiando el aparente desorden que

presentaban los resultados obtenidos en las situaciones de juego, observó una cierta

regularidad en la aparición de dichos resultados, hallazgo que tomó la forma de la

primera ley probabilística. Su trabajo fue recogido en una obra póstuma denominada Ars

Conjectandi. En él desarrolla un tratado de análisis combinatorio sobre permutaciones y

combinaciones, recoge toda la obra de Huygens y, por primera vez, plantea la aplicación

de la probabilidad a temas de interés del momento, fuera ya de los contextos de juego.

Constituye el primer trabajo teórico importante del Cálculo de Probabilidades.

En la obra de Bernoulli aparece la primera y más simple formulación de la que hoy

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 67

conocemos como "la ley de los grandes números". Es la primera ley probabilística de carácter

empírico y se refiere a la estabilidad de la frecuencia en la repetición de un gran número de

ensayos semejantes: "la probabilidad constante de un suceso es p si al realizar la experiencia n

veces, dicho suceso tienen lugar m veces, y el cociente m/n se acerca tanto como se quiera a p,

con tal que el número de pruebas n sea suficientemente grande"; esta ley es un caso particular

del teorema central del límite tal como lo conocemos hoy. En la formulación de este teorema se

hace visible por primera vez la circularidad del conocimiento probabilístico: el contenido del

concepto de probabilidad no se puede definir sin que la probabilidad tenga que ser presupuesta de

alguna forma.

Este teorema posibilitó la progresiva aplicación de la probabilidad a fenómenos aleatorios

reales, desde un análisis combinatorio de los fenómenos; sólo aquéllos en los que todos los

resultados posibles presentaban iguales posibilidades de ser obtenidos podían ser analizados

desde el modelo probabilístico. Esta limitación inicial de la aplicación de la probabilidad a

fenómenos con un conjunto finito de resultados equiprobables influyó significativamente en el

campo de sus aplicaciones y ligó durante años la probabilidad a situaciones de estas

características, no muy comunes entre los hechos socio-naturales. Cuestión que también ha tenido

su influencia en las personas a la hora de conceptualizar los fenómenos aleatorios y que ha de ser

considerada a la hora de su tratamiento didáctico, como veremos en el capítulo siguiente.

En su obra Bernoulli considera por primera vez, la probabilidad como algo personal y, por

tanto, susceptible de variación en función del conocimiento individual. Estaba interesado no sólo

en poder estimar las probabilidades desconocidas de un suceso aleatorio, sino también en cómo

poder conseguir una declaración sobre ellas que reflejase la creencia personal en dichas

probabilidades.

A lo largo de todo el siglo XVII se fueron formulando nuevas aplicaciones del Cálculo de

Probabilidades. Tras el estudio de los juegos de azar se empieza a intuir la posibilidad de prever,

en cierto grado, el futuro a partir de los datos que podemos observar. Se inicia la búsqueda de una

organización de la información del pasado que permita una iluminación sobre el futuro y obrar

consecuentemente con ello.

Una figura significativa en este tipo de trabajo es J. Graunt. Su estudio, realizado en 1662

sobre las leyes de mortalidad es un modelo prototípico de análisis estadístico descriptivo: "Los

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 68

métodos estadísticos de Graunt raramente se pronuncian directamente pero pueden encontrarse en sus ejemplos" (Hald,

1990; p.86). El estudio sobre las leyes de mortalidad y los cálculos de seguros de vida son un

campo de aplicación de vital importancia para el desarrollo de la Teoría de Probabilidades.

De hecho, estas dos situaciones, los problemas planteados desde los juegos de azar y los

estudios estadísticos sobre la población, fueron las fuentes principales que aportaron los datos

necesarios para que la probabilidad se transformara en objeto de estudio matemático; sin ellos

hoy no dispondríamos de la idea actual de probabilidad (Hacking, 1991).

En todo caso, como expone Fienberg (1992), no podemos olvidar que todos estos autores

están inmersos en un mundo determinista y utilizan la probabilidad para describir cierto tipo de

fenómenos sobre los que la ignorancia humana es manifiesta. Hasta aquí podemos considerar el

primer momento de la evolución de la Teoría de la Probabilidad, entrando a continuación en una

época de gran desarrollo durante todo el siglo XVIII y el primer tercio del XIX.

2.3.3. FORMALIZACIÓN Y CONSOLIDACIÓN DEL CÁLCULO DE

PROBABILIDADES (siglo XVIII, principios del XIX)

En esta tercera etapa se inicia realmente la teoría matemática de las probabilidades. En los

comienzos del siglo XVIII se había acumulado un conjunto considerable de conocimientos de

carácter teórico sobre la probabilidad. Sin embargo, el Cálculo de Probabilidades no era aún una

rama significativa dentro del conocimiento matemático. Su desarrollo estaba condicionado por "la

obligatoria estrechez del material concreto (juegos de azar y tablas de resultados de observaciones) y lo elemental de los

métodos (aritméticos y combinatorios)" (Ríbnikov, 1987; p.210). Es durante este siglo y comienzos del

siglo XIX cuando sufre un avance considerable, tanto en su formulación teórica como en el

campo de sus aplicaciones.

El primer producto importante fue el trabajo realizado por De Moivre en 1730. Con el

trabajo de De Moivre se puede considerar cerrada la hoy llamada Teoría Clásica de la

probabilidad. A lo largo de su vida precisó algunos de los principios del Cálculo de

Probabilidades, encontró extensiones de la ley o teorema de Bernoulli y enunció la regla de las

probabilidades compuestas. En su obra tuvo un interés especial por desarrollar métodos y

notaciones generales para la Teoría de la Probabilidad; es decir, por darle cuerpo como

conocimiento formal matemático (Boyer, 1986). Idea que contrasta con su posición filosófica

respecto al azar, al que consideraba como una "mera palabra", simple apariencia sin esencia real.

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 69

Posición que también se refleja al interpretar las leyes probabilísticas, así, para De Moivre, la

estabilidad de la frecuencia relativa era un signo de la acción divina, el hombre simplemente la

detectaba y estudiaba, en el más puro discurso de la Providencia (Hacking, 1991).

Un eslabón significativo para el desarrollo de la modelización matemática fueron los

trabajos del clérigo T. Bayes. Este autor analizó el problema de la determinación de la

probabilidad de las causas a través de los efectos observados. El problema básico se centró en

estimar la probabilidad de las diferentes hipótesis planteadas sobre las causas que han producido

un determinado suceso, hipótesis elaboradas en base a los resultados observados. Para ello

formuló la expresión de la probabilidad inversa conocida como el Teorema de Bayes, mediante el

cual se podía determinar la probabilidad de un suceso "a posteriori" en función de una

probabilidad "a priori", producto de la creencia personal o de una información ya establecida y

de la información muestral obtenida a través de la experiencia. Fue el primero que utilizó la

probabilidad matemática en el razonamiento inductivo y sus estudios abrieron un nuevo campo

de aplicación, intuido siglos atrás pero nunca sistematizado, el de la inferencia estadística. El

trabajo de Bayes fue retomado y completado definitivamente por Laplace a principios del siglo

XIX.

El esquema del teorema propuesto por Bayes refleja, en gran parte, el funcionamiento

ideal de los sujetos ante situaciones aleatorias: se considera una cierta probabilidad de ocurrencia

de un determinado suceso "a priori", en función del conocimiento personal basado tanto en

creencias como en la evidencia de las cosas; posteriormente esta probabilidad es matizada y

modificada si fuera necesario, a la luz de la experiencia, obteniendo una probabilidad "a

posteriori" del suceso. Según Hawkins y Kapadia (1984), el teorema de Bayes es un instrumento

potencial para el desarrollo del pensamiento analógico. Como veremos en apartados posteriores,

su esquema nos puede servir como punto de referencia a la hora del diseño de procesos de

enseñanza/aprendizaje del conocimiento estocástico. Su estructura es una síntesis potente entre el

funcionamiento racional del sujeto y su interacción con los datos empíricos.

A partir de este momento de la historia, aparecerán dos perspectivas reconocidas desde las

que abordar el estudio de la probabilidad, relacionadas con el contexto de aplicación. Una de

estas perspectivas, la bernouillana, atenderá al estudio de las frecuencias relativas; la otra, la

bayesiana, se presentará más relacionada con los grados de credibilidad y sus necesarios ajustes

con la realidad. Dualidad objetivismo/subjetivismo que será origen de diferentes interpretaciones

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 70

del significado de la probabilidad, sobre los que trataremos en el apartado siguiente.

El campo de aplicación de la probabilidad fue ampliándose progresivamente, "hacia la mitad

del siglo XVIII la teoría de la probabilidad comienza a aplicarse más y más en diferentes áreas, primero en demografía,

seguros, estimación de errores observables, organización de loterías, etc." (Maistrov, 1974; p.101),

extendiéndose al estudio, no sólo de los fenómenos naturales, sino también de los sociales. Como

consecuencia de este reconocimiento en el mundo científico y social de la época, se iniciaron,

paralelamente a los estudios teóricos, elaboradas investigaciones de recopilación de información

sobre las poblaciones. Se realizaron recuentos, registros de mortalidad, nacimientos, casamientos,

etc. que se convirtieron en el "dominio de ejercicio" por excelencia del conocimiento

probabilístico, apoyado por el desarrollo de la Estadística Descriptiva (Condorcet [recopilación],

1990; Hacking, 1991).

Ante la avalancha de datos proporcionados, el interés se centró en la búsqueda de

regularidades que permitieran hallar leyes de la sociedad semejantes a las leyes de la naturaleza,

establecidas por Newton. En un momento de su obra Condorcet (1990) dice "Las ciencias morales se

fundan en hechos y en el razonamiento de manera que su certeza será la misma que tienen las ciencias físicas" (p.80).

El hombre nunca olvida su principal objetivo: explicar y dominar los fenómenos de la realidad.

Esta consideración de la ley probabilística como ley universal fue un grave obstáculo para la

interpretación de los datos obtenidos.

En sus estudios, Condorcet insistió en una doble distinción del concepto de probabilidad.

En primer lugar entre la definición matemática y su interpretación, y luego entre los dos

sentidos de dicha interpretación, bien como estimación objetiva a partir de la observación y la

distribución de frecuencias, o bien como estimación subjetiva en función de las creencias.

Una aplicación importante del Cálculo de Probabilidades, por sus grandes repercusiones,

fue el trabajo de Gauss sobre la Teoría de los Errores en las observaciones. La aplicación de la

probabilidad al estudio de los errores en las observaciones, emprendida por Gauss, conduce al

desarrollo de un concepto fundamental, la distribución de probabilidades, que culminó en la

elaboración de una ley universal de los errores en forma de distribución normal, cuya

representación es la conocida curva acampanada o "curva normal", como la llamó años después

Galton.

A partir de este momento, el objeto de estudio del Cálculo de Probabilidades deja de

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 71

ser los sucesos aleatorios aislados en sí mismos, para centrarse en la idea de distribución de

probabilidades, germen de la caracterización de un sistema de variables aleatorias.

Conformándose, de esta forma, el concepto de sistema como un modelo de especial relevancia

para la comprensión probabilística del funcionamiento de los fenómenos: ya no eran

considerados los sucesos elementales, sino el sistema que caracterizaba al conjunto de los

sucesos posibles (Steinbring, 1980a)

Al final del siglo XVIII y comienzos del XIX, como consecuencia de la liberalización que

provoca la Revolución Francesa, surge en la sociedad de la época un número notable de grandes

científicos-profesionales. En el campo de la Matemática son significativos los trabajos de

estudiosos como Lagrange, Legendre o el propio Gauss, que fundamentaron y desarrollaron una

de las ramas más importante de la Matemática: el Análisis Matemático; su aplicación sucesiva al

Cálculo de Probabilidades le permitió independizarse progresivamente de los instrumentos

aritméticos y combinatorios. La disponibilidad de instrumentos más sofisticados y la ampliación

de los campos concretos de aplicación facilitaron su transformación en la rama de la Matemática

pura que hoy conocemos.

El primer paso en este camino fue dado por P.S. Laplace, quien a comienzos del siglo

XIX, recopiló todos los conocimientos existentes sobre la probabilidad en sus escritos y

memorias. La obra más conocida es Essai philosophique sur les probabilités, de carácter más

divulgativo, en la que presenta una introducción, no técnica, a las leyes del azar. La obra más

importantes de Laplace, publicada en 1812 fue: Théorie analytique des probabilités. Obras que

hoy se reconocen como la base de la Teoría Clásica de la probabilidad, en ellas desarrolla todos

los conceptos básicos, definidos de forma precisa; enuncia diez principios fundamentales sobre

los que se desarrolla la Teoría de la Probabilidad, entre los que se encuentran los principios de la

probabilidad total y la compuesta; recoge distintas aplicaciones a la filosofía natural, las ciencias

morales, problemas demográficos y a problemas jurídicos. Expone también los fundamentos

psicológicos del Cálculo de Probabilidades y "las diversas formas de acercarse a la verdad" y

enuncia el teorema de Bayes de forma definitiva que, como indica el propio Condorcet (1990),

Laplace consideraba su uso como indispensable para quienes deseasen aplicar la Teoría de la

Probabilidad a la vida civil.

El estudio de la probabilidad de las causas inició el camino para utilizar la probabilidad

en la valoración de afirmaciones hipotéticas en el campo de la investigación y de la toma de

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 72

decisiones, confrontadas luego con la experiencia, adentrándose en el campo de la probabilidad

subjetiva. De hecho, Laplace tenía una concepción de la probabilidad cercana a la subjetivista y

su cálculo lo consideraba como una salida, ante la falta de conocimiento sobre el suceso. Es "el

buen sentido reducido a cálculo" (Laplace [reedición], 1985; p.140).

Laplace no llega a definir explícitamente la probabilidad, pero sí su medida, una de sus

contribuciones más importantes. Define la medida de la probabilidad como la proporción entre

los casos favorables de un suceso y los casos posibles de un conjunto de alternativas

equiprobables. Esta dependencia de la existencia de resultados equiprobables - producto del

propio origen del estudio de la probabilidad: el estudio de los juegos - es lo que mantiene a la

Teoría Clásica con estrechos márgenes de aplicación. Por otro lado, podemos observar de nuevo

la circularidad, antes señalada, entre el concepto de equiprobable y la probabilidad en la propia

definición (Boyer, 1986; Taton, 1972; Steinbring, 1984; Laplace, 1985; Ríbnikov, 1987).

La concepción determinista de Laplace, descrita en el apartado 2.2.1, no le permitió saltar

de un tratamiento causal a una concepción estadística de los acontecimientos, pues lo consideraba

un saber transitorio, útil sólo por desconocimiento de la pura explicación causal. Los trabajos de

Laplace se pueden considerar como el final de la tercera etapa en la evolución de la teoría

matemática de la probabilidad.

2.3.4. PROFUNDIZACIÓN Y SISTEMATIZACIÓN (siglo XIX)

Después de los trabajos de Laplace a principios de siglo y de sus contemporáneos, el

interés por la Teoría de la Probabilidad tuvo una caída importante. El estudio teórico realizado

era tan considerable, en relación con el desarrollo de las ideas de la época, que realmente poco

más que una labor de crítica, precisión y perfeccionamiento, quedaba por realizar. Se entra, en

consecuencia, en un período de profundización en el que se pondrían las bases para la futura

sistematización. En general, los progresos teóricos realizados durante esta etapa, correspondiente

más bien a las dos terceras partes del siglo XIX, no son significativos en comparación con los que

se realizarán en la última etapa, ya en el siglo XX.

Sin embargo, durante esta época se extendió de forma significativa el uso del Cálculo de

Probabilidades, abarcando todos los campos del conocimiento. Estas aplicaciones, efectuadas en

muchos casos de manera incorrecta y en campos muy diversos, provocaron un gran número de

juicios sin fundamentos y de conclusiones erróneas que tuvieron una influencia directa en la

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 73

reputación científica de la Teoría de la Probabilidad y su aparente abandono (Ríbnikov, 1987).

Entre todos los trabajos desarrollados en la primera mitad del siglo XIX, podemos destacar, por

su posterior influencia en el desarrollo de la teoría, los siguientes:

* Es significativo el trabajo de Poisson sobre los jurados y sus fallos

condenatorios. Ya antes, tanto Condorcet como Laplace habían abordado este problema

pero, al no existir datos recopilados sobre el tema, sus deducciones eran apriorísticas, sin

relación directa con la experiencia. En 1826 se publican las primeras estadísticas de fallos

de los jurados. Poisson realiza un estudio sobre los mismos y establece leyes

probabilísticas de las conductas de los miembros de los jurados, analiza su composición y

la calidad de sus fallos para estimar la fiabilidad de los jurados. En 1837 publica su gran

obra sobre estos temas Recherches sur la probabilité des jugements en la que demuestra y

generaliza la "ley de los grandes números" de Bernoulli y le da en verdad este nombre. En

"su libro distinguía con mayor claridad que cualquiera de los anteriores entre ̀ frecuencia relativa' y ̀ grado de

credibilidad' en lo tocante a los enfoques de las probabilidades" (Hacking, 1991; p.144). Pero, como

indica Daston (1988), la obra de Poisson era más un tratado político que matemático,

integrado en la Ciencia Moral, por lo que sus aportaciones fueron ignoradas durante largo

tiempo.

* Al trabajo del filósofo A. Cournot sobre las probabilidades le sucedió algo

parecido a lo ocurrido con el trabajo de Poisson, pasó desapercibido por los estudiosos de

la época y fue retomado años después desde el campo de la Economía. Cournot

encuentra en el Cálculo de Probabilidades el origen de sus meditaciones y fundamenta

sus teorías a partir de la idea de "chance" o azar (Bisson, 1983). Define a la "probabilité"

y a la "chance" como dos cosas diferentes. La probabilidad la relacionaba con el grado

razonable de credibilidad en la ocurrencia de un suceso, mientras que la posibilidad o el

azar, la relacionaba con la facilidad que tiene un fenómeno, por su misma naturaleza, para

ocurrir, basada en términos de frecuencia. Volvemos a encontrar una clara distinción

entre la interpretación subjetiva y objetiva de la probabilidad, "creencia versus

frecuencia", ya antes señalada.

* La aplicación de la probabilidad a la Sociología y a la Antropología fue obra

del matemático y astrónomo belga A. Quetelet, sucesor de las ideas de Condorcet. Fue el

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 74

primero en concebir la estadística fundamentada sobre el Cálculo de Probabilidades; sus

trabajos pueden considerarse como los pioneros de la estadística moderna, ya en pleno

siglo XIX. A través de la observación de regularidades en las tablas de registro de rasgos

humanos, Quetelet llegó a la conclusión de que éstos podían representarse en una gráfica

o distribución, semejante a la encontrada años antes por Gauss para la distribución de los

errores en las observaciones, la llamada "curva de distribución normal". Otra

contribución esencial en el análisis estadístico de datos sociales fue el concepto de

homme type. Quetelet no identificaba este concepto con las características del género

humano en general, sino con las cualidades de una raza o un pueblo.

Para caracterizar el "hombre tipo", trabajó con el concepto de término medio de

ciertos atributos de la población (altura, perímetro de la caja torácica, etc.) y la dispersión

encontrada con respecto a dicho término medio, llamada por entonces "error probable".

Dio un paso decisivo al considerar que ese término medio del atributo considerado,

obtenido a nivel empírico, era una propiedad ideal o abstracta referente al atributo

estudiado, factible de ser sometida a las técnicas formales. De esta forma, las leyes

estadísticas, que hasta entonces sólo representaban ciertas regularidades en las

observaciones registradas, se transformaban en leyes de la naturaleza y la sociedad

(Hacking, 1991).

* Siguiendo la revisión a través de la historia del siglo XIX, encontramos

aplicaciones a otros campos del conocimiento científico. En el campo de las ciencias

biológicas, merecen especial interés las investigaciones sobre la herencia realizadas por

Galton, recogidas en su libro Hereditary Genius: An Inquiry into its Laws and

Consequences. Su trabajo se dirigió fundamentalmente al estudio de las características

físicas, cómo se distribuyen y cómo se heredan. Tomó como base de sus estudios la ley

gaussiana de las distribuciones, pero, a diferencia de Quetelet, su interés se centró más en

el análisis de las desviaciones con respecto al término medio, es decir en la dispersión. A

partir del estudio empírico de las medidas antropométricas de una cierta población y sus

relaciones, surgieron el concepto de regresión y correlación, conceptos que van a ser

determinantes en todos los planteamientos teóricos posteriores (Stigler, 1986).

Según avanza el siglo XIX, los estudios sobre aplicaciones de la probabilidad y sus

posibles interpretaciones se multiplicaron. Se acumula información sobre las características de la

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 75

sociedad. El estudio de dicha información permite conocer las condiciones y los funcionamientos

propios de la sociedad, intentando elaborar a partir de dicho conocimiento las leyes sociales. Se

mantiene la idea de que la conducta humana se regía por esas nuevas leyes estadísticas y

probabilísticas que, al igual que las leyes de la física, no podían violarse. Las probabilidades

quedan atrapadas dentro de la estructura de la ley estadística por excelencia, "la ley de los

grandes números", la cual era considerada como el modo de funcionar de las cosas mismas, una

ley de carácter universal, no como algo que debiera verificarse y ajustarse con la experiencia.

Hecho que, como ya hemos indicado, representó un claro obstáculo a la hora de interpretar los

datos aportados desde la aplicación de la teoría: "La ley de los grandes números, no el teorema de Poisson,

sino una proporción sobre la estabilidad de los fenómenos tomados en masa, se convirtió para las siguientes

generaciones en una verdad sintética a priori." (Hacking, 1991; p.156).

Los investigadores del comportamiento humano ante situaciones de incertidumbre han

detectado un funcionamiento similar a nivel individual. Cuando se enfrentan a situaciones de

incertidumbre, el sujeto analiza las condiciones en comparación con los datos que le aporta la ley

general, realizando una transferencia directa de la ley a situaciones puntuales (Kahneman, Slovic

y Tversky, 1982). Por ejemplo, espera que en una muestra cualquiera de nacimientos haya igual

número de niños que de niñas. Sobre este punto volveremos en el capítulo siguiente.

Al final del siglo XIX, se retoman las discusiones teóricas sobre el azar y la probabilidad.

Durante esta época se publican varios estudios sobre el azar, la probabilidad y sus diversas

concepciones:

* En 1866, el lógico inglés J. Venn expuso de forma clara la distinción entre las

diversas ideas de probabilidad, implícitas en todos los trabajos anteriores. Asociaba la

idea de probabilidad con la noción estadística de frecuencia relativa, por primera vez de

forma explícita. Para él, la probabilidad sólo tiene sentido en relación con una serie, en la

que combina la irregularidad individual con la regularidad colectiva, característica que

asocia a la aleatoriedad de la serie, como ya apuntamos. Esta idea, latente desde el

principio del estudio de la probabilidad, aparece siempre en contraposición de las

concepciones subjetivas de la medición de la probabilidad, pero es la primera vez que

aparece definida y reconocida como tal, considerando la probabilidad de un

acontecimiento como su frecuencia dentro de un serie (Newman, 1979). Este cambio del

concepto subjetivo de la probabilidad, inherente a toda la teoría clásica al concepto

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 76

frecuencia, es, según Poter (1986), una consecuencia lógica del auge de las estadísticas

sociales y la observación de regularidades estadísticas en grandes muestras.

* Una figura significativa de esa época es H. Poincaré, el último gran matemático

universalista como lo llama Bell (1965) en su libro sobre grandes matemáticos. Dedicó

parte de su trabajo al estudio del concepto de azar, buscando una definición más precisa y

que lo relacionara con algo más que con la ignorancia de las causas, ideas ya analizadas

en el apartado anterior. Pero su aportación más original partió de un estudio sobre la

estabilidad del sistema solar. En una de sus publicaciones planteó que un sistema

completamente determinista y estable, como era el sistema solar podría tener resultados

indeterminados al entrar en acción los pequeños efectos no controlados. En las leyes de la

Mecánica Celeste, perfecta imagen de lo determinado, la interacción de dos cuerpos

(Sol/Tierra) no tiene problemas, pero la de tres (Sol/Tierra/Luna) se transforma en un

desastre; Poincaré descubrió que un mínimo tirón gravitatorio de un tercer cuerpo podía

causar que una órbita se comportara de manera errática (Stewart, 1991). Esto contradecía

una de las máximas deterministas, según la cual los hechos del azar que perturban los

sistemas estables sólo podían estar originados en contingencias aleatorias exteriores,

nunca desde el propio sistema, en el que todo estaba controlado.

Según Briggs y Peat (1990), "Poincaré reveló que el caos, o el potencial para el caos, es la esencia de un

sistema no lineal, y que aun un sistema completamente determinado como los planetas en órbita podían tener resultados

indeterminados" (p.28). Fue el primero en percibir lo que hoy llamamos "Caos", su complejidad y a

la vez sus posibilidades, pero hubo que esperar aún muchos años para contar con los medios y las

ideas necesarias para su estudio.

El siglo XX asistirá a una renovación total de la Teoría de la Probabilidad, sus

aplicaciones y sus interpretaciones, configurando la última etapa del desarrollo del Cálculo de la

Probabilidad.

2.3.5. CONSOLIDACIÓN DEFINITIVA DEL CÁLCULO DE PROBABILIDADES (siglo

XX)

En los inicios del siglo XX entramos en el último período de la evolución de la Teoría de

la Probabilidad, en el que se llega a conformar sobre rigurosas bases matemáticas.

Durante el primer tercio del siglo XX van consolidándose definitivamente diferentes

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 77

escuelas de estadísticos y probabilísticos, en cuyo seno se produjeron la mayoría de los

desarrollos teóricos de esa época (García Alvarez, 1971). Entre estas escuelas, dos grupos son

significativos: la escuela de San Petersburgo y la escuela anglosajona.

* En Rusia encontramos un grupo muy significativo en el estudio de la Teoría de

la Probabilidad, integrado en la Escuela de San Petersburgo. Este grupo, encabezado por

Chebishev, inició su andadura al final del siglo XIX; sus trabajos pueden considerarse

"como el punto de partida de todo el desarrollo contemporáneo ulterior de la teoría de probabilidades"

(Ríbnikov, 1987; p.462), que llevó definitivamente al Cálculo de Probabilidades al rango

de ciencia matemática. Markov y Liapunov desarrollaron las ideas de Chebishev. Entre

los logros más significativos de esta escuela está la demostración general y rigurosa del

teorema central del límite y la teoría de las cadenas de Markov, con aplicación a

numerosos campos y ampliamente estudiadas.

* La escuela anglosajona está representada por los trabajos teóricos desarrollados

por K. Pearson y la escuela biométrica, cuyo órgano de difusión era la revista

"Biometrika", fundada por Galton y Weldon, en 1901. Esta escuela contribuyó bastante al

desarrollo de la Teoría de la Probabilidad y a la creación de la moderna Estadística

(Pearson y Kendall, 1978). A ella se debe la fundamentación de nociones como

correlación, regresión, esperanza matemática, la introducción de otros como la dispersión

condicionada y el test de la chi-cuadrado para la bondad del ajuste en tablas de

contingencia. Una de las figuras más representativa es A. Fisher. Desarrolló los conceptos

de verosimilitud, aleatorización, modelo estadístico e introdujo la teoría del diseño

experimental y el método de análisis de la varianza. Las ideas estadísticas de Fisher

tuvieron un impacto inmediato en el análisis de datos científicos (García Alvarez, 1971;

Fienberg, 1992).

Con las armas matemáticas desarrolladas en el último siglo, la Teoría de la Probabilidad

dio el salto definitivo. En 1933 aparece la primera axiomática, formulada por A.N. Kolmogorov a

partir de la teoría de conjuntos y de la teoría de funciones, elevando la probabilidad a la categoría

de rama separada e identificable dentro de la Matemática, proporcionando por un lado los

fundamentos a la primitiva Teoría Clásica y, por otro, una poderosa base para la demostración de

resultados matemáticos en teoría estadística (Gigerenzer y col., 1989). En palabras del propio

Kolmogorov (1973) "la Teoría de Probabilidades se puede considerar como parte de una teoría más general que se

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 78

llama Teoría de la Medida" (p.298). La Teoría de la Probabilidad entra así en el dominio definitivo de

la Matemática pura.

El presente de la teoría de las probabilidades y sus aplicaciones

Durante este siglo, la Matemática se ha separado definitivamente de la realidad, del

mundo sensible, llegándose a las máximas cotas de generalización y abstracción. Las

investigaciones de los matemáticos tienen como fin último la Matemática en sí misma,

abandonando claramente su intención de buscar la verdad acerca de la naturaleza. Ello ha

provocado un progresivo distanciamiento entre la matemática pura y la matemática aplicada

(Kline, 1985). Dentro de esta tendencia, la Teoría de la Probabilidad ha tenido un desarrollo

significativo en este siglo formulándose distintas axiomáticas y alcanzándose un alto nivel de

abstracción. Paralelamente, el campo de sus aplicaciones ha continuado extendiéndose de forma

generalizada, lo cual ha generado graves controversias a la hora de interpretar sus resultados.

La Probabilidad y la Estadística son hoy dos de las ramas más fecundas de la Matemática.

A lo largo del siglo XX, el desarrollo de los modelos probabilísticos y estadísticos ha ocupado un

lugar relevante al lado de la matemática de los procesos deterministas, pero sin contacto entre

ellos; como dos códigos diferentes, uno estudiaba el orden y el otro el desorden en los fenómenos

de la realidad.

Un modelo válido para el estudio de distintos procesos aleatorios y de múltiples

aplicaciones es el movimiento browniano; su estudio ha conducido a la elaboración de

importantes instrumentos matemáticos para la investigación de procesos estocásticos en cualquier

disciplina en la que se estudie los efectos de una variable aleatoria. El movimiento browniano fue

observado por primera vez por R. Brown a primeros del siglo XIX, pero no ha sido hasta el

presente siglo cuando se han desarrollado los medios necesarios para estudiarlo y explicarlo. Al

suspender una partícula en un fluido, ésta se ve sometida al bombardeo continuo de las moléculas

del fluido, el efecto observado es una trayectoria desordenada y aleatoria de la partícula

reconocida como movimiento browniano. Su análisis ha contribuido a la comprensión de

sistemas dinámicos no lineales y ha sido aplicado en infinidad de campos, como en el estudio del

comportamiento de los precios de mercado o la evolución de los ecosistemas (Mandelbrot, 1988;

Lavenda 1990).

Otro campo actual de la Matemática donde se recogen las ideas de la probabilidad,

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 79

utilizado como modelo de análisis en múltiples situaciones, es la Teoría de la Decisión, producto

final de las reflexiones de Pascal sobre la problemática de la toma de decisiones. La Teoría de la

Decisión trata de fundamentar, bajo las leyes básicas de la Teoría de la Probabilidad, la forma

coherente de tomar decisiones en ambientes de incertidumbre, al considerar "el conjunto de todos los

acontecimientos posibles y asignarles probabilidades que traduzcan su mayor o menor plausibilidad" (Ekeland,

1992; p.149), donde la calidad de la información disponible sobre los posibles acontecimientos es

un factor decisivo a la hora de optar por una u otra opción.

Un instrumento fundamental de esta teoría es el teorema de Bayes, aplicado para reducir

la incertidumbre de las distintas situaciones, confrontando las probabilidades "a priori" con la

incorporación de información adicional (Lindley, 1977; Rosenkrantz, 1977; Hadley, 1979;

Scholz, 1983; etc). Este modelo de análisis, como ya indicamos en otra ocasión, puede ser útil

para estudiar la toma de decisiones de los individuos ante situaciones de incertidumbre. El

esquema del teorema de Bayes ofrece una oportunidad para el aprendizaje del conocimiento

probabilístico a partir de la experiencia y en contraste con las ideas intuitivas y previas de los

sujetos, llegando a determinar una probabilidad "a posteriori" de carácter más objetivo, desde una

probabilidad "subjetiva", reflejo de las creencias y conocimientos de los sujetos, y desde una

observación empírica (Steinbring y Von Harten, 1983). Es, por tanto, también, un instrumento

válido para el diseño de los procesos educativos, coherente con nuestra forma de entender el

aprendizaje.

Pero donde su aplicación ha tenido más claras repercusiones ha sido en el campo de la

Física. Son de capital importancia los trabajos de Maxwell sobre la aplicación de la Teoría de la

Probabilidad en el estudio de la Teoría Cinética de los Gases, en 1877, la que le llevó a la

formulación de la Mecánica Estadística: "una pequeña arruga se crea en el corazón mismo del orden físico"

(Morin, 1986; p.54). Teoría que tiene un papel determinante en la transformación de la

concepción del concepto de probabilidad, del significado de la propia Teoría de la Probabilidad y

de su objeto de estudio. Boltzmann, en 1909, desarrolló los fundamentos de la Mecánica

Estadística y formuló el concepto de entropía, "como una medida de la aleatoriedad, o del desorden, en un

sistema cerrado" (Hayles, 1993; p.63).

Es curioso observar que Maxwel y Boltzmann llegaron a la formulación de la misma

Mecánica Estadística partiendo de dos concepciones diferentes, tal como analiza Wise (1987).

Para Maxwel, la Mecánica Estadística era totalmente indeterminista y sus leyes de carácter

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 80

probabilístico, mientras que Boltzmann mantenía la tesis de las causas subyacentes de carácter

determinista para explicar el comportamiento de los sistemas. Realmente con su trabajo intentaba

demostrar la validez de la mecánica newtoniana a nivel molecular, sin embargo, abrió la puerta

del azar en el programa newtoniano (Fernández-Rañada, 1990).

En el estudio del movimiento de las moléculas de un gas, estamos ante un sistema

complejo con tantas variables que resulta imposible seguir la evolución de cada una de ellas; sólo

se pueden manejar variables a nivel macroscópico, que en realidad son el valor promediado de las

variables que afectan al conjunto de moléculas, como la presión o la temperatura. La Mecánica

Estadística formulada por Boltzmann y Maxwell enuncia leyes para magnitudes promedio y

asigna probabilidades a las variables y a los estados de las moléculas individuales. Esta fue la

primera ruptura del poder del mecanicismo, interpretación radical del determinismo newtoniano.

La concepción del concepto de probabilidad se transforma: pasa de ser un método de

ayuda "externo" a un medio de conocimiento básico. Se pone de manifiesto que la Mecánica

Clásica y la Teoría de la Probabilidad son ambas necesarias para explicar el estado de las cosas,

no pueden reducirse una a la otra (Steinbring, 1980a). Por otro lado, a partir de este momento su

objeto de estudio se modifica definitivamente, pasando del estudio de las distribuciones de

la probabilidad al estudio de los procesos estocásticos, considerados como la sucesión de

estados por los que pasa un "sistema" en unos instantes de tiempo; cuando el conjunto de instante

es finito, obtenemos un proceso estocástico en un tiempo discreto. El "sistema" puede seguir

distintas trayectorias, podemos estudiar la probabilidad de que el sistema se encuentre en un

instante determinado en un cierto estado, en función de la información disponible.

Después de la elaboración por Maxwell y Boltzmann de la Mecánica Estadística, la física

determinista sufrió un segundo gran golpe al proponer M. Plank su hipótesis cuántica: el

intercambio de energía entre materia y radiación de frecuencia "v" se hace por múltiplos enteros

de "hv", siendo "h" una constante universal. Esta hipótesis entra en contradicción con toda la

experiencia anterior de la física clásica, la naturaleza de la partícula se cuestiona, "su identidad se

disloca divida entre el estatuto corpúsculo y el estatuto de onda. Su sustancia se disuelve, convirtiéndose el elemento

estable en evento aleatorio, ya no tiene localización fija e inequívoca en el tiempo y en el espacio" (Morin, 1986;

p.55).

Años más tarde, Einstein justificó la ley de la radiación de Plank mediante la asignación

de probabilidades a los procesos elementales, a través de los cuales los átomos absorben o emiten

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 81

radiaciones electromagnéticas, introduciendo las probabilidades en el mundo atómico. Las

propiedades de los átomos, moléculas y otros objetos cuánticos no están definidas y no son más

que potencialidades más o menos probables: "La forma de los átomos y todos los procesos operados en éste

están sujetos a las leyes de la Teoría de la Probabilidad....Las ecuaciones de la mecánica cuántica permiten calcular las

probabilidades de estos procesos, comprobándolos luego con la experiencia" (Ponomariov, 1992; p.187). Un

dogma central de esta teoría es el principio de incertidumbre de Heisenberg (1959), que afirma

que hay una limitación fundamental en la exactitud con la que se puede determinar la posición y

velocidad de una partícula. La generalización de este principio ha tenido gran influencia en el

mundo de la filosofía, al tratar sobre los límites del conocimiento.

Sin embargo, tanto Plank como Einstein consideraban que las probabilidades usadas en

Física tenían un carácter puramente metodológico y sólo expresaban la ignorancia de los

verdaderos procesos deterministas subyacentes; es famosa la frase de Einstein recogida en gran

número de manuscritos: "Dios no juega a los dados". Ambos creían en la existencia de variables,

aún desconocidas, que describirían el mundo microscópico, y mientras éstas no fueran

descubiertas, la Teoría Cuántica no representa sino un estadio provisional de conocimiento en el

que las probabilidades constituyen un recurso útil mientras tanto, según la más pura esencia de la

filosofía laplaciana y del determinismo. Sin embargo, en las últimas décadas se ha comprobado

que las probabilidades de la Mecánica Cuántica son esenciales, y no reductibles a ninguna forma

de determinismo, es decir, no provienen de una relación causal subyacente (Fernández-Rañada,

1990; Ponomariov, 1992).

Sin embargo, la lógica subyacente en la Mecánica Cuántica presenta una desviación con

respecto a la lógica clásica que, según analiza Trillas (1980), proviene de la no-distributividad del

retículo. Esto ha provocado discrepancias a lo hora de aplicar en el campo de la Mecánica

Cuántica el Cálculo de Probabilidades, pues, como ya apuntábamos, su axiomatización está

construida dentro del marco de la lógica clásica.

La emergencia de nuevos modelos explicativos

La utilización de modelos probabilísticos como instrumento explicativo y de control de

gran número de sucesos es hoy una opción cada vez más generalizada, tanto desde el mundo

científico como desde las ciencias humanas y políticas. Pero el progresivo estudio de los

fenómenos socio-naturales ha permitido constatar la insuficiencia de dichos modelos para

estudiar lo indeterminado. Ello ha llevado al mundo científico a buscar nuevos modelos

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 82

explicativos.

Como afirma Gleick (1988), la contingencia, el caos y la imprecisión ocupan hoy una

parte considerable de la investigación científica en innumerables y variados campos. Su

desarrollo supera indiscutiblemente las posibilidades de los propios modelos probabilísticos.

En la realidad encontramos multitud de problemas y fenómenos que, por su naturaleza,

presentan diferentes grados de incertidumbre, imprecisión o vaguedad en algunos de su

elementos. El estudio de la probabilidad, como medida del azar, inició el análisis matemático de

fenómenos que presentaban cierta incertidumbre, focalizada en el conjunto de sus resultados.

Pero el continuo avance de la ciencia ha llevado al tratamiento de otros tipos de fenómenos que

comportan un cierto grado de incertidumbre o de imprecisión, aunque ligada a otros elementos.

Su estudio supone la ruptura con el esquema de la lógica clásica pues no pueden ser descritos en

su totalidad dentro del marco booliano y "requieren de la elaboración de modelos matemáticos que involucren

la vaguedad" (Trillas, 1980; p.33).

Desde una perspectiva matemática, la consideración del estudio de la vaguedad para la

modelización de ciertas situaciones supone la modificación y superación de planteamientos

lógicos anteriores. La lógica clásica, cuyo principio fundamental es la ley de la bivalencia, ya ha

sido alterada en anteriores ocasiones a lo largo de la historia.

Como ejemplo podíamos nombrar la lógica propuesta por los intuicionistas, los cuales no

admiten que todo enunciado tenga que ser verdadero o falso, pero a dichos enunciados no les

asignan otro valor de verdad. Rechazan, por tanto, el principio del Tercero Excluido. O también

la lógica subyacente en el caso de la Mecánica Cuántica, en la que la desviación viene por la no

distributividad del retículo. Admite, sin embargo, el principio de No-contradicción y el del

Tercero Excluido.

La lógica trivalente, como ejemplo de la multivalente, fue introducida por Lukasiewicz,

aunque luego han surgido otras lógicas terciarias. En ellas el valor 1/2 no está siempre definido

igual. Para Lukasiewicz, el 1/2 corresponde a las proposiciones contigentes. Otros autores lo

asocian simplemente a aquellas proposiciones sobre las que no se sabe si es verdadera o falsa

(Trillas, 1980). La no validez universal de los principios del Tercero Excluido y el de No-

contradicción, son las únicas propiedades reticulares que diferencian el cálculo proposicional

binario del cálculo proposicional de la lógica multivalente.

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 83

Las nuevas situaciones científicas imponen una falta de definición y de límites precisos en

las clases de objetos y fenómenos con los que tratan. Al irse difuminando los límites de las clases

de objetos, surge la idea de límite borroso o conjunto borroso, como conjuntos con distintos

niveles de nitidez. Cuanto mayor sea el número de valores, más suave será el progreso del valor 1

al 0, considerados como los extremos. Históricamente se ha ido percibiendo la necesidad de la

construcción de un lógica continua como base para la formulación de modelos matemáticos

alternativos (Negoita y Ralescu, 1975).

La teoría de los conjuntos borrosos, The Fuzzy Sets, propuesta por Zadeh (1965), puede

considerarse como un modelo matemático de la lógica multivalente de Lukasiewicz. Esta teoría

introduce el análisis de la vaguedad en el mundo de la modelización matemática, al tratar con

problemas en los que la fuente de imprecisión es la ausencia de criterios nítidos de pertenencia de

un objeto a una clase. Teoría en pleno desarrollo y cuyo campo de aplicación es cada vez más

interesante.

Las necesidades actuales, por ejemplo en el campo de la comunicación o de la

información, requieren del análisis de la interpretación de las opiniones, de las acciones, de los

juicios, etc. Todo ello comporta evidentes problemas de vaguedad. De hecho, la estadística

moderna, en sus estudios sobre las poblaciones, para el tratamiento de los datos ha debido tomar

como nítidos, conceptos y respuestas que en verdad no lo son.

Interesantes aplicaciones de esta teoría han tenido lugar en el tratamiento matemático de

los procesos de decisión en ambientes de incertidumbre. La mayoría de las veces tomamos

importantes decisiones basadas en una información incompleta. Al disponer de datos incompletos

o inciertos, y no tener la posibilidad de efectuar un estudio previo, situación habitual en el

entorno cotidiano, estamos ante unos márgenes importantes de vaguedad (Alsina y Trillas, 1990).

Como nos recuerda Trillas (1980), "el éxito de la teoría se ha producido en momentos en que la

economía, la sociología, la lingüística, la medicina o la psicología, requieren de un nuevo nivel de matematización para

seguir avanzando" (p.1).

Todo ello no deja de tener claras consecuencias en el campo educativo, dominado en la

mayoría de sus componentes por los presupuestos deterministas, bajo el marco de la lógica

clásica bivalente. Algunos de los elementos aportados desde esta nueva teoría, cuya lógica

subyacente es sustancialmente diferente, pueden ofrecer información relevante para los

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 84

profesores. Por un lado, un estilo de modelización matemática más adecuado para y en el aula y,

por otro, claves de análisis más acordes con los procesos que en dicha aula se desarrollan. Como

apuntan Alsina y Trillas (1990), muchas de las situaciones con las que nos enfrentamos

cotidianamente en un aula son difusas: "Nuestro lenguaje es esencialmente difuso. El proceso de aprendizaje es,

en algún sentido, una evolución con límites difusos" (p.17).

En la misma línea, el estudio de los fenómenos de la realidad socio-natural ha llevado a

un buen grupo de matemáticos, fisiólogos, biólogos, físicos, economistas, astrónomos y

sociólogos a ir conformando una forma diferente de conocer y comprender la complejidad de la

naturaleza, de la sociedad y de su evolución. Sus investigaciones han fraguado una nueva ciencia,

la llamada Ciencia del Caos, que ofrece una manera diferente de observar y estudiar los sistemas

naturales, introduciendo el azar y lo impredecible en la comprensión de gran parte de los

fenómenos de la realidad que surgen ante nosotros como aparentemente caóticos.

Para estudiar estos sistemas era también necesario el desarrollo de un nuevo modelo

matemático, las ecuaciones diferenciales no lineales, y era necesario avanzar desde el

conocimiento matemático en la Teoría General de los Procesos Estocásticos y las Estructuras

Fractales (Gleick, 1988); pero, como confirman Briggs y Peat (1990), para que realmente fuera

posible el desarrollo de las ecuaciones no lineales que nos sirven para ilustrar el caos, era

necesaria la aparición del ordenador de alta velocidad. A través del ordenador se puede simular la

complejidad para estudiarla; como comenta Wagensberg, en una entrevista, "el ordenador nos permite

simular un proceso de 20.000 variables de las que se quieren saber sus relaciones mutuas... Antes hubiera sido de locos

hacer este proceso" (Sousa, 1991; p.208). El uso de los ordenadores también ha facilitado el análisis

del formalismo analítico de los conjuntos borrosos en su aplicación a diferentes campos (Trillas,

1980).

El campo de sus aplicaciones, como ya referimos en el apartado anterior, es muy amplio,

como ejemplo podemos citar:

* En el campo de la Biología, el estudio de la dinámica de población dio origen a

una nueva disciplina, la Ecología, que a su vez desempeñó un papel decisivo en el

nacimiento de la Ciencia del Caos, destacándose en la década de los 70 el trabajo de R.

May. Este autor defendía la necesidad de introducir en la formación ordinaria de un

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 85

científico el estudio del caos, identificable en la terminología actual como el estudio de la

complejidad. May decía en la revista "Nature", en 1976, "la intuición matemática, que tanto se

cultiva, equipa mal al estudiante para enfrentarse con el extravagante comportamiento del más sencillo de los

sistemas no lineales" (recogido por Gleick, 1988; p.88).

* Otro campo de estudio importante donde el caos está dando grandes frutos es en

la Fisiología Humana. En el estudio del funcionamiento de ciertos sistemas aparecen las

llamadas estructuras fractales, "los fractales y el caos son materias asociadas con una disciplina

matemática llamada dinámica de sistemas no lineales, es decir, de sistemas que no responden a los estímulos en

proporción directa" (Goldberger, Rigney y West, 1990; p. 110). Cada vez que un proceso

caótico ha conformado un "contexto" es muy posible que tras de sí haya dejado una

estructura fractal. El caos produce estructuras fractales de manera natural, "dondequiera

hallemos caos, turbulencias y desorden, la geometría fractal está en juego" (Briggs y Peat, 1990; p.95).

En el cuerpo humano abundan las estructuras fractales: redes nerviosas, tubos

pulmonares, vasos sanguíneos, etc.; así como síntomas caóticos: arritmias

cardiovasculares, disfunciones respiratorias, etc. Fue en el campo de la cardiología donde

se hicieron las primeras investigaciones (Goldberger, Rigney y West, 1990), y en general,

podemos afirmar que el estudio de los sistemas dinámicos está teniendo un importante

papel en el progreso del conocimiento médico.

* En el campo de las Ciencias Sociales, resaltamos el estudio realizado por E.

Morin sobre la naturaleza del conocimiento. Su trabajo es un intento de ofrecer claves

para enfrentarse al desafío de la complejidad de los sistemas en general. El trabajo

transdisciplinar de E. Morin es una reflexión sobre el conocimiento, analizado desde las

aportaciones de las distintas áreas, en la que pone las bases de una nueva epistemología,

la "epistemología compleja". Introduce nuevos elementos y relaciones que configuran

otra manera de observar, pensar y transformar la realidad. Epistemología que, desde

nuestro propio modelo didáctico de referencia, modifica sustancialmente la interpretación

e intervención en los sistemas educativos.

El estudio del caos y la complejidad presente en los sistemas naturales ha roto las barreras

de las disciplinas científicas, en pocos años esta nueva ciencia y sus aplicaciones coparán gran

parte de las investigaciones relevantes. El fin de la noción clásica de certidumbre no significa la

crisis de la razón, sino el tránsito de una racionalidad fundamentalista - apoyada en la noción de

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 86

causalidad lineal y en una ontología atomista y mecanicista (paradigma del determinismo)- a una

racionalidad que no reduce el caos, la incertidumbre y la dispersión, sino que los convierte en

herramientas para el estudio de su relación con el mundo (paradigma de la complejidad). Hay

autores que mantienen que estamos ante una nueva revolución científica, un cambio de

paradigma en el sentido de Khun (1975); según Gleick (1988) puede ser la gran revolución del

siglo XX. Las implicaciones de este cambio en los hábitos de pensamiento de los sujetos es

evidente y resulta muy relevante a la hora de enfocar los procesos de enseñanza/aprendizaje.

En todo caso, como afirma Morin (1992), "estamos llegando a la era en la que el gran paradigma (el

de la ciencia clásica) experimenta erosión y usura, y en la que los procesos que él determinó en el universo científico-

técnico-burocrático provocan demasiadas manipulaciones e hipersimplificaciones" (p.229). Asistimos a una

crisis general de los fundamentos tanto del conocimiento científico como filosófico, realidad que

necesariamente impone una reflexión seria de todos aquellos que estamos dedicados a la

profesión docente, en los distintos niveles.

Pensar desde esta nueva categoría cambia sustancialmente nuestra apreciación y

conceptualización de la realidad. Desde ella "nuestra mente no sigue sólo una vía causal, lineal,

unidireccional, sino también, y a veces, sobre todo, un enfoque modular, estructural, dialéctico, gestáltico,

interdisciplinario, donde todo afecta e interactúa con todo, donde cada elemento no sólo se define por lo que es o

representa en sí mismo, sino, y especialmente, por su red de relaciones con todos los demás" (Martínez, 1993;

p.20).

A lo largo de las páginas anteriores hemos podido comprobar cómo la Ciencia, y con ella

la Matemática, ha adolecido de una ignorancia especial del mundo de la incertidumbre y ello ha

llevado a buscar justificaciones de muy distinta índole para explicar lo irregular y a construir

diferentes instrumentos para controlar lo desordenado o reducir/simplificar la incertidumbre. En

este proceso se ha gestado progresivamente la posibilidad de estudiar los aspectos aleatorios de la

realidad. Estudio que, evidentemente, ha alcanzado un lugar relevante como objeto de

conocimiento humano y, por tanto, como parte integrante de la necesaria formación básica de los

individuos del siglo XXI.

CuadroS 6: historia

En la revisión y reflexión del desarrollo de este campo del conocimiento matemático

(Cuadro 6), hemos ido detectando ciertos puntos

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 87

claves que, junto con los señalados en el apartado anterior, han condicionado de

alguna forma su evolución como son: las limitadas condiciones iniciales de su

aplicación; la atadura a fenómenos con espacio muestral finito y equiprobable; la

circularidad presente en sus definiciones; la no disposición de instrumentos

matemáticos idóneos; la relación interactiva entre la extensión del campo de

aplicaciones y su evolución teórica; o la presencia continua de la dicotomía

objetivo/subjetivo en lo referente al significado de la probabilidad en contextos

específicos. En el análisis de este último aspecto nos centramos a continuación.

2.4. LOS DISTINTOS SIGNIFICADOS DE LA PROBABILIDAD

Como acabamos de ver, los científicos y matemáticos han ido construyendo y

clarificando los fundamentos de la teoría matemática del Cálculo de Probabilidades, hasta

su constitución como una rama de la matemática pura, con estructura axiomática. La teoría

matemática de la probabilidad nos permite su obtención a través de un cálculo matemático.

Desde el mundo matemático, no es sino una función matemática desarrollada dentro de un

sistema axiomático-formal. Su objetivo principal, como indica Nagel (1979), es

posibilitarnos calcular a partir de ciertas probabilidades iniciales dadas otras probabilidades

desconocidas y más complejas. El problema es que si bien la teoría matemática permite

operar con las probabilidades iniciales, no resuelve el problema de cómo asignar esas

probabilidades iniciales a los sucesos simples, excepto en el caso de considerar un espacio

muestral finito y simétrico.

Por ser una teoría fundamentalmente matemática, su desarrollo ha correspondido a

los matemáticos que, en general, "se preocupan poco por establecer un puente entre la teoría matemática

que han desarrollado y las aplicaciones a las que se presta" (Fréchet, 1958; p.173). Aunque

habitualmente es a partir de los problemas del mundo natural y social como "la matemática

comienza su propia vida construyendo la teoría abstracta, sólo ocasionalmente se produce un `feedback'"

(Neymann, 1976; p. 149). Como consecuencia, se llega a establecer una separación entre el

mundo conceptual, a partir del cual surgen los axiomas y el mundo físico-natural y social, al

cual se aplican los resultados de la teoría.

Podemos considerar que la validez de los resultados obtenidos desde la teoría, al

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 88

aplicarla a la vida real, dependen de su interpretación, es decir de la concreción de su

significado. Las estimaciones de carácter probabilístico son útiles y usuales en la vida

cotidiana y en el mundo científico, son utilizadas en numerosas ocasiones para elaborar

juicios concernientes tanto a sucesos no observados o futuros, como para la formulación de

hipótesis imposibles de verificar (Black, 1984). El problema se nos presenta al dar

significado y validez a dichas estimaciones, ya sea en lo referente a las posibilidades de

ocurrencia de ciertas clases de eventos, ya sea en el dominio de la toma de decisiones en

situaciones de incertidumbre. Podemos afirmar que "Cualquiera que aspire a la racionalidad, debe

guiarse ante la incertidumbre por probabilidades: cómo se ha de hacer esto y con qué justificación son los

principales temas de la filosofía de la probabilidad" (Black, 1984; p.88).

Es, por tanto, "necesario encontrar una conexión entre esa función matemática abstracta y el

significado del término probabilidad en los distintos contextos donde es utilizado" (Gutiérrez Cabria, 1971;

p.108). Como nos recuerda Black (1984), la teoría matemática es neutral en relación con las

diferentes interpretaciones filosóficas que puedan darse del significado del término

"probabilidad". Pero ninguna teoría matemática puede ser útil sin una interpretación o

significado que nos sirva de puente con la realidad, que dé a sus términos indefinidos y

abstractos interpretaciones complementarias que conviertan a los axiomas en aserciones

significativas.

El término probabilidad no es unívoco en su interpretación; puede presentarse con

diferentes significados en los distintos contextos de la realidad donde es utilizado. En

ámbitos de la vida, como son: la conversación cotidiana, el campo de las teorías Físicas y

Biológicas, la rama de la Matemática Pura del Cálculo de Probabilidades, etc, pueden

aparecer interpretaciones diferentes de las estimaciones probabilísticas efectuadas, unas

más idóneas que otras para determinados contextos (Nagel, 1979). En la actualidad

podemos distinguir diferentes y complejos puntos de vista sobre el significado de la

probabilidad, provocados en gran medida por el alto rango de aplicaciones del Cálculo de

Probabilidades y la amplia variedad de fenómenos aleatorios que encontramos en la

realidad.

Son varias las filosofías que aseguran una comprensión verdadera de las

probabilidades (Ludwig, 1986). Actualmente podemos diferenciar dos grupos de

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 89

interpretaciones de la probabilidad, en función de la dicotomía subjetivo/objetivo. El punto

de vista subjetivo relaciona la probabilidad con el grado de creencia en las posibilidades de

un acontecimiento, esta creencia puede estar o debe estar garantizada por la evidencia; es

una concepción de carácter epistemológico. En el segundo grupo de interpretaciones se

relaciona la probabilidad con la frecuencia de ocurrencia de los sucesos y con la tendencia a

producir frecuencias estables que muestran ciertos sucesos, otorgándole un carácter

empírico. La probabilidad concebida tanto subjetiva como objetivamente no es más que una

interpretación, fundamentalmente con fines prácticos, de la noción abstracta utilizada en la

teoría matemática; el debate entre los subjetivistas y los objetivistas continúa (Fine, 1973).

Estas interpretaciones alternativas aparecen formuladas y desarrolladas en el siglo

XX pero, en realidad, son producto de la propia génesis del término y han ido apareciendo

implícita o explícitamente a lo largo de la historia.

Nuestro actual concepto de probabilidad nace, como ya hemos indicado, en el siglo

XVII con Pascal y Fermat. Desde su nacimiento surge ya con un carácter dual en sí mismo.

Por un lado, aparece relacionada con los grados de creencia (la apuesta de Pascal); por otro,

con el tratamiento de las posibles soluciones de ciertos problemas de juego (el problema del

reparto). Es significativo cómo desde su origen la probabilidad aparece con estas dos

facetas, como dos caras de una misma moneda. Una cara epistemológica aplicada a la

valoración de los grados de creencia razonable en ciertas proposiciones, la otra más de

carácter empírico, que concierne a las leyes estocásticas de los procesos indeterminados. En

algunos autores de la época hay un aspecto más marcado que otro, como por ejemplo: los

escritos de Huygens se centraban principalmente sobre problemas aleatorios; Leibniz sin

embargo, se centró más en una línea epistemológica. Pero en general esta dualidad de la

noción de probabilidad aparece en los autores más importantes como De Moivre, Bernoulli,

Laplace, Poisson, etc., cuyas contribuciones han sido significativas en la elaboración de la

Teoría de la Probabilidad. Información que podemos constatar en numerosos tratados de

historia del pensamiento científico en general y de la probabilidad en particular (Todhunter,

1965; Owen, 1976; Krüger y otros, 1987; Hacking, 1975; Hacking, 1991; Kline, 1992; etc.).

La probabilidad surgida en el siglo XVII era considerada como una categoría

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 90

epistémica, derivada del desconocimiento del hombre sobre los fundamentos de cierta clase

de acontecimientos, juegos de azar en un principio. Para neutralizar el problema que

conlleva dicha ignorancia, se buscaron formas de medir los grados de creencia en las

posibilidades de tal suceso, basados en los datos que se poseían sobre el hecho. La dualidad

entre lo objetivo y lo subjetivo no era percibida en este época, eran los primeros contactos

con la idea de "probabilidad" y ambas concepciones estaban muy unidas (Vázquez, 1982).

Bernoulli, en este mismo siglo, diferencia por primera vez de forma explícita dos tipos de

proposiciones de probabilidad, la subjetiva, relacionada con la creencia, y la objetiva,

relacionada con la observación ( Hacking, 1975).

En la primera definición explícita de una medida de la probabilidad, atribuida a

Laplace, hay una relación equívoca entre la esencia epistemológica y aleatoria de la

probabilidad. Como antes hemos indicado, todos los autores de esta época, asociaban la

probabilidad a los grados de certeza de una creencia y, sin embargo, su medida aparece

relacionada con el carácter aleatorio, considerando, en cierta forma, la frecuencia de

ocurrencia observada o esperada de unos determinados sucesos y recoge, implícitamente, la

necesidad de un espacio muestral limitado y simétrico.

En las primeras décadas de este siglo, estos dos planteamientos iniciales,

objetivo/subjetivo, se han desarrollado dando lugar a diversas teorías filosóficas, que se

diferencian, básicamente, por el significado que dan a sus manifestaciones sobre la

probabilidad; hay muchas circunstancias bajo las cuales cualquiera de las posibles

interpretaciones puede tener sentido, y no está clara la elección entre ellas (Kyburg, 1974).

Desde una perspectiva de naturaleza epistemológica/subjetiva, se han desarrollado diversas

escuelas de pensamiento, dos pueden considerarse como dominantes, la subjetiva o

personalista y la lógica. En contraposición, hay otro conjunto de teorías que han tomado

como base el carácter observable de los fenómenos/objetivos, son las llamadas

frecuencialistas o empiristas. Realmente, como ya hemos indicado, se trata de una

interpretación con fines prácticos y, como nos dice Fréchet, tanto unos como otros "la utilizan

para salir de la teoría y hacer posible su aplicación a la realidad" (Fréchet, 1958; p.232).

Aparte de estas tres posibles interpretaciones básicas, podemos considerar la más

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 91

vieja de las interpretaciones de la probabilidad, la llamada interpretación clásica

desarrollada sobre la propia elaboración de la Teoría Clásica, de probabilidades en la que se

percibe una distinción nítida en la dicotomía objetivo/subjetivo. Hay una última tendencia

que hemos dado en llamar la perspectiva axiomática, quizás la menos considerada como

una posible interpretación, pues es más bien un intento de eliminar la controversia

planteada por las distintas interpretaciones filosóficas. Desde esta perspectiva, bajo

cualquier fundamentación interpretativa del significado de la probabilidad, podemos

construir una axiomática asociada y manejarnos en ella. "Las propias leyes matemáticas (los

axiomas y definiciones de Kolmogorov) representan grados de creencia, frecuencias y grados de evidencia.

Podemos estudiar estas leyes por ellas mismas (matemática pura) o podemos adoptar una de las interpretaciones y

poner las leyes en uso (estadística o probabilidad aplicada)." (Shafer, 1992; p.93).

Cada interpretación admite una variedad de subinterpretaciones, especialmente en el

campo de las interpretaciones frecuenciales. El problema es determinar la idoneidad de cada

elección, en cada momento. Vamos a exponer a continuación una breve descripción de cada

una de las interpretaciones básicas, comenzando por la clásica como el inicio de toda la

conceptualización actual y terminando con la axiomática, planteamiento más ecléctico con

respecto a las interpretaciones filosóficas del tema.

Seguiremos los criterios propuesto por Good (1950) para poder clasificar las

distintas interpretaciones (Cuadro 7):

* Si la teoría que conforma puede depender o no de un sistema axiomático.

* Si se apoya en los grados de creencia de los sujetos y de sus apreciaciones

personales o en observaciones empíricas de los fenómenos.

* Y si asocia a la probabilidad un número o no.

Cuadro 7: características

2.4.1. INTERPRETACIÓN CLÁSICA

La interpretación clásica de la probabilidad esta asociada al desarrollo histórico de

la teoría matemática de la probabilidad, más explícitamente a la teoría expuesta por

Laplace, aunque ya en la obra de Bernoulli elaborada casi un siglo antes, encontramos

muchas de las nociones recogidas y organizadas por Laplace.

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 92

La palabra "probable", según Laplace, se refiere al estado de ánimo o del espíritu en

relación a una afirmación de la cual no existe completa certeza. Ninguno de nuestros

conocimientos es seguro, el grado de fuerza de nuestra creencia sobre una proposición dada

es su probabilidad. Esta noción de "grado de creencia o de confianza" aparece

implícitamente en la obra de Bernoulli, aunque en realidad se refiere más a los grados de

certeza de un proposición que a los grados de creencia en ella (Todhunter, 1965; Hacking,

1975).

En los escritos de los autores de esta época no queda claro cómo hubieran

interpretado de forma explícita el significado de la probabilidad. Sus reflexiones sugieren

que la concepción dominante era la consideración de la probabilidad como el reflejo de un

"grado de razonable creencia". Es decir, representaba el valor de la confianza que el sujeto

tenía en esa manifestación, elaborada desde los datos disponibles (Black, 1984). Dicho

valor quedaba reflejado en la definición de la medida de la probabilidad, dada

explícitamente por Laplace: la proporción que expresa la relación existente entre los casos

favorables y el conjunto de las alternativas igualmente posibles, en los sucesos estudiados.

Estas ideas fueron desarrolladas y sistematizadas por De Morgan quien relacionaba

directamente la probabilidad con un estado de ánimo referente a una proposición sobre la

cual no se tiene una absoluta certeza. Los diferentes grados de certeza son susceptibles de

ser medidos asociándoles un valor numérico. Para su cálculo proponía la definición

planteada por Laplace (Nagel, 1979).

Admitiendo esta definición, un gran filósofo de finales del siglo XIX, Peirce planteó

su posible sustitución por otra, para él más significativa: la relación entre los casos

favorables y los desfavorables, a la que denominó contingencia de un acontecimiento. "La

contingencia de un acontecimiento guarda una íntima relación con el grado de nuestra creencia" (Peirce,

1979; p.30), idea recogida también por Nagel ([recopilación], 1979) y por Hacking (1991).

En principio, el Cálculo de Probabilidades de los sucesos se reducía a problemas

combinatorios y condicionados a la existencia de un conjunto finito de sucesos elementales

con igual posibilidad; este condicionamiento según Fréchet (1958), era producto de su

origen ligado a los juegos de azar, donde los casos posibles habitualmente son

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 93

equiprobables.

Durante mucho tiempo, la definición de la medida de la probabilidad, más

comúnmente admitida ha sido la dada por Laplace. Es una definición incompleta pues sólo

facilita una forma práctica para calcular las probabilidades de algunos sucesos sencillos con

un espacio muestral limitado. Basada en la noción de equiprobabilidad, esta concepción

laplaciana impone una fuerte restricción en sus aplicaciones debido a dicha noción de

equiprobabilidad y es la finitud del espacio muestral. "Es inútil en los numerosos casos en que las

posibilidades a analizar no pueden inventariarse en un conjunto de alternativas simétricas" (Díaz Godino,

Batanero y Cañizares, 1988; p.21), situación muy común en la realidad cotidiana. Otra

objeción importante a esta definición, como se ha indicado anteriormente, es su carácter

circular; la probabilidad está definida en términos de alternativas equiprobables, pero

¿cómo puedo saber que dos probabilidades son iguales antes de definir lo que es

probabilidad? El propio concepto de equiprobabilidad tiene problemas filosóficos, no es

posible determinar que dos sucesos son equiprobables si no es apoyándose en un argumento

tautológico (Fréchet, 1958; Hawkins y Kapadia, 1984; Konold, 1991; etc.).

Fréchet (1958) plantea que esta interpretación de la probabilidad es la más simple

desde el punto de vista pedagógico y parece susceptible de ser utilizada como la

introducción en el mundo probabilístico desde la observación o análisis de casos muy

sencillos, relacionados generalmente con el mundo de los juegos de azar. Sin embargo,

cuando los niños llegan a la conclusión de que la probabilidad de sacar un 6 en un dado

cúbico es 1/6, su grado de expectación entra en conflicto con su experiencia, en la que

obtener un 6 puede costar un gran número de tiradas; el nivel de razonamiento matemático

para superar dichos conflicto no es simple, ni inmediato. Además, en un análisis más

profundo, la aproximación escolar a esta definición se encuentra con grandes escollos, por

un lado, el concepto de equiprobabilidad, si nos salimos del campo de los juegos de azar,

que en general entra en conflicto con la experiencia empírica de los más pequeños; y, por

otro, para su aplicación necesita de cierto conocimiento de las relaciones proporcionales y

de las fracciones, no accesibles en los primeros niveles de la educación (Díaz Godino,

Batanero y Cañizares, 1988).

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 94

En el aula tradicional la aproximación a la probabilidad se realiza desde un nivel

teórico, según Hawkins y Kapadia (1984), como un "a priori". De hecho, en muchos libros

de texto se refieren a esta definición de probabilidad como "probabilidad teórica". En

general, se consideran las posibles alternativas como equiprobables por definición, lo cual

puede provocar graves problemas a la hora de fundamentar su trabajo posterior y establecer

relaciones entre sus propios resultados experimentales y las ideas teóricas.

2.4.2. INTERPRETACIÓN PERSONALISTA

Desde esta concepción, el significado de la probabilidad se identifica con una

expresión de la creencia o percepción personal. Ante un mismo acontecimiento dicha

creencia puede variar de una persona a otra, pues estará en íntima relación con el conjunto

de conocimientos que posee cada persona en cada momento, lo cual lleva a plantear la no

existencia de estimaciones universalmente válidas (Black, 1984). "La probabilidad subjetiva es el

grado de creencia que mantiene una persona sobre un acontecimiento. Se basa en la evaluación del

acontecimiento realizada a partir del mejor uso de toda la información disponible por el sujeto y a partir de su

propia habilidad" (De Finetti, 1974; p.16). Su dominio formal se reduce al conjunto de

creencias de una persona determinada.

Aunque Savage la llama "personalista", hay muchos autores que la reconocen como

"subjetivista". Desde el mundo estadístico son reconocidos como bayesianos, por

considerar el teorema de Bayes el instrumento básico para la inferencia (Kyburg, 1974).

Ellos mismos se reconocen como tales, Savage en unos de sus trabajos dice "Nosotros los

bayesianos radicales, pretendemos demostrar que todo lo que tiene de atractivo la teoría frecuencialista de la

probabilidad, está implícito en la teoría personalista" (Savage, 1961; p.9).

Según De Finetti, los juicios de probabilidad son humanos y no tienen otra finalidad

que reglamentar nuestras acciones en función de lo que se prevé que ocurrirá, sin creer en

ello de forma categórica y generalizable. En la vida real las personas, ante cualquier hecho,

tienen alguna información que les permite tener unas opiniones previas sobre la ocurrencia

o desarrollo de los sucesos, opiniones generalmente no elaboradas desde relaciones lógicas.

Estas opiniones previas sólo pueden ser modificadas como resultado de una introspección,

de un cálculo o como respuesta de una nueva evidencia que entre en conflicto con la idea

previa del sujeto. Por tanto, los juicios probabilísticos son siempre subjetivos aún cuando se

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 95

basen en una información objetiva, pues dicha información será interpretada desde el

conjunto de conocimientos personales (Black, 1984). "Una manifestación probabilística es una

manifestación psicológica empírica, que será verdad o falsa de acuerdo al estado actual o idealizado de las

opiniones de una persona en un momento determinado" (Kyburg, 1974; p.1).

La aproximación bayesiana parece un excelente medio para seguir el rastro sobre

qué aspecto de las probabilidades previas tienen efectos sobre las probabilidades

posteriores. Como analiza Geymonat (1984), según los subjetivistas, el grado de convicción

que un sujeto tiene sobre la verificación de determinado acontecimiento se reflejará en su

conducta efectiva o potencial respecto a dicho evento.

La condición impuesta para la credibilidad de los juicios probabilísticos de un sujeto

es la coherencia. Es decir, el conjunto de los enunciados defendidos por una persona han de

formar un sistema coherente "personal", característica que la diferencia de las teorías

logicistas que estudiaremos a continuación. Se permite cualquier grado de creencia en

cualquier enunciado, pero entre ellos han de constituir un sistema coherente, de tal forma

que será necesario modificar alguna opinión y rectificar una valoración si el sistema

resultara incoherente. Esto es lo que denominan grados de creencia o confianza rectificados

(Gutiérrez Cabria, 1971).

En conclusión, como sugiere Díaz Godino, Batanero y Cañizares (1988), desde esta

perspectiva la probabilidad no está unívocamente determinada, no se apoya en la

repetibilidad de ningún suceso, sino sobre un cuerpo de evidencia analizado desde la

creencia personal. "Para ellos el análisis probabilístico se aplica a los juicios, no a las cosas mismas"

(Trillas, 1980; p.67). La probabilidad es simplemente un argumento que juzga la

posibilidad de ocurrencia de distintas alternativas. El peso de este argumento depende del

conocimiento que posea cada persona antes de los acontecimientos, es una interpretación

subjetiva y generalmente "a priori", y en todo caso, rectificada posteriormente por la

experiencia, aplicando la relación bayesiana (Ludwig, 1986).

El problema surge al plantear la necesidad de la cuantificación. ¿Cómo cuantificar

un grado de confianza o creencia? Los teóricos subjetivistas han adoptado varios

mecanismos para solventarlo.

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 96

Partiendo del supuesto de que las estimaciones probabilísticas son únicas, pues son

personales de cada individuo, su valor numérico, si existe, también ha de ser único. De

Finetti mantiene que estas estimaciones no tienen valor objetivo, son simplemente grados

de confianza en un enunciado. Sin embargo, Ramsey, para determinar los valores de estos

grados de confianza, sugirió un curioso método conocido como "la apuesta del holandés",

consistente en determinar su valor numérico en función de los puntos de ventaja que la

persona en cuestión está dispuesta a dar a un resultado sobre otro, o dicho de otra forma, "la

cantidad máxima que un sujeto está dispuesto a "apostar" en favor de la verdad de una aserción" (Gutiérrez

Cabria, 1971; p.115), que representa el valor de su confianza en esa verdad.

Es sorprendente comprobar que si se considera el sistema de valores o creencias de

una persona como un conjunto coherente y consistente, dichos valores respetan los

principios de probabilidad total y de la composición de probabilidades, es decir, obedecen

las reglas de la adición y multiplicación de una teoría axiomática de la probabilidad. Esto

permite a los subjetivistas acceder a la axiomatización, con la particularidad de que las

probabilidades primarias que intervienen en los cálculos matemáticos reflejan las opiniones

diversas de los diferentes sujetos (Black, 1984). La probabilidad que se aplica a los juicios,

presenta discrepancias técnicas con respecto al cálculo de Kolmogov, centradas en el

concepto de aditividad no-finita (Trillas, 1980).

Estas teorías están en entredicho a la hora de efectuar un análisis correcto del

significado de los enunciados de probabilidad en general. Fréchet, en su análisis sobre el

carácter subjetivo de las probabilidades, nos dice al respecto: "Proponer hacer del Cálculo de las

Probabilidades el estudio de las opiniones individuales, equivale a destacar más la necesidad de las nociones

objetivas en el cálculo de las probabilidades. Siempre que este estudio de las opiniones sea en sí mismo objetivo

podrá ser interesante; pero así se tendrá psicología y no cálculo de probabilidades" (Fréchet, 1958; p.233).

Pero como nos dice Konold (1991) "las teorías subjetivistas son teorías `normativas' que especifican

cómo una persona `racional' debe formular y modificar sus creencias a la luz de nueva información; no son

teorías `descriptivas' de cómo los individuos actualmente formulan y modifican sus probabilidades subjetivas."

(p.143).

El desarrollo de esta interpretación ha tenido una influencia decisiva en la

elaboración de la Teoría de la Decisión, fundamentalmente en la parte de dicha teoría que

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 97

se basa en la utilización sistemática del teorema de Bayes, que nos permite cuantificar

nuestro grado de confianza en un determinado suceso. Ante una situación de incertidumbre,

en la que es necesario tomar una decisión, tratamos de eliminar o al menos reducir el riesgo

de elegir una opción errónea, obteniendo información relevante sobre las condiciones de

dicha situación. Para su coordinación y consideración es útil el teorema de Bayes

estableciendo una relación entre la probabilidad "a priori", que expresa la incertidumbre

inicial, y la información adicional, proporcionada por los datos que resultan del nivel

experimental. Esta relación permitirá revisar y modificar la probabilidad inicial, calculando

una nueva probabilidad "a posteriori" que refleja nuestro nuevo grado de confianza, dando

lugar a lo que hoy llamamos la inferencia bayesiana (Rivadulla, 1991). Sin el teorema de

Bayes es difícil revisar coherentemente las probabilidades a la luz de la información

proporcionada por los datos (Lindley, 1977).

Como ya indicábamos en el apartado anterior, el teorema de Bayes describe cómo

aprendemos, o cómo deberíamos aprender, pues nos muestra cómo debemos modificar

nuestras opiniones, creencias o hipótesis, a través de la interacción con la nueva

información, dando lugar a nuevas ideas revisadas o a mantener las iniciales si los datos

empíricos las confirman. Idea también planteada por Steinbring y Von Harten (1983) en su

trabajo sobre el aprendizaje del conocimiento estocástico. En todo caso, es un buen método

para procesar datos.

Esta perspectiva subjetivista, como analizan Díaz Godino, Batanero y Cañizares

(1988), puede tener un papel en la enseñanza en la medida que sólo depende de

comparaciones de verosimilitud percibidas, sin reglas restrictivas. La propuesta de la

apuesta, por ejemplo, es recogida por Freudenthal (1973) como una idea válida para la

enseñanza de la probabilidad, pues convierte en algo más concreto las probabilidades de los

sucesos. A cada suceso se le puede asignar una probabilidad que toma un cierto valor

numérico con la condición de que uno esté preparado para aceptar una apuesta basada en

dicha asignación. Según Hawkins y Kapadia (1984), es un criterio plausible intuitivamente,

y más útil con la introducción de un oponente real, ya que desde el punto de vista del niño

es más fácil tener un oponente concreto que pensar en términos supuestos. Retomando la

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 98

idea de coherencia, estos autores piensan que "es donde la probabilidad subjetiva ofrece un real

avance al proveer la oportunidad de aprender desde la experiencia" (p.372), y tiene por tanto una clara

aplicación didáctica.

2.4.3. INTERPRETACIÓN LÓGICA

Estas teorías lógicas descienden directamente del punto de vista clásico de Bernoulli

y Laplace. Tienen su origen en la búsqueda de soluciones a los problemas de aplicación de

la Teoría Clásica en casos no equiprobables.

El primero en formularla explícitamente fue Keynes, el cual, siguiendo a B. Russell,

consideraba que la probabilidad era un atributo de las proposiciones más que de los

acontecimientos y no de una sola proposición en sí misma, sino, como nos dice Nagel

(1979), de una relación entre proposiciones. Para Keynes (1979), el conocimiento probable

es aquél que creemos factible de manera racional, tomando como base la evidencia

disponible. Es decir, la probabilidad de una manifestación es algo que está en función de un

cuerpo de evidencia.

Las manifestaciones probabilísticas son construidas a través de un lenguaje que

expresa la siguiente relación, "dada una manifestación M y un cuerpo de evidencia e, hay

exactamente un número real P, determinado por condiciones lógicas, tal que la probabilidad

de M relativa a e sea P" (Kyburg, 1974).

Un enunciado de probabilidad básico del tipo "La probabilidad de M sobre e, es p",

es una relación lógica entre una pareja de enunciados: la proposición evidente y una

proposición considerada como hipótesis a partir de dicha evidencia, y que sólo existe en

virtud de su significación (Gutiérrez Cabria, 1971). La probabilidad es, por tanto, un dato "a

priori", apoyado en la evidencia cuya validez debe buscarse en la experiencia; desde esta

perspectiva se afirma en general que "la probabilidad varía con la evidencia" (Black, 1984; p.129).

No cabe la menor duda de que hay una cierta relación con la interpretación

personalista, pues un cuerpo de evidencia significativo para un sujeto es aquél que es

accesible en un momento determinado desde su propio cuerpo de conocimiento. Pero la

interpretación lógica considera que la probabilidad de una manifestación, relativa a ese

cuerpo de evidencia, viene determinada por reglas lógicas, independientemente de si

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 99

coincide o no con la consideración de un sujeto determinado (Kyburg, 1974).

Es decir, desde estos planteamientos, la probabilidad representa el grado de creencia

"racional" o tasa de confianza que es prudente conceder al proceso que nos lleva, desde un

conjunto de proposiciones conocidas a otras desconocidas, es por tanto considerada como

una relación especial entre proposiciones. El dominio formal de una teoría lógica es el

conjunto de relaciones entre los enunciados, más que los enunciados en sí mismos.

Los logicistas en general consideran a la probabilidad como una "guía en la vida", o

como dice Kyburg (1974) " una guía de expectativa racional" (p.319). Keynes, en su trabajo sobre

la utilización de la probabilidad en el comportamiento humano, considera que las

proposiciones sobre probabilidad nos aportan datos para decidir la conducta supuestamente

más correcta, pero no nos aseguran el éxito, simplemente son la hipótesis sobre la cual es

más racional que actuemos (Kyburg, 1974; Keynes, 1979).

Todos los autores defensores de este enfoque, Keynes, Carnap, o Jeffreys, han sido

realmente los artífices de lo que hoy conocemos como lógica inductiva cuyo germen, según

Hacking (1975), ya estaba en lo que Leibniz denominaba "New Kind of Logic"; pero quien

dedicó el mayor esfuerzo a la justificación y fundamentación de la lógica inductiva fue, sin

lugar a duda, Carnap. El enfoque probabilístico de la inducción fue desarrollado por Keynes

y por Carnap (Rivadulla, 1991).

La inducción está en la base de gran parte de nuestras creencias y acciones

cotidianas. Si analizamos nuestros pensamientos y conductas usuales, observaremos como

en ellas hacemos un gran número de inferencias inductivas, actuamos generalmente sobre la

base de creencias que han sido conformadas inductivamente.

El estudio de los procedimientos inductivos se ha desarrollado extraordinariamente.

En el siglo XVII, F. Bacon fue el primer autor que apoyó, de forma explícita, el desarrollo

de una lógica inductiva paralela a la lógica deductiva imperante, insistiendo en la necesidad

de completar el método inductivo a través de la experimentación (Losse, 1986), aunque sus

planteamientos no tenían relación con la probabilidad. Desde entonces se han sucedido

numerosos intentos de formalizar el proceso de generalización a partir de datos de la

experiencia, aunque aún hoy "no se dispone de ninguna filosofía completamente satisfactoria de la

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 100

inducción" (Black, 1984; p.75). El concepto de inducción lo han definido e interpretado

numerosos científicos y filósofos de la ciencia, defendiendo distintos modelos explicativos,

producto de las diferentes interpretaciones y concepciones de la inducción, y en función de

los contextos científicos en los que aparece (Ortiz, 1993).

Geymonat (1984), en su gran obra sobre la historia del pensamiento filosófico y

científico en el último siglo, nos dice que "el tema de la probabilidad y de la inducción constituye el

tema central de la filosofía de la ciencia y de la filosofía en general" (Tomo I, p.222). Existen grandes

filósofos de las ciencias, tanto en el grupo de los partidarios del procedimiento inductivo,

Reinchebach, Carnap o Hintikka, como en el grupo de sus detractores. Un ejemplo

significativo de este último grupo es K. Popper, quien nos plantea en su libro La lógica de

la investigación científica, que las hipótesis científicas nunca pueden ser verificadas

definitivamente por la evidencia observable, sólo en todo caso confirmarse.

Estos planteamientos pueden considerarse como válidos, pero, como analiza Nagel

(1979), no cabe la menor duda de que son incompletos. Nagel plantea un interrogante,

¿cómo podemos construir la proposición relacionada con la evidencia sin tener en cuenta la

información que nos proporciona la noción de frecuencia?, o dicho de otra forma, ¿cómo

podemos cuantificar el grado de confianza racional en una proposición de carácter

probabilística basada en la evidencia?.

Keynes, en su A Treatise on Probability, argumenta que muchas asignaciones y

comparaciones de probabilidad son necesariamente cualitativas y no pueden ser

representadas por números (Hacking, 1975). Afirma la complejidad, y en algunos casos la

imposibilidad, de cuantificar la probabilidad debido al gran número de dimensiones que es

necesario considerar y a su difícil evaluación. Enuncia conceptos como el de esperanza

matemática, relacionado con la ganancia esperada y con la probabilidad de obtenerla, pero

su valoración deberá estar matizada por el valor de los "pesos" de los argumentos en que se

apoya, es decir, de la evidencia en la que se fundamenta dicha probabilidad y además en el

"riesgo" que supone la toma de una decisión concreta, a la hora de actuar (Keynes, 1979).

Carnap, al contrario de Keynes, no rechaza el concepto de "probabilidad

estadística", relacionada con la frecuencia en una serie de acontecimientos, pero la

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 101

considera de carácter descriptivo, mientras que a la probabilidad considerada como el grado

de confirmación de la relación entre una hipótesis y un cuerpo de evidencia le da una

finalidad analítica (Geymonat, 1984). Carnap se sitúa, por tanto, en un punto intermedio

entre la postura lógica y la posición frecuencialista que analizaremos a continuación.

El problema de la cuantificación fue abordado por Carnap en su libro Logical

Foundations of Probability, dedicando especial atención a la explicación de la noción

cuantitativa del "grado de confirmación", como él lo llama, de una hipótesis "h" con

respecto a una evidencia determinada "e", define las medidas de "h" y "e" como

valoraciones adecuadas en un lenguaje elegido y establece una expresión de relación entre

ellas: c(h,e) = m(h,e) / m(e). La necesidad de elaborar una axiomática llevó a Koopman

(1940) a intentar elaborar una lógica de la probabilidad cualitativa, recogida por Fine

(1973).

Este enfoque del significado de la probabilidad, es difícil de aplicar o utilizar en el

contexto de la enseñanza elemental. Podría afrontarse, en cierta manera, dentro del

desarrollo del pensamiento inductivo del niño, ya que la mayoría de los conocimientos que

el niño adquiere en contextos de experiencia son elaborados a través de procesos

inductivos.

2.4.4. INTERPRETACIÓN FRECUENCIAL

Surgió como consecuencia de las múltiples aplicaciones de la probabilidad a los

fenómenos sociales y físicos, el primer autor que consideró y definió la probabilidad desde

esta perspectiva de forma explícita fue Venn, y sus mayores promotores han sido Von

Misses y Reichenbach. Sin embargo, una anticipación de esta teoría la tenemos en las ideas

Locke y de Peirce (García Alvarez, 1971; Geymonat, 1984; Black, 1984).

Las manifestaciones probabilísticas representan verdades estadísticas sobre el

mundo, su verdad o falsedad no tiene nada que ver con la opinión de ninguna persona o con

la existencia de un cuerpo de evidencia, sino solamente con el estado de las cosas (Kyburg,

1974).

Fue J. Venn quien recogió por primera vez de forma explícita la definición de

probabilidad en relación a la frecuencia relativa de la ocurrencia de un evento en una serie

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 102

de eventos "a la larga", pero fue realmente Von Misses quien definió la probabilidad como

el límite de la frecuencia relativa en un colectivo, en ella es básica su "idea original y

controvertida de "Kollektiv", una serie de eventos en la que los caracteres de interés ocurren al azar" (Black,

1984; p.133). La probabilidad sólo puede ser aplicada a colectivos que satisfagan la

condición de aleatoriedad y en los que además su tendencia a la estabilidad, es decir a

converger hacia un valor determinado, sea observable (Gutiérrez Cabria, 1971).

Los frecuencialistas niegan todo hiato lógico entre frecuencias y razones, sus

planteamientos se apoyan en la consideración de que, si bien ante la repetición de sucesos

de iguales características nos encontramos con un primer desorden aparente, a la larga, en

un número infinito de pruebas, surge una cierta regularidad y la aleatoriedad inicial tiende a

estabilizarse (Díaz Godino, Batanero y Cañizares, 1988). Esta relación con el concepto de

infinito y la imposibilidad real de trabajar con grupos de sucesos infinitos, ha originado

grandes controversias filosóficas.

El dominio formal de estas teorías son las colecciones de clases de sucesos

aleatorios, o posibles resultados experimentales, en los que la frecuencia converge hacia un

determinado parámetro; no se puede atribuir valor a las estimaciones de probabilidad

realizadas independientemente de la idea de repetición de pruebas y con referencia a la

frecuencia relativa. Los objetivistas o frecuencialistas consideran como dato irrelevante

para el Cálculo de Probabilidades toda percepción de incertidumbre no relacionada con la

información que aporta la ocurrencia de sucesos repetidos en idénticas condiciones, es

decir, con la verificación empírica (Bisson, 1983). La probabilidad es una propiedad de la

clase, no de los elementos.

Desde el sentido común, el conocimiento de las frecuencias relativas de ciertas

propiedades tiene una influencia clara en los juicios probabilísticos, pero hay numerosas

situaciones en la realidad en las que no es posible la repetición indefinida del sucesos en

iguales condiciones (Geymonat, 1984). Por otro lado, desde sus planteamientos no se

reconoce el significado de la probabilidad de un suceso aislado, lo que representa un grave

problema y restringe excesivamente el campo de aplicación del concepto de probabilidad

(Díaz Godino, Batanero y Cañizares, 1988). Como analiza Shafer (1992), "muchas personas

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 103

ponen objeciones por la conocida limitación del campo de aplicación de la interpretación frecuencialista.

Numerosos sucesos sobre los cuales desearíamos conocer su probabilidad, no tienen probabilidad en el sentido

frecuencial" (p.96).

Esta interpretación ha recibido un gran número de críticas pues, en la realidad, es

difícil encontrar series de eventos que cumplan las condiciones impuestas, lo que hace de

los enunciados de probabilidad algo que no es verificable, pero tampoco rechazable,

empíricamente (Gutiérrez Cabria, 1971). En general, es una perspectiva que guarda especial

interés para los estadísticos y científicos dedicados al estudio de grandes conjuntos de

sucesos (Black, 1984).

Autores como Neymann, Cramer, Popper o Hacking han propuesto definiciones

alternativas con el objetivo de superar las controversias filosóficas planteadas por la

definición de Von Misses: dando un papel relevante o no al tamaño de la clase de

referencia; o bien considerando la probabilidad como un valor o como una tendencia

(Kyburg, 1974). Pero en cualquiera de los casos, la probabilidad es considerada como una

manifestación empírica sobre el mundo de las cosas.

A pesar de las críticas, esta interpretación cuenta con un gran número de defensores,

por su directa y precisa utilización en ciertos tipos de situaciones. Por ejemplo, si tratamos

con fenómenos de masas, en general no hay mucha controversia en su uso y la

interpretación estadística es fácil. O en el caso de referirnos a un número finito de sucesos

equiprobables, pues entonces tiene un sentido análogo al de "proporción", relacionado con

la definición clásica y muy utilizado en el lenguaje cotidiano (Gutiérrez Cabria, 1971). Sin

embargo, su aplicación no es posible en el caso de sucesos únicos o aislados, como por

ejemplo, la posibilidad de aprobar un examen o de encontrar un trabajo; y además, supuesta

una serie de sucesos, la estimación de la probabilidad es difícil de realizar de una manera

precisa, pues el número de pruebas es siempre limitado y a veces no es factible la repetición

en iguales condiciones. La constancia de las condiciones es algo que no es muy fácil de

garantizar en sucesos reales, como en el caso de contraer una enfermedad, o cualquier otro

tipo de situación repetitiva en la vida cotidiana.

Si nos referimos al mundo educativo, este enfoque puede ser adecuado para trabajar

en la escuela fenómenos con una fuerte evidencia empírica o experimental, como pueden

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 104

ser las situaciones de juego. Esto le daría una ventaja sobre la utilización directa de las

nociones teóricas planteada desde la aproximación clásica; no obstante, tienen graves

problemas conceptuales y prácticos a la hora de ser trabajado en la escuela. En gran número

de libros de texto es reconocida como "probabilidad empírica" y a menudo es la

interpretación apoyada implícita o explícitamente desde gran parte de las propuestas

curriculares, como comprobaremos en el Capítulo siguiente.

2.4.5. PLANTEAMIENTO AXIOMÁTICO

Desde esta perspectiva, se considera al Cálculo de Probabilidades como un modelo

idealizado en el que la probabilidad es un "ente" al que tan sólo se le impone la condición

de satisfacer un sistema de axiomas (Black, 1984). Es más bien, como hemos indicado, un

intento de superar la controversia filosófica que una interpretación del significado de la

probabilidad propiamente dicha. Este planteamiento es defendido por algunos teóricos,

según los cuales el conflicto entre las distintas interpretaciones es simplemente aparente:

"La axiomatización supone abstracción y conceptualización y esto implica una sustitución de objetos empíricos

por ideales. La teoría empieza después de realizar esta sustitución" (Gutiérrez Cabria, 1971; p.131). La

probabilidad de un suceso, en la teoría matemática, es un valor numérico asociado a dicho

suceso, en palabras de Cramer (1958) "una probabilidad es una cantidad numérica que satisface tales y

tales axiomas" (p.14).

Las bases de toda teoría axiomática son los cinco axiomas o principios ya

formulados por Laplace, reducidos hoy a tres:

1) Axioma de no negatividad: para todo suceso la probabilidad está comprendida

entre 0 y 1.

2) Axioma de normalización: el suceso seguro tiene probabilidad 1.

3) Axioma de aditividad: si dos sucesos son incompatibles entre sí, la

P(A+B)=P(A)+P(B).

A partir de estos tres axiomas, Kolmogorov construyó toda la Teoría de la

Probabilidad, en su libro Foundations of the Theory of Probability, publicado en 1950, y en

el que representa a los sucesos como elementos de un conjunto y donde la probabilidad es

una medida normada definida sobre dicho conjunto. La axiomática de Kolmogorov no es

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 105

una teoría filosófica, sino una matematización independiente de las posibles

interpretaciones.

La teoría axiomática, como indicábamos al principio, no mantiene relación en sí

misma con los fenómenos naturales; de hecho, el término probabilidad podría ser sustituido

por otro cualquiera sin que se modificase sustancialmente la teoría. Desde estos

planteamientos se defiende que los diferentes significados de la probabilidad son superados

al poder construir una axiomática que respete los tres principios básicos, desde la cual

podemos calcular lo que Hawkins y Kapadia (1984) llaman "probabilidad formal".

En otras palabras, las hipótesis desde las que se parte para construir una teoría

pueden recoger concepciones tanto subjetivas como objetivas, lo realmente necesario es

elaborar una estructura axiomática que reúna las condiciones precisas de consistencia e

independencia propias de una teoría axiomática (Díaz Godino, Batanero y Cañizares, 1988).

Aunque generalmente cuando hablamos de teoría axiomática pensamos en una axiomática

de la probabilidad relacionada con los sucesos y la frecuencia relativa de los mismos, la

axiomatización no es privativa de las probabilidades empíricas, desde cualquier perspectiva

es posible la elaboración de una axiomática. Un trabajo significativo para la

fundamentación de la teoría de la probabilidad desde las diferentes perspectivas es el

presentado por Fine (1973) en su libro Theories of Probability, en el que hace un análisis de

todas las axiomáticas correspondientes a las diferentes perspectivas tratadas.

Pero, esta propuesta no resuelve el problema planteado por la existencias de

distintos significados para un mismo término, es más bien una evasiva del problema ya que,

al centrar la atención sobre las condiciones de elaboración del modelo matemático que ha

probado suficientemente su utilidad, se deja de lado, como bien recuerda Black (1984), el

origen de la controversia sobre el significado de la probabilidad: establecer un puente de

unión entre la teoría matemática y las aplicaciones prácticas en los diferentes contextos en

donde se presenta. Si bien las consideraciones acerca de la función probabilidad son

independientes de la interpretación que se le quiera dar, la aproximación de la que parte el

sujeto sí que tiene un profundo efecto sobre sus condiciones y sobre los problemas que

puede considerar como accesibles y, por tanto, resolubles desde modelos probabilísticos

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 106

(Kyburg, 1974).

Las dificultades conceptuales que conlleva una aproximación axiomática a la

probabilidad y, su lejanía de la realidad, no hacen posible su tratamiento en la enseñanza

Primaria, donde pensamos que el nivel experiencial debe primar por encima de otros

factores conceptuales.

2.4.6. CONCLUSIONES

En definitiva, ante cualquiera de los análisis presentados no cabe la menor duda de

que la probabilidad es y seguirá siendo desconcertante. El interés que siempre ha suscitado

el concepto de probabilidad y su significado está relacionado con la implicación directa que

tiene con el no menos controvertido concepto de racionalidad. Como plantea Prigogine

(1986), en el mundo de hoy "la racionalidad ya no puede seguir siendo identificada con la "certeza", ni

tampoco la probabilidad con la ignorancia" (p.183). La probabilidad es una característica propia de

los razonamientos no-demostrativos, determinar la validez y el significado de dichos

razonamientos es papel de la filosofía de la probabilidad. A lo largo de las páginas

anteriores hemos podido observar como es un tema sin resolver y sobre el cual se siguen

manteniendo grandes discusiones.

Cada una de las perspectivas analizadas tiene su ámbito de explicación. Hadley

(1979) realiza un rápido análisis de las distintas interpretaciones considerándolas como un

continuo. En un extremo está la interpretación subjetiva que tiene su aplicación más

evidente en sucesos únicos e irrepetibles, en el otro extremo la frecuencialista, cuyo ámbito

de aplicación son los eventos que pueden repetirse indefinidamente (Cuadro 8). La realidad

se mueve entre los dos extremos, ante un fenómeno cotidiano, "se dispondrá de alguna

información frecuencial, pero que no será suficiente, por lo que será preciso una cierta dosis de juicio personal"

(Díaz Godino, Batanero y Cañizares, 1988; p.28).

Una figura tan representativa en el estudio y reconocimiento del papel de la

incertidumbre como Heisenberg, plantea que "la función de la probabilidad contiene el elemento

objetivo de la tendencia y el elemento subjetivo del conocimiento incompleto " (Heisenberg, 1959; p.53).

En su análisis mantiene que las manifestaciones de probabilidad en ciertos sistemas

dependen de nuestro conocimiento del sistema, pero éstas deben ser comprobadas por la

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 107

repetición de experimentos durante algún tiempo para poder ser consideradas.

Esta ambigüedad en el significado del concepto tiene importantes repercusiones en

el campo educativo. Como analizan Steinbring (1984) y Konold (1991), el significado

conceptual de la probabilidad no puede estar basado simplemente en su definición

matemática, como habitualmente ocurre con otros Cuadro 8: Interpretaciones

conceptos; la dificultad no está centrada en la definición sino en cómo el concepto es

interpretado y aplicado apropiadamente en situaciones específicas. Steinbring (1984)

comenta una "curiosa" propiedad de la probabilidad: tan pronto tratamos de caracterizarla

por medio de una definición matemática precisa, se pierde el carácter estocástico; ya no es

un asunto del azar. La comprensión del sentido probabilístico de la realidad no puede ser

reducida a una simple definición matemática. La Educación Matemática ha de tener en

cuenta la idea de que no hay una única y universal interpretación de la probabilidad. Las

primeras intuiciones de la probabilidad que presentan los sujetos son típicamente subjetivas

e incoherentes, y suelen constituir una fuente fundamental de dificultades, al enfrentarse

con los datos reales de la experiencia o con los constructos teóricos formalmente definidos:

"Lo estocástico, en la escuela, debe orgánicamente combinar ideas desde diferentes tradiciones filosóficas"

(Steinbring, 1984; p.69).

Desde lo expuesto en las líneas anteriores, parece plausible pensar que todo

camino fructífero, para un idóneo desarrollo de las ideas probabilísticas de los sujetos,

ha de apoyarse en estructuras que recojan las distintas aproximaciones al significado

de la probabilidad. Aspecto que consideramos importante, desde una perspectiva

didáctica, para la elaboración del conocimiento probabilístico y que, junto con los

datos extraídos en los dos apartados anteriores, pueden conformarnos una visión

general sobre la naturaleza del conocimiento probabilístico.

Reflexión que intentaremos reflejar a continuación en el apartado 2.5, a la luz de

todo el estudio realizado.

2.5. CARACTERÍSTICAS DEL CONOCIMIENTO PROBABILÍSTICO.

IMPLICACIONES DIDÁCTICAS

Desde la reflexión realizada hemos podido ir detectando ciertos aspectos de la

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 108

peculiar naturaleza del conocimiento probabilístico o más extensivamente, del

conocimiento estocástico; ahora, de todos ellos extraeremos los que consideramos más

relevante para su tratamiento en el aula y, por tanto, para ser integrados en el diseño y

desarrollo de una formación adecuada de los maestros. Formación que permita avanzar en

la integración real del conocimiento estocástico en la escuela.

A) Una de las principales ideas que pueden extraerse de la revisión efectuada es la

constante relación interactiva entre las situaciones empíricas y la modelización

matemática a lo largo de todo el desarrollo del Cálculo de Probabilidades. El modelo

matemático y la situación empírica no pueden ser totalmente congruentes, se construyen

modelos adaptados a las distintas situaciones que luego han de ser generalizados, pero sin

olvidar la necesidad de dicho referente real para la construcción del modelo (Dinges, 1982).

"Las manifestaciones estocásticas sobre los fenómenos reales no son la imagen de verdades empíricas, pero

reflejan fundamentalmente posibles conexiones teóricas con la situación concreta" (Steinbring, 1984; p.72).

Es decir, las afirmaciones estocásticas siempre reflejan una vinculación con

situaciones reales y, por tanto, el pensamiento estocástico, a diferencia de otros campos del

pensamiento matemático como el aritmético, el geométrico o el algebraico, ha de tener

siempre un referente real, siendo imprescindible tener en cuenta, desde el principio, la

diferencia entre el modelo matemático y la situación real.

B) La probabilidad es un concepto de difícil comprensión, pues, en general, entra

en clara contradicción con el pensamiento determinista y causal dominante en nuestra

educación. "La probabilidad es un concepto particularmente resbaladizo. Esto hace especialmente difícil la

demarcación de su territorio. A través de la probabilidad intentamos demarcar un estado amorfo situado entre dos

extremos imaginarios: la total ignorancia y el conocimiento perfecto" (Konold, 1991; p.139). Si

consideramos que el concepto se construye en la interacción del signo con el objeto, la

comprensión de su significado no puede ser simplemente el resultado de la elaboración

teórica, sino más bien será el resultado de la síntesis de las diversas interpretaciones

concretas, en las múltiples situaciones donde es aplicado.

Vemos cómo el concepto de probabilidad tiene en su núcleo una estructura

dual: su modelización matemática y los aspectos experimentales específicos; vinculados

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 109

intuitivamente por la relación objeto-signo. Su modelización matemática puede estar a su

vez caracterizada por diferentes posibilidades de interpretación; por un lado, la probabilidad

como caracterización experimental a través de las frecuencias relativas observadas, lo que

le confiere un valor más objetivo; por otro, la probabilidad clásica, considerada como un "a

priori", con un carácter más teórico basada en las propias condiciones del fenómeno; o bien,

la probabilidad considerada como resultado de hipótesis establecidas, unas veces a partir de

las creencias subjetivas de las personas y otras de las estimaciones realizadas a priori, en

función de datos empíricos, relacionadas en ciertos aspectos con la aproximación bayesiana.

Si recordamos el análisis del desarrollo histórico del concepto de probabilidad, ya

desde su nacimiento presenta también una naturaleza dual con su doble significado como

creencia y como dato objetivo extraído de la realidad. Naturaleza que debe respetarse en su

tratamiento didáctico, y es a través de la presencia de las múltiples aplicaciones en las

diversas situaciones como se posibilita no sólo la elaboración del concepto matemático,

sino también la presencia de las distintas posibilidades de interpretación del significado de

la probabilidad, en función de las características de las situaciones particulares.

C) El conocimiento estocástico es un conocimiento complejo, su significado no

puede ser agotado en el conocimiento de la propia estructura matemática ni sus

conceptos reducidos a sus definiciones formales, pero tampoco adquiere su sentido

completo a través del estudio de experiencias empíricas inmediatas sin más, pues

transformaríamos al conocimiento estocástico en una colección de recetas o técnicas

concretas. Esta característica es lo que Steinbring (1984) reconoce como la naturaleza

teórica del conocimiento estocástico.

Este punto de vista es analizado a nivel más general por Otte (1984), quien afirma

que el significado del conocimiento matemático, generalmente, no es algo obvio de forma

inmediata, no existen realmente conceptos básicos evidentes por sí mismos; su

comprensión y significado dependen de las representaciones de los objetos, de las

situaciones relacionadas con dichos objetos y sus representaciones, y del trabajo que se ha

desarrollado con dichas representaciones. Esta característica está representada por lo que

Otte (1984) denomina la relación triangular objeto-signo-concepto del conocimiento

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 110

matemático; esta relación es útil también para caracterizar el conocimiento estocástico y

nos permite evitar trabajar aisladamente los cálculos matemáticos por un lado y los aspectos

empíricos por otro.

En la misma dirección, Castro (1994) propone un modelo que nos permite analizar

los diferentes procesos cognitivos y culturales a través de los cuales las personas asignan

significados a los diferentes conocimientos construidos. Propone para ello la necesidad de

diferenciar para su estudio tres elementos:

1.- Unos instrumentos conceptuales: sistemas simbólicos estructurados con los que

expresar los conocimientos y sus relaciones.

2.- Unos modelos de usos de los sistemas simbólicos: actividades cognitivas que

surgen y encuentran un modo de actuación en contextos concretos.

3.- Un campo de actuación: el conjunto de fenómeno, cuestiones y problemas que

admiten ser analizados mediante los conceptos y procedimientos constituyentes de

los propios sistemas simbólicos.

Kapadia y Borovnick (1990) nos ofrecen también una representación similar,

cuando analizan que la enseñanza desde una perspectiva didáctica refleja la relación

triangular entre S: la materia, organizada social o individualmente; R: las partes de la

realidad, que es el mundo "objetivo"; y T: el conocimiento de esa realidad en forma de

teoría. Cada uno de estos elementos está en un extremo del triángulo, la preponderancia de

uno de ellos, la mayor o menor tensión entre alguno de ellos, o entre los tres, representará

las diferentes tradiciones didácticas en el tratamiento del conocimiento matemático en la

escuela.

La consideración de todos estos elementos y sus relaciones es fundamental para el

aprendizaje significativo del conocimiento matemático y más específicamente para el

conocimiento estocástico. Esta necesaria interacción dialéctica entre los contenidos

concretos de las situaciones empíricas y los modelos matemáticos, sin poder reducir el

significado de los conceptos a su expresión formal, establece lo que el grupo de

investigadores del IDM de la Universidad de Bielefeld denomina como carácter teórico del

───────────────────────────────────────────────────────────── Análisis de las nociones de azar y probabilidad 111

conocimiento matemático (Jankes, 1978; Steinbring, 1980). El conocimiento matemático no

se puede construir independientemente de los objetos sobre los que actúa pues, coincidimos

con Konold (1991) en pensar que, "es un mito que las matemáticas, ya sea como disciplina o en la mente

del matemático, se desarrollen independientemente de los objetos y relaciones que le conciernen con referentes en

el mundo real" (p.141).

En el caso del conocimiento probabilístico esta naturaleza teórica es más evidente,

pues como ya indicamos, hay una clara contradicción entre el rigor requerido en una

definición matemática y el carácter aleatorio de la probabilidad. "El concepto de probabilidad

tiene una curiosa propiedad: tan pronto como uno trata de caracterizarlo de forma no ambigua por medio de una

definición matemática definitiva, ya no ha lugar a lo estocástico. Ya no es asunto del azar. Lo que queda son

ciertos hechos matemáticos y de cálculo bien determinados, principalmente teoría de conjuntos, cálculo de

proporcionalidad, porcentajes, reglas combinatorias y métodos de contaje, aspectos de geometría elemental,

simples algoritmos, etc." (Steinbring, 1984; p.66).

Por tanto, el propio concepto de probabilidad requiere explícitamente además de su

definición matemática, el signo de un sistema de referencia concreto y el objeto, para la

interpretación tanto de su contenido como de su aplicación. "El concepto surge desde la actividad

del sujeto tratando de comprender la relación entre el objeto y el signo matemático, en aplicación mutua de la

definición matemática respectiva y el caso concreto de aplicación" (Steinbring, 1984; p.76). La

referencia a las aplicaciones es, por tanto, condición imprescindible para el desarrollo y

comprensión del concepto matemático de probabilidad y de su significado como

instrumento para interpretar la realidad. Hecho que hemos venido comprobando a lo largo

de toda su evolución histórica.

D) Pero además nos enfrentamos con otro problema. En el supuesto de que la

probabilidad pudiera ser explícitamente definida desde el punto de vista matemático, su

objeto de estudio, la aleatoriedad y los sucesos aleatorios, presenta también problemas de

caracterización. La naturaleza teórica del conocimiento estocástico es, al igual que para el

concepto de probabilidad, especialmente cierta con la noción de azar; todo intento de

definir el azar o la aleatoriedad muestra que esta idea no puede ser caracterizada a

priori de manera universal y definitiva.

La idea de aleatoriedad y de suceso aleatorio normalmente no es analizada y

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 112

discutida al empezar a trabajar con el concepto de probabilidad; en general, es algo que se

da casi por ya conocido e intuido directamente. Pero, como hemos podido detectar en el

estudio de la evolución histórica y epistemológica de estas nociones, el cómo se conciben y

se explican los sucesos indeterminados y aleatorios constituye un elemento clave en la

comprensión del concepto de probabilidad y en el reconocimiento de sus posibilidades de

estudio. Una inadecuada comprensión del concepto de suceso aleatorio y de aleatoriedad

puede ser un obstáculo epistemológico en la comprensión del conocimiento estocástico.

Idea considerada por muchos autores, como Hietele (1975), Konold y otros (1991),

Steinbring (1991), etc; como ya indicamos en el apartado 2.2.

La aleatoriedad, como nos indica Kyburg (1974), sólo puede ser definida en

función de los instrumentos de los que se disponga para probar el carácter aleatorio del

fenómeno ante el que nos enfrentemos, del cuerpo de conocimiento y de la clase de

referencia que consideremos; no existe una forma única, precisa y universalmente válida

para definir la aleatoriedad o en su caso el azar.

Desde las explicaciones encontradas en los distintos momentos históricos, podemos

suponer que para unas personas el azar y lo aleatorio será, por ejemplo, todo aquello que

tiene que ver con la "suerte" o el "destino" y por tanto incontrolable; para otros simplemente

el producto de nuestra ignorancia sobre ciertos fenómenos, sobre las causas que los originan

o sobre su funcionamiento, lo que conlleva su imposible control; en algunos casos, la

explicación considerada puede estar más en función de la complejidad intrínseca de los

fenómenos y por tanto, de la imposibilidad de una predicción exacta de su resultado; etc.

Todas ellas son susceptibles de ser consideradas pero no todas son idóneas para una

adecuada comprensión probabilística de la realidad. "La aleatoriedad no es simplemente una

propiedad empírica de una situación real dada, es simultáneamente un concepto teórico que debe ser

desarrollado, redefinido y analizado" (Steinbring, 1991; p.145).

Ni la situación empírica por sí misma: el objeto, ni la representación matemática por

sí mismo: el signo o el modelo, pueden expresar el significado completo de la aleatoriedad

y la probabilidad. En términos de Castro (1994), son las actividades cognitivas

desarrolladas por los sujetos, con los signos o modelos construidos, al actuar sobre las

situaciones empíricas concretas, las que permiten la progresiva elaboración y comprensión

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 113

del concepto de azar y probabilidad. El conocimiento estocástico, caracterizado como un

sistema complejo, implica entre otras cosas que se establezca una relación clara entre los

aspectos formales de la teoría y los contextos interpretativos, caracterizada por la relación

triangular objeto-signo-concepto.

Si no se respeta la naturaleza del conocimiento estocástico, el intento de definir

conceptos como aleatoriedad o probabilidad de forma universal y definitiva, sin

consideración a referentes empíricos, nos conduce a un círculo vicioso. En su modelización

matemática, estos dos conceptos, sobre los que se apoya toda la estructura del Cálculo de

Probabilidades, en general no son cuestionados ni analizados y son dependiente uno del

otro. "Uno es capaz de hablar de probabilidad sólo si conoce el concepto de suceso azaroso o aleatoriedad; o

viceversa, el azar sólo puede ser comprendido y caracterizado matemáticamente después de ser introducido el

concepto de probabilidad" (Steinbring, 1991; p.142).

Esta característica peculiar la encontramos en otros muchos conceptos estocásticos,

y es lo que Harten y Steinbring (1984) denominan circularidad del conocimiento

estocástico. Un ejemplo histórico muy conocido, y apuntado en ocasiones anteriores, es la

introducción del concepto de equiprobabilidad. Cuando autores como Laplace o Bernoulli

introducen el concepto de equiprobabilidad se basan en el reconocimiento de sucesos con

igual posibilidad de ocurrencia, es decir en sucesos equiprobables; la definición del

concepto se basa en la idea subyacente del propio concepto, que depende a su vez del

concepto de probabilidad. Esta simbiosis entre ambos conceptos ha sido determinante tanto

a la hora de su evolución, limitando su campo de aplicación, como en las concepciones de

los sujetos. Investigadores como Konold y otros (1991) o Lecoutre y Duran (1988) han

detectado la presencia de explicaciones basadas en la equiprobabilidad como característica

intrínseca de los sucesos aleatorios. Ideas que pueden representar un claro obstáculo

epistemológico a la hora del desarrollo del pensamiento probabilístico.

Reflexiones finales

Todas las ideas expuestas en las líneas anteriores sobre las peculiaridades del saber

estocástico y sus implicaciones didácticas, se pueden sintetizar en las consideraciones

recogidas en el Cuadro 9. Comprender un concepto estocástico requiere explorar el

concepto en sí mismo por extensión y aplicación, no es posible obtener una comprensión

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 114

completa del concepto por deducción lógica o definición única; son conceptos que alcanzan

su máxima significación en un proceso en espiral, según el cual ampliando el campo de

aplicación se aumenta la comprensión del concepto, lo que a su vez permite ampliar de

nuevo el campo de aplicación en una continua interacción entre modelo-objeto. Steinbring

(1980) describe esta necesaria relación dinámica entre la teoría y las aplicaciones a través

del principio de complementariedad. Este principio determina que los conceptos

estocásticos, como aleatoriedad o probabilidad, han de ser simultánea y

complementariamente comprendidos, como elementos teóricos del Cálculo de

Probabilidades y como objetos relacionados con un contexto de aplicación. Es la

interacción entre ambos aspectos lo que permite la evolución en el conocimiento

estocástico.

Cuadro 9: implicaciones

Es necesario disponer, por parte de los profesores, de una perspectiva histórica,

epistemológica y cultural del conocimiento estocástico, sus relaciones con otros dominios

de la ciencia y de la práctica, así como de las ideas filosóficas básicas más relevantes, para

poder llegar a caracterizarlo comprensivamente. Este metaconocimiento, como le llama

Biehler (1990), es parte fundamental del conocimiento profesional de los profesores, y

especialmente de los profesores de Primaria, responsables de su introducción en las aulas y

en los modos de pensamiento de los niños.

La comprensión del carácter teórico de este conocimiento y de sus consecuencias

permitirá establecer un equilibrio adecuado entre los aspectos subjetivos y objetivos en los

procesos de enseñanza y aprendizaje, y recogiendo en una proporción adecuada las

relaciones entre la probabilidad y la aleatoriedad, a través de las diferentes formas de

representación e interpretación. La idea de que su desarrollo conceptual es un proceso en

espiral, dependiente de la necesaria complementariedad entre lo teórico y lo empírico, no

solamente es útil para explicar la evolución del conocimiento, sino también para

comprender y planificar los procesos de interacción en el aula. Todo lo anteriormente

expuesto supone evitar los caminos unilaterales y lineales en los procesos de enseñanza. El

trabajo desarrollado en el aula debe establecerse desde perspectivas que reflejen un proceso

cíclico, con avances progresivos en la complejidad de las situaciones, de sus

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 115

representaciones y de la actividad desarrollada.

La teoría formal matemática sólo puede adquirir su total significado en el

desarrollo del proceso de enseñanza contextualizada, éste debe reconocer las

peculiaridades del conocimiento estocástico y su faceta epistemológica.

Todos estos aspectos son elementos de lo que hemos denominado conocimiento

profesionalizado del contenido, pues, al ser características fundamentales de la

naturaleza del conocimiento estocástico, han de ser tenidas en cuenta, a la hora de su

tratamiento en el aula de Primaria, como condiciones ineludibles para la iniciación

idónea de los niños en el pensamiento probabilístico. Y, como consecuencia directa, la

consideración de estos aspectos y la reflexión sobre ellos y sus implicaciones, han de

estar presentes en el diseño y desarrollo de aquellos procesos de formación cuyo

objetivo sea la elaboración de un conocimiento profesional significativo sobre el tema.

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 116

3.1. INTRODUCCIÓN

Este capítulo está dedicado al estudio y reflexión sobre las condiciones del

aprendizaje y de la enseñanza del conocimiento estocástico en general y de las nociones de

aleatoriedad y probabilidad en particular. Aspectos que consideramos como elementos

imprescindibles del conocimiento profesional de un profesor que ha de tratar esta temática

en el aula, y por tanto, referente obligado en los procesos de formación. Como indicábamos

en el primer capítulo, dicho estudio nos aportará información significativa sobre las

características del conocimiento cotidiano, entendido éste como el que tiene el adulto medio

y está enraizado en la "cultura" media de nuestra sociedad, así como su posible evolución

hacia formas más elaboradas.

Esta información es relevante a la hora de intervenir en los procesos de aprendizaje

escolar desarrollados en las aulas. Como nos dice Rodrigo (1994), el niño, "debe compatibilizar

su conocimiento cotidano con las nuevas interpretaciones que recibe en la escuela,...,necesariamente va a tener

que partir del conocimiento cotidiano como base constructiva sobre la que edificar el conocimiento escolar",

además, "los alumnos no cuentan con procedimientos eficaces, certeros y sistemáticos para construir su

conocimiento escolar. En principio, cuentan con los mismos procedimientos que el hombre de la calle..." (p.12-

13). Por ello, los estudios sobre el desarrollo, el aprendizaje y las formas de intervención en

dicho proceso, son fuente fundamental del conocimiento práctico profesional.

En primer lugar, y antes de introducirnos en el estudio específico del campo

psicogenético, dedicaremos unas líneas a un breve estudio sobre "el sentido común" de los

términos "azar", "aleatorio", "probabilidad" y sus equivalentes; es decir, sobre el uso y

significado que tienen en la vida cotidiana. Todo proceso de adquisición y, por tanto, de

comprensión de un concepto, parte de las creencia e ideas previas que sobre él posea el

individuo. Un reflejo de estas concepciones es el uso de los términos que lo representan en

el lenguaje informal. El sentido que se da a estos términos en el lenguaje ordinario, y su

posible influencia en la toma de decisiones de los individuos en situaciones de

incertidumbre. Según Sierpinska (1991), el análisis de las palabras y expresiones utilizadas

en describir o interpretar situaciones relacionadas con el concepto a estudiar, en nuestro

caso el azar, lo aleatorio y la probabilidad, puede facilitarnos un acercamiento a la

comprensión de las concepciones en que se apoyan. Este análisis será básico para

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 117

comprender el desarrollo del pensamiento probabilístico en el individuo, puesto que sobre

estas creencias primarias se cimentará toda la evolución posterior.

En segundo lugar, nos acercaremos al mundo probabilístico desde una perspectiva

de carácter psicogenético que nos permita conocer el proceso de formación de estas

nociones en los sujetos, y detectar los estados de conocimiento cualitativamente diferentes

en función de las condiciones individuales y contextuales, así como detectar el sentido de

su evolución.

Para analizar la problemática del desarrollo del pensamiento probabilístico, y en

consecuencia del aprendizaje del conocimiento probabilístico, hemos acudido en primer

lugar a una ciencia básica, la Psicología, y dentro de ella a las distintas teorías que sobre el

desarrollo del razonamiento probabilístico coexisten. La revisión efectuada, nos permite

acercarnos a las distintas perspectivas desde las que se discute el desarrollo y adquisición

del conocimiento probabilístico, analizar su complejidad y la dificultad no sólo de su

elaboración, sino también de su utilización en las situaciones de la vida cotidiana.

Información de vital importancia para el desarrollo de la actividad docente.

A continuación, ya más centrados en la información procedente de la Didáctica de la

Matemática, hemos analizado las investigaciones realizadas sobre las concepciones e ideas

de los niños acerca de estas nociones, los niveles conceptuales que manifiestan, y sobre los

procesos de instrucción experimentados en relación con este campo de conocimiento,

focalizadas en los primeros niveles de la escolaridad. Esta es una información que también

consideramos parte importante del conocimiento profesional, pues la información sobre las

concepciones de los alumnos y sus formas de razonamiento es un referente necesario para la

toma de decisiones curriculares. En este campo del conocimiento matemático hay un

número reducido de trabajos, en comparación con otros campos como el aritmético o el

geométrico, y aún más si nos restringimos a niños comprendidos entre 6 y 12 años, edades

propias de la Educación Primaria.

Nos detendremos después en una revisión y reflexión sobre las propuestas y

materiales curriculares que se han desarrollado sobre el tema, reflejo directo del progresivo

reconocimiento de su papel relevante en la sociedad y en la formación de los individuos.

Analizaremos la propuesta para el nivel de Primaria recogida en el nuevo proyecto

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 118

curricular del sistema educativo español, contrastándola con algunos proyectos o propuestas

puntuales centradas en el desarrollo del tratamiento del conocimiento probabilístico en las

aulas. Nos interesa analizar tanto el contenido reflejado en las distintas propuestas

curriculares, como las orientaciones metodológicas recogidas. La información acerca de las

diferentes propuestas metodológicas nos permitirá apreciar los presupuestos

epistemológicos subyacentes sobre su naturaleza y su aprendizaje.

Por último, analizaremos la problemática peculiar y compleja de la enseñanza de

este campo del conocimiento matemático, condicionada por su especial naturaleza

epistemológica y por las condiciones de su aprendizaje. Trataremos también de la

formación necesaria de los profesores de Primaria para afrontar esta problemática y del

papel de las concepciones de los profesores en el proceso formativo.

3.2. EL LENGUAJE DEL AZAR. UNA VISIÓN FENOMENOLÓGICA

SOBRE LOS JUICIOS PROBABILÍSTICOS

Es una premisa fundamental de la epistemología actual que toda construcción de

conocimiento se apoya en las ideas iniciales de los individuos; en particular la comprensión

de todo concepto matemático tiene como punto de partida nuestras concepciones o

intuiciones primarias. Esta primeras ideas son producto de la interacción con el entorno y se

reflejan en el lenguaje ordinario utilizado en la vida cotidiana. El lenguaje traduce y

transfiere en enunciados lo que se ha ido construyendo en la mente. Hay un fuerte consenso

en aceptar que para traducir gran parte de nuestro pensamiento necesitamos la mediación

del lenguaje (Chomsky, 1968; Piaget, 1966; Vygotski, 1981).

"El lenguaje, que es el instrumento del pensamiento, utiliza para constituirse una infraestructura

computante (fónica, alfabética, sintáctica/gramatical `profunda') (Morin, 1988; p.137). Un elemento

constituyente de esa infraestructura son los "signos". Los "signos" (caracteres escritos y

sonidos) están asociados generalmente con el contenido de alguna experiencia, como decía

Leibniz "los signos son todo aquello que utilizamos en lugar de las cosas y las ideas

cuando pensamos" (recogido en Sánchez-Mazas, 1992). Desde Saussure, padre de la

lingüística estructural, se viene reconociendo la importancia del signo lingüístico en cuanto

unidad básica de análisis. Para él un signo lingüístico es la correspondencia entre un

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 119

significante, su "imagen acústica" y un significado, el representante de la idea (Saussure,

1987).

En el lenguaje encontraremos palabras y expresiones que sirven para describir

situaciones en las que están implicadas ciertos hechos e ideas. Como ya apuntábamos en las

primeras líneas de este capítulo, el análisis del significado que atribuimos normalmente a

esas palabras y expresiones, en los distintos contextos en los que las utilizamos, nos

permitirá ser conscientes de las concepciones que subyacen sobre dichas ideas (Sierpinska,

1991). Se pueden diferenciar diversos aspectos:

A) El uso informal de los términos. Pensamos que es oportuno comenzar desde el

análisis del uso informal, de los términos que luego representarán un concepto matemático,

en la conversación cotidiana. Nos limitaremos a un breve acercamiento al tema, dada

nuestra poca especialización en el mismo, y la inexistencia de estudios sistemáticos, desde

el punto de visto filosófico, matemático o lingüístico, sobre este campo semántico concreto,

que podamos utilizar como referente.

Como ya hemos indicado nuestra vida cotidiana está rodeada de infinidad de

fenómenos aleatorios, los individuos se enfrentan a numerosas situaciones en las que está

implicada la incertidumbre y en las que tienen que tomar decisiones contando con una

cantidad limitada de información. Son situaciones relacionadas fundamentalmente con:

El mundo social: Pólizas de seguros. La bolsa. El ocio y los juegos: loterías,

quinielas. Etc.

El mundo político: Índice de precios al consumo. Tasas de población.

Votaciones. Índice de Popularidad. Etc.

El mundo físico: Tiempo atmosférico. Estimación de errores. Fiabilidad y

control de aparatos y dispositivos. Etc.

El mundo biológico: Herencia genética. Transmisión de enfermedades. Crecimiento

de la población. Etc.

Por indicar algunos ámbitos significativos.

La interacción continua con este tipo de fenómenos en situación de intercambio

social, conduce a elaborar una idea intuitiva y espontánea del azar, y a introducir en

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 120

expresiones cotidianas términos como probable, azar, suerte, imposible, etc. Es decir, los

individuos "tienen una comprensión que les permite usar estas palabras en enunciados que son comprensibles

a otras personas en situaciones cotidianas" (Konold, 1991; p.144). La referencia al mundo de lo

probable, al estar presente en gran parte de nuestras acciones diarias, genera un gran

número de términos y vocablos del lenguaje usual, a los que vamos otorgando diferentes

significados. Como nos dice Black (1984) "El habla del lego sobre la probabilidad se halla dominada

por la imaginación pictórica y la cruda mitología, agazapadas justo a flor de piel. No está claro cuánta sea la

influencia que ejerce tal imaginación," en la concepción de estas nociones (p.96).

Los niños desde muy pequeños utilizan estas palabras u otras sinónimas en sus

conversaciones, "la rapidez e inventiva con que el niño desarrolla el lenguaje son indicaciones interesantes de

que los niños pueden hacer frente a sistemas estocásticos muy pronto en su vida" (Hawkins y Kapadia,

1984; p.354). De hecho algunos estudios realizados prueban que tanto en los niños como en

los adultos son comunes las falsas intuiciones sobre el azar (Shaughnessy, 1981). A partir

de este lenguaje primitivo y a través de un proceso de aprendizaje que permite analizar la

estructura de la realidad, el niño irá modificando progresivamente sus formas de expresión.

Es decir, no sólo es imposible eludir el lenguaje ordinario sino que es necesario volver a él

como referente (Sanz, 1990).

El sentido que las personas otorga a las palabras "emerge de todo un proceso

psíquico/cerebral, el cual se efectúa a partir del fondo cultural y a partir de nuestra experiencia" (Morin,

1992; p.173). A lo largo de nuestra vida ese sentido va evolucionando en función de las

experiencias vividas y de las nuevas construcciones conceptuales. El habla, aspecto

individual, y en su lugar el lenguaje, aspecto social, esta dotado de vida propia, "las palabras

nacen, se desplazan, se ennoblecen, se pervierten, se deterioran, mueren" (Morin, 1992; p.172). Es el

proceso histórico de los "signos" que constituyen toda lengua: nacen en un momento de la

historia con un significante y un significado específico, ambos evolucionan modificándose

progresivamente y en algunos casos llegan a desaparecer, es decir, mueren. Como apunta

Sanz (1990), el signo "no tiene una existencia fija, pues puede variar su contenido y su forma expresiva"

(p.182).

B) El uso formal, no matemático, de los términos. Por ejemplo, la palabra

"Suerte" que proviene etimológicamente del término latino "Sorti", en su origen tenía un

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 121

significado neutro, recordemos su relación con la acción de ciertos dioses como Tyche o

Fortuna, es decir no se le asociaba ni un sentido positivo ni negativo, sin embargo su

significado actual esta más orientado al valor positivo de un hecho. Podemos tomar como

ejemplo la propia evolución de los términos "azar" o "probabilidad" cuyo significado ha ido

variando a lo largo de la historia. En general, el significado atribuido a un signo evoluciona,

complicándose progresivamente a medida que crecen las capacidades de la humanidad y su

desarrollo social.

Por ejemplo, con respecto al término azar, el Diccionario de la Lengua Española de

la Real Academia, define su significado como "casualidad, caso fortuito, desgracia

imprevista"; más cercano al sentido común de la palabra es la definición que encontramos

en el Diccionario del uso del Español de Mª Moliner, "supuesta causa de los sucesos no

debidos a una necesidad natural ni a una intervención intencionada, humana ni divina".

En el Diccionario Crítico Etimológico Castellano e Hispánico de J. Corominas,

podemos ver sus progresivas acepciones Azar:"cara desfavorable del dado; mala suerte,

desgracia, riesgo; casualidad, caso fortuito"; su origen se remonta a la palabra árabe "zahr:

dado", imagen que nos evoca un fenómeno aleatorio por excelencia, el lanzamiento de

dados. La acepción última, causalidad o caso fortuito, según nos indica este autor, es la más

corriente a partir del siglo XVIII.

En el habla ordinaria encontramos fácilmente multitud de términos con un

significado similar al de azar, su utilización suele depender del contexto. Nos referimos a

términos como casualidad, accidente, "chamba", suerte, eventualidad, etc. y todos sus

equivalentes semánticos que aparecen en el lenguaje cotidiano en forma de adjetivos

(casual, imprevisto, contingente, esporádico, fortuito, aleatorio, eventual), de adverbios

(eventualmente, incidentalmente, aventuradamente) o de expresiones coloquiales (por

fortuna, a ciegas, sin querer), todos ellos recogidos como familia de vocablos sinónimos en

el Diccionario Ideológico de la Lengua Española de J. Casares. El uso cotidiano de estos

términos desde edades muy tempranas, muestra una clara percepción del carácter

imprevisible de ciertos fenómenos de la realidad, sobre los que no se conoce una causa o

efecto determinado (Díaz Godino, Batanero y Cañizares, 1988).

De todos los términos señalados, el más relacionado con el lenguaje matemático es

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 122

el de "aleatorio", característica que, desde la Matemática, se da a los fenómenos que desde

el mundo filosófico o real se atribuyen al azar, aunque con ciertas restricciones. Su uso no

es tan común y cotidiano en nuestra conversaciones y depende más del nivel de

comprensión del concepto que representa. Mª Moliner en su Diccionario define como

aleatorio aquello que es "Incierto. Se dice de lo que depende de la suerte o el azar", de

forma parecida es recogida en el Diccionario de la Real Academia "Perteneciente o relativo

al juego de azar, dependiente de algún suceso fortuito". Esta palabra proviene del vocablo

latino aleatorius: "propio del juego de los dados" que es derivado a su vez de alea-ae:

"sorte de jeu de dés" (suerte del juego de dados), como recoge el Diccionario Etymologique

de la Langue Latine de Ernout y Meillet.

Como observamos, el origen de todos estos términos esta relacionado con el juego,

como la propia teoría matemática de la probabilidad, y en algunos casos con el sentido

negativo de los juegos. Ha sido con el paso del tiempo cuando su sentido se ha generalizado

hasta representar lo que hoy reconocemos como fenómenos fortuitos e imprevisibles, en

contraposición a los sucesos determinados y previsibles. El sentido que tienen y con el que

son utilizados, los distintos términos que representan lo fortuito, determinan la imagen que

elaboramos de los fenómenos imprevisibles. Así, si se consideran a dichos fenómenos

como dependientes de la suerte exclusivamente, tanto en su sentido positivo como negativo,

se suelen relacionar con la imposibilidad de prever su funcionamiento; su manejo

imposible.

C) La aleatoriedad y sus límites. Los sucesos aleatorios se presentan como

imprevisibles en un mayor o menor grado. Pero también aparecen ciertas regularidades que

nos permiten indagar en las posibilidades futuras. Cuando nos encontramos en presencia de

un acontecimiento aleatorio; es decir, aquel cuya ocurrencia está en un punto entre lo

seguro y lo imposible, estimamos de forma aproximada el grado de confianza en la

ocurrencia de tal suceso. Lo cual nos permite tomar determinadas decisiones que, en

general, como reconoce Lindley (1977), suelen ser incoherentes, y además nos permite

enunciar proposiciones que reflejen dicho grado de confianza.

Para elaborar dichas proposiciones, utilizamos diversos términos relacionados con

el mundo de lo posible y lo probable, que nos permiten graduar la fuerza el valor de nuestra

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 123

afirmación sobre la ocurrencia del fenómeno, a veces hasta expresada numéricamente.

Subyacentes a estos términos existe una cierta imagen de la incertidumbre. Entre "nunca" y

"siempre" hay un gran número de términos que reflejan diferentes niveles de gradación

(imposible, posible, raro, escaso, frecuente, común, etc.), que en verdad sólo sirven para

poner limites a la propia realidad a la que nos enfrentamos (Saussure, 1987). Estos

términos, como se detecta en algunos estudios realizados, suelen ser interpretados de

diferentes formas por diferentes sujetos, e incluso por el mismo sujeto en diferentes

contextos (Budescu y Wallsten, 1985). En general, en el lenguaje ordinario no hay una

unicidad de interpretación en el campo semántico del mundo de lo probable. Sus términos

actúan simplemente como unos operadores modales que permiten construir afirmaciones no

categóricas.

El uso de estos términos en el lenguaje cotidiano es bastante impreciso, y como ya

hemos indicado no existe publicado ningún estudio formal sobre este campo semántico, es

decir sobre los usos y significados de sus términos, que permita establecer claramente

interrelaciones entre el pensamiento probabilístico y el lenguaje.

D) Lo probable, lo posible. Un apunte etimológico. Un primer acercamiento al

lenguaje cotidiano nos permite observar como las palabras utilizadas principalmente en las

manifestaciones más usuales son el sustantivo "probabilidad", el adjetivo "probable" o el

adverbio "probablemente" y todos sus posibles sinónimos (Black, 1984). En el diccionario

de J. Casares encontramos como tales: posibilidad, contingencia, verosimilitud,

eventualidad, etc.; posible, factible, viable, admisible, etc.; posiblemente, eventualmente,

quizás, etc. Revisando el significado del término "probable" en el diccionario de la Real

Academia, encontramos como definición "dícese de aquello que hay buenas razones para

creer que se verificará o sucederá. Que se puede probar. Verosímil o que se funda en razón

prudente". Al término, aparentemente equivalente, "posible" se le define como aquello "que

puede ser o suceder, que se puede ejecutar". Si observamos bien las dos definiciones,

existe una pequeña diferencia. Sólo ante lo probable se alude a razones previas; es decir, a

una cierta evidencia que indica que puede suceder el acontecimiento, condición no recogida

en la definición de posible, más relacionado con la voluntad del sujeto o con una propiedad

intrínseca del hecho, aparentemente es más de carácter ontológico (Pérez Echeverría, 1988).

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 124

Esta diferencia proviene de su sentido etimológico. Ambas palabras tienen origen

latino, pero encontramos dos orígenes etimológicos diferentes en el diccionario etimológico

de Corominas. La palabra "posible" es un cultismo derivado de la palabra latina "Potere:

poder"; por tanto con un sentido más relacionado con "poder ser". Sin embargo la palabra

"probable" es un derivado de "Probare: probar, ensayar", como algo factible de ser

probado, "cosa que se prueba". Si analizamos el sentido etimológico latino de la raíz

"Probus-a-um", en el diccionario de Ernout y Meillet, encontramos como significado

original el de aprobación o probación que, en el sentido moral, hace referencia al "hombre

noble", significado muy corriente en la Edad Media y relacionado con la propia evolución

del significado del término probabilidad, como ya analizamos en el apartado 2.3.

E) La probabilidad como grado de verosimilitud. Retomando el análisis del

lenguaje cotidiano, se puede observar como el uso del adverbio "probablemente" es el más

común. Se utiliza para hacer referencia a sucesos de cuya ocurrencia no se tiene certeza en

el momento de la afirmación, pero se tiene, una cierta evidencia para creer, con un alto

nivel de confianza, en lo propicio de su ocurrencia. Se usa en proposiciones con carácter

más bien asertivo, afirmación del suceso, pero que a la vez recogen un cierto

reconocimiento de una falibilidad o fallo. Las gradaciones a las que nos hemos referido

unas líneas atrás, también se reflejan en forma de adverbios comparativos como "poco

probable", "algo probable", "muy probable", "casi seguro", etc., cuya máxima intensidad

podría estar representada por la expresión "seguramente", o también por la palabra

"verosímil", para significar aquello que tiene apariencia de verdadero pero no tenemos la

certeza absoluta sobre ello. Ambos términos - seguramente y verosímil - son utilizados en

muchos casos como sinónimos de "probablemente", pues, como ya apuntamos,

generalmente estas expresiones tienen un fuerte carácter asertivo. Carácter que desaparece

con frecuencia cuando se utiliza el adjetivo "probable" y casi totalmente en los usos del

término "probabilidad" (Black, 1984).

Los enunciados en término de "probabilidad", definido por la Real Academia como

"calidad de probable", tienen en general menos fuerza asertiva. En ellos se representa una

estimación del grado en que las condiciones iniciales, la evidencia con que se cuenta o la

experiencia previa del sujeto, favorecen la realización del suceso. Estas condiciones

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 125

provocan que en el uso ordinario, para realizar estimaciones probabilísticas, se empleen en

general medidas rudimentarias y muy limitadas. Delimitar cuanto de objetiva y válida es

esta estimación es uno de los problemas claves de la formación del pensamiento

probabilístico del individuo.

Ya en el capítulo anterior indicábamos que en la conversación cotidiana cuando

enunciamos proposiciones con el término "probabilidad", habitualmente es utilizado en el

sentido postulado por De Morgan: representa el grado de creencia en una proposición que

recoge una afirmación de la cual no existe completa certeza . Ya que, como analiza Nagel

(1979), cuando una persona enuncia una proposición de este tipo no hace más que

referenciar sus creencias sobre el suceso. Estas creencias la mayoría de las veces se basan

en impresiones generales, presentimientos o experiencias previas, influidas en numerosas

ocasiones por las negociaciones y discusiones en los juegos de azar.

No obstante, Black (1984) sostiene que no hay aserciones sobre probabilidad que

expresen meramente el grado de creencia o confianza del sujeto en la ocurrencia de un

suceso en un sentido puro, pues éstas siempre están filtradas por la propia experiencia del

individuo. "La probabilidad en el sentido común no se identifica con la frecuencia relativa ni con ninguna

relación lógica definible entre proposiciones ni con ningún pretendido estado mental de un juez idealmente

razonable" (p.106). En muchos casos hay una transferencia del sentido determinista de la

realidad a los fenómenos aleatorios: a condiciones iniciales similares, distribuciones de

probabilidad semejantes. En una apreciación similar, en el campo personal, a la que se

corresponde con el momento histórico en el que se le intentó otorgar un valor universal a

las propias leyes probabilísticas. Son muchos los autores que piensan que cuando

manifestamos una opinión sobre un suceso aleatorio es siempre reflejo de una apreciación

empírica. Por ejemplo, el matemático francés M. Fréchet, figura significativa de este siglo

en el estudio de las probabilidad, afirma que "no se puede atribuir valor a las estimaciones de

probabilidad que se hiciesen independientemente de toda idea de repetición de pruebas y de toda consideración de

frecuencia" (Fréchet, 1958; p. 191), otorgándole un vínculo directo con la experimentación.

F) Sobre los juicios probabilísticos. A la hora de analizar los juicios ordinarios de

probabilidad encontramos de nuevo las dos grandes tendencias: la objetiva, basada en la

necesidad de una verificación empírica del juicio emitido y la subjetiva considerada más

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 126

como un "a priori" basada generalmente en el conjunto de conocimientos o creencias del

sujeto. Estas dos tendencias aparecen en el lenguaje ordinario no como incompatibles sino

como complementarios (Figura 13). Si analizamos un proposición de probabilidad emitida

en una conversación habitual, encontramos que, en general, podemos distinguir:

* Unos fundamentos de la aserción, basados frecuentemente en la experiencia

previa y en una consideración de las frecuencias presentadas en casos similares, o

en informaciones de otras fuentes, como pueden ser opiniones de personas o

instituciones con reconocido dominio del tema en cuestión.

* Un cierto grado de confianza del sujeto en la proposición enunciada que le lleva a

tomar ciertas actitudes y decisiones.

* La influencia de la observación, de nuevos eventos y situaciones, que provoca la

progresiva modificación de los juicios.

Figura 13: lenguaje

La variabilidad de las manifestaciones expresadas y, por tanto, de las estimaciones

realizadas, está condicionada por las concepciones previas de los individuos y por los datos

de las propias experiencias. Ideas que conectan con la validez del Teorema de Bayes como

esquema explicativo del proceso de aprendizaje.

Lo anterior tiene grandes consecuencias en el campo de la educación pues plantea

una clara problemática a la hora de diseñar situaciones de enseñanza-aprendizaje que

faciliten el desarrollo del pensamiento probabilístico. Estas situaciones no sólo deben partir

de las concepciones iniciales de los sujetos sino que, dada la naturaleza y significado

ambiguo de la probabilidad, deben recoger y combinar ideas desde diferentes

interpretaciones, y en muy diferentes contextos. De tal manera que dispongan de una rica

experiencia y, a través de estrategias didácticas adecuadas, reelaboren los significados y

otorgen sentidos más precisos a los distintos términos y conceptos (Steinbring, 1984;

Hawkins y Kapadia, 1984).

Si recordamos la revisión presentada en el capitulo anterior, apartado 2.3, con

respecto a la evolución del tratamiento matemático de la probabilidad, observamos que el

uso formal de la noción de probabilidad en el campo del conocimiento científico ha llevado

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 127

a definirla de un modo preciso y cuantitativo mediante su formulación axiomática. Sin

embargo, el análisis filosófico realizado en ese mismo capítulo, apartado 2.4, nos muestra

que el significado del término es un aspecto controvertido y no existe una única visión

sobre la naturaleza de la probabilidad y sus conceptos asociados. En el lenguaje cotidiano

nos encontramos con un problema similar en los usos que se hace del término y de sus

equivalentes semánticos.

La variedad y riqueza de términos que pueden encontrarse en los distintos

diccionarios para expresar lo imprevisible, es exponente de la amplitud de contextos,

situaciones y matices con los que estas nociones se presentan. Un breve ejemplo es la

relación señalada en las primeras líneas sobre la gran variedad de fenómenos aleatorios que

nos rodean en nuestra vida cotidiana. Para el diseño de unidades didácticas relacionadas con

el tema y para su tratamiento general en el aula, sería necesario un análisis fenomenológico

más detallado, en la línea antes señalada.

Este somero acercamiento al uso de los términos que nos sirven para

representar el aspecto fortuito de la realidad, nos permite detectar por un lado, una

gran controversia en el sentido o significado que se les otorga en el lenguaje cotidiano

y, su contraste con el lenguaje formal. Y por otro, comprobar la gran cantidad de

ideas que están relacionadas con el término "probable". Hecho que nos recuerda una

de las conclusiones que extraíamos en el capítulo anterior, al constatar la red de

términos y conceptos que directa o indirectamente están asociados a la noción de

probabilidad: la necesidad de considerar, en todo procesos de enseñanza/aprendizaje,

el significado que para los sujetos implicados, tienen estos términos, entender sus

interpretaciones y reconducirlas sí que es necesario. Esta problemática ha de verse

reflejada en toda situación didáctica cuyo objetivo sea la comprensión probabilística

de la realidad. La negociación de los significados es un elemento clave, no sólo para

construir un discurso común y, en nuestro caso, más cercano al formal, sino también

para provocar la evolución del razonamiento probabilístico del individuo. Sobre las

condiciones y características del desarrollo del razonamiento probabilístico

trataremos a continuación.

3.3. EL RAZONAMIENTO PROBABILÍSTICO. SU APRENDIZAJE Y

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 128

DESARROLLO.

Las investigaciones sobre la adquisición del concepto de probabilidad giran

fundamentalmente alrededor de dos enfoques:

* En torno al estudio de la comprensión del azar en el sentido clásico, representado

por la Teoría Piagetiana, sobre el desarrollo de las nociones de azar y probabilidad.

En torno al aprendizaje probabilístico en situaciones contingentes, aspecto más

relacionado con los trabajos de Fischbein.

En ambos casos se toma como referencia una interpretación objetiva del concepto

de probabilidad. Las investigaciones psicológicas sobre el pensamiento probabilístico

parten, en general, de un enfoque filosófico objetivo pues, como analizan Scholz y Waller

(1983), trabajar en psicología desde los presupuestos de la probabilidad subjetiva es muy

difícil, dada la complejidad a la hora de observar, medir y extraer conclusiones.

Dadas las características de nuestro trabajo, orientado desde la óptica de la

formación de profesores, tienen también una especial relevancia los estudios sobre las

estrategias o mecanismos que ponen en juego, los adultos, en situaciones de incertidumbre

y sobre los sesgos a que dan lugar. Estas investigaciones han sido realizadas

fundamentalmente por Tversky y Kahneman, analizando los heurísticos utilizados por los

adultos y los sesgos que presentan en sus razonamientos. Sus trabajos han servido de base a

numerosas investigaciones en las que el objetivo central estaba más dirigido a la

comprensión y utilización de las nociones ligadas al concepto de probabilidad que al

dominio del cálculo de probabilidades (Shaughnessy, 1977; Moustagin, 1983; Pérez

Echeverría, 1988; Serrano, 1993; etc).

Sobre cada una de estas perspectivas de investigación vamos a intentar extraer

aquellos datos que puedan tener alguna repercusión de carácter didáctico.

3.3.1. EL DESARROLLO DEL RAZONAMIENTO PROBABILÍSTICO. LA

PERSPECTIVA PIAGETIANA

Como en otros muchos aspectos del conocimiento matemático, el trabajo de Piaget

y sus colaboradores sobre el origen y desarrollo de los conceptos de azar y probabilidad,

constituye uno de los estudios más completos realizados en este campo. Sus conclusiones

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 129

están recogidas fundamentalmente en los libros La genése de l'idée de hasard chez l'enfant,

publicado en 1951, y en De la logique de l'enfant à la logique de l'adolescent, publicado

cuatro años más tarde. Es en este segundo trabajo donde estudia, de forma más exhaustiva,

el desarrollo de las complejas nociones de azar y probabilidad como características propias

del pensamiento formal.

Todo el trabajo de Piaget en este campo está inmerso en su propia teoría sobre el

desarrollo intelectual y se centra, por tanto, en analizar los esquemas de comprensión de los

niños, es decir su nivel de desarrollo cognitivo, enmarcándolos en los períodos, ya clásicos,

de la evolución conceptual: preoperatorio, operacional concreto y operacional formal. Por

otro lado, todos sus análisis y conclusiones están condicionados por la propia concepción

piagetiana de la probabilidad, claramente dirigida hacia el significado laplaciano, "la

probabilidad de los acontecimientos constituye precisamente una relación entre los casos realizados y los

posibles" (Inhelder y Piaget, 1985; p.190).

Según Pérez Echeverría (1988), los conceptos de azar y probabilidad interesan a la

Escuela de Ginebra por su implicación en la caracterización del pensamiento formal. Piaget

reconoce como un aspecto propio del pensamiento formal la subordinación de lo real a lo

posible, y considera el concepto de probabilidad como uno de los ocho esquemas

operatorios que emergen en la adolescencia, relacionado directamente con otros tres de

dichos esquemas: operaciones combinatorias, proporciones y noción de correlación

(Inhelder y Piaget, 1985). En la Epistemología Genética de Piaget, con profundas raíces

kantianas, el tema de la causalidad ocupa un lugar central, y los conceptos de azar y

probabilidad aparecen vinculados a ella, Pozo (1987), tanto en su desarrollo ontogenético

como filogenético.

Como ya hemos señalado en anteriores ocasiones, los conceptos de azar y

probabilidad están muy relacionados con el pensamiento causal. Hemos podido observar

como la idea de azar nace a partir del estudio de la causalidad, es la falta de causa aparente

la que lleva al hombre progresivamente a enfrentarse y estudiar el azar, aunque, como

apunta Hacking (1991), dirigido más bien por la búsqueda de su control o domesticación.

Algunos autores consideran que la ontogénesis, aunque no un correlato estricto, sí puede

reflejar una réplica parcial de la filogénesis y, por tanto, algunos de los obstáculos

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 130

significativos detectados en el transcurso de la historia podrían presentarse en el desarrollo

del individuo.

Piaget e Inhelder consideran a los conceptos de azar y probabilidad como conceptos

derivados que se desarrollan progresivamente en la interacción con el medio y en relación

con las operaciones mentales, idea recogida en la introducción de su libro La genése de

l'idèe de hasard chez l'enfant. Consideran que la intuición del azar surge en la búsqueda por

parte del niño del orden y sus causas. La comprensión del azar es complementaria de la

comprensión de la relación causa-efecto (Hoemann y Ross, 1982).

Piaget, no hace ninguna indicación explícita sobre el azar relativa al período

sensoriomotor, período durante el cual la inteligencia consiste básicamente en coordinar

acciones. En sus estudios sobre el pensamiento causal (Piaget, 1965), caracteriza la acción

sensoriomotriz como fundamentalmente causal y afirma que en esta etapa del desarrollo

existe una concepción mágico-fenomenológica de la causalidad, sus acciones pueden

producir "cosas" insospechadas, "cualquier cosa puede producir cualquier cosa, con tal que haya una

sucesión regular" (Piaget, 1974; p.10). Sólo es necesario una contigüidad espacial y temporal

entre los dos hechos (Pozo, 1987). A lo largo de este período el niño llega a aceptar estos

resultados "mágicos" como algo natural de los objetos, independientemente de que se actúe

sobre ellos. Esta concepción "mágico-fenomenológica" de la causalidad podría encubrir las

primeras intuiciones acerca del azar.

En los años siguientes, el niño preoperacional, que posee un pensamiento

irreversible y una ausencia de nociones de conservación, no es todavía capaz de organizar y

comprender los factores que caracterizan los acontecimientos causales. Antes de los 6 años

los niños no tienen definida la relación causa-efecto, al no tener referencias para identificar

el azar, no diferencian entre azar y causalidad y, por tanto, no tiene vía para conceptualizar

lo fortuito (Hoemann y Ross, 1982). Los "milagros" producidos les siguen sin parecer

extraños.

Según Piaget e Inhelder (1951) los niños de este período no diferencian entre lo

posible y lo necesario. "En el nivel preoperatorio, ante el azar los sujetos presentan una actitud paradójica:

esperan que frente a condiciones semejantes los fenómenos se repitan de modo idéntico" (Inhelder y Piaget,

1985; p.191). Aunque quizás no sea tan paradójica pues, como hemos resaltado unas

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 131

páginas anteriores, dicha creencia está bastante generalizada en el ser humano y está

presente en determinadas épocas de la historia. Al principio el niño se desorienta ante lo

inesperado o fortuito, pero luego progresivamente busca causas que justifiquen "más o

menos" las fluctuaciones encontradas. Observa la sucesión regular entre los hechos y, en

general, ante las variaciones encontradas admite que todo es posible, lo que le lleva a la

necesidad de buscar razones ocultas para los hechos.

Por otro lado, el niño de este período es incapaz de construir una relación exhaustiva

de posibilidades, debido a la ausencia en su razonamiento de una estructura combinatoria.

Sólo son capaces de realizar algunas combinaciones de forma empírica y en experiencias

muy cercanas. Es difícil, según Inhelder y Piaget (1985), que el niño pueda estimar

correctamente las posibilidades a favor y en contra de los resultados esperados, ya que no

posee procedimientos combinatorios para realizar un inventario de todos los posibles

resultados de un acontecimiento. El fracaso de los niños pequeños al intentar cuantificar las

probabilidades también está relacionado con su incapacidad para tratar las relaciones parte-

todo pues, para establecer la relación es necesario separar de entre todos los resultados

posibles, los favorables. Explicación justificable desde sus planteamientos, pues como ya

apuntamos, Piaget parte de la definición clásica de la medida de la probabilidad y la

relaciona con los esquemas operatorios de las proporciones y de las operaciones

combinatorias. Sin embargo, el niño preoperatorio pueda acceder a estimaciones de carácter

más subjetivo, sin valoraciones sistemáticas de los hechos, pero que le permiten ir

percibiendo la incertidumbre como una característica de la realidad, diferente de la relación

causal.

Ya en la etapa de las operaciones concretas los niños van construyendo

progresivamente modelos que les permiten realizar inventarios de todas las combinaciones

posibles en casos sencillos y manipulables, e ir alcanzando procedimientos rudimentarios

de cálculo.

En este período del desarrollo se supone alcanzado un pensamiento interiorizado,

reversible e integrado en una estructura lógica de conjunto. Pero, ante la ausencia de una

capacidad combinatoria total, el niño sólo logra establecer relaciones causales lineales.

Poco a poco comienza a comprender la interacción de cadenas causales que llevan a

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 132

sucesos impredecibles, y a la irreversibilidad de los fenómenos aleatorios, pero al estar

ligado a lo concreto está limitado por el contexto y el contenido sobre el que está actuando.

En esta etapa del desarrollo el niño está aún carente de un sistema completo operatorio que

le permita enfrentarse con éxito ante situaciones probabilísticas complejas y con gran

número de posibles alternativas (Hoemann y Ross, 1982).

Según Inhelder y Piaget (1985), el azar comienza a asimilarse mediante la búsqueda

del motivo o causa que ha provocado la desviación de lo esperado. El desarrollo progresivo

de la noción de azar lleva al niño a descubrir lo indeterminado en oposición a lo

determinado. El azar, como aquello no determinado se va descubriendo como oposición a

lo deducible, el niño de este período es capaz de discriminar claramente dos tipos de

sucesos. Ello desencadena en el sujeto el comienzo de la disociación entre lo posible, lo

real y lo necesario, indiferenciados en el estadio preoperatorio, y progresivamente llegar a

distinguir lo fortuito de lo deducible, tarea esencial del razonamiento experimental e

inductivo (Inhelder y Piaget, 1985).

La disociación entre lo posible y lo real permite la aparición de una primera noción

de probabilidad a través del establecimiento de una relación entre los casos favorable y los

casos posibles. "Pero, en el nivel concreto, la determinación de lo posible, y, en consecuencia, de lo probable,

sólo se limita a los casos en que le es accesible al sujeto una composición operatoria, vale decir, los casos de

composición aditiva, en oposición a las combinaciones combinatorias" (Inhelder y Piaget, 1985; p. 272).

Es decir, donde es posible utilizar combinaciones de tipo aritmético sin necesidad de

establecer relaciones de tipo combinatorio.

Como analiza Flavell (1984), el pensamiento del niño de este período sigue muy

ligado a lo concreto y suele partir siempre de la realidad, sólo recurre a la posibilidad a

regañadientes, lo posible sólo se concibe como una prolongación de lo real y, en general, no

abandona los limites de la realidad empírica perceptible Su razonamiento es empírico-

inductivo.

En el último estadio del desarrollo, el de las operaciones formales, el sujeto

desarrolla las capacidades combinatorias y por tanto las relaciones causales se vuelven más

complejas e integradas y se independizan del contenido que intentan explicar. El

pensamiento formal aparece coordinado en un sistema general en el que están incluidos las

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 133

operaciones combinatorias, a través de las cuales, la lógica de las proposiciones logrará

situar lo real en un conjunto de transformaciones posibles. Ello supone una inversión de

sentido en la relación entre lo real y lo posible.

Las operaciones concretas eran transformaciones que se referían de un modo directo

a lo real, el nuevo carácter del pensamiento formal expresa su capacidad de ir más allá,

alcanzando todo el sistema de combinaciones hipotético-deductivas, y por lo tanto,

simplemente posibles. "Por más general que sea, el carácter combinatorio del pensamiento formal se

subordina entonces a una propiedad más general aún: la subordinación de lo real a lo posible" (Inhelder y

Piaget, 1985; p.216).

Siguiendo a estos autores, a partir de los 12 años aproximadamente la deducción

comienza a efectuarse a partir de lo posible, la hipótesis, para desembocar en lo real,

concibiendo éste como la parte de las combinaciones posibles que se han hecho realidad.

De esta forma el razonamiento formal provee de un marco de referencia para comprender el

suceso fortuito en general.

La noción de probabilidad puede entonces adquirir una mayor precisión al constituir

una relación definida entre los resultados favorables y todos los posibles, calculados en

función de las combinaciones. "Esta noción combinatoria de la probabilidad es la que se puede considerar

como un esquema operatorio de naturaleza formal" (Inhelder y Piaget, 1985; p.272), reafirmando su

interpretación laplaciana de la probabilidad.

En esta etapa del desarrollo ya no sólo se busca saber que ocurre, sino también las

causas que han originado las variaciones de lo esperado. Al principio de este estadío los

individuos sólo diferencian entre casos favorables y casos posibles, pero progresivamente

van construyendo la relación entre los favorables y los desfavorables, que es lo que Nagel

(1979) llama contingencia de un fenómeno.

Como ya sabemos, Piaget afirma que en este período se constituyen los ocho

esquemas operatorios, cuatro de los cuales tienen una estrecha relación con el desarrollo del

pensamiento probabilístico: las operaciones combinatorias, las proporciones, la noción de

probabilidad y la noción de correlación. La adquisición, por ejemplo, de la noción de

proporción, como relación entre la parte y el todo, influye directamente en la comprensión

del cálculo de probabilidades, al igual que la adquisición de las operaciones combinatorias,

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 134

que supone la capacidad de usar procedimientos sistemáticos para realizar inventarios.

Como recoge Díaz Godino, Batanero y Cañizares (1988), esto implica que a partir

de la adolescencia, al enfrentarse a una situación aleatoria, esta se hace inteligible por

medio de los esquemas operacionales; es la síntesis entre la comprensión intuitiva del azar y

las operaciones, lo que lleva al sujeto a la comprensión de la probabilidad. Los conceptos

de azar y probabilidad se comprenden y asimilan en este estadío dentro del marco lógico-

matemático formal.

En resumen, hemos observado que según las tesis piagetianas podemos distinguir

(Figura 14):

Figura 14: Piaget

* Un primer momento que se caracteriza por una concepción

fenomenológica-mágica de la causalidad, que encubre toda posible intuición del

azar.

* Un segundo período, el preoperatorio, que se caracteriza por la ausencia de

distinción entre los sucesos aleatorios y causales. Los niños de estas edades no

pueden construir la diferencia entre sucesos necesarios, y por tanto predecibles, y

aleatorios, no predecibles, pues no pueden establecer relaciones lógicas que les

permitan comprender porqué ocurren los sucesos. Sin poder llegar a discernir, lo

posible de lo necesario.

* Una tercera etapa en la que esta diferenciación aparece progresivamente,

lo posible es simplemente una prolongación de lo necesario y real. Los sujetos

pueden llegar a reconocer la necesidad lógica de la ocurrencia de los sucesos

determinados y diferenciarlos de aquellos que no pueden ser representados por

relaciones operativas concretas, los aleatorios. El azar y lo posible, existen como

una realidad "no ordenable". Surge paralelamente la capacidad de cuantificar las

probabilidades, pero con un conjunto incompleto de estrategias.

* En la última etapa del desarrollo, se elaboran las composiciones

probabilísticas como síntesis del azar y de las operaciones deductivas, y son

integradas en la estructura operatoria del individuo. Con ello se desarrolla la

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 135

capacidad de distinguir entre azar y necesidad, habilidad que Piaget sitúa en la base

del concepto de probabilidad. En el razonamiento adulto lo posible, lo real y lo

necesario no sólo son diferenciados, sino que pasa a dominar el mundo de lo

posible, de lo hipotético y a él se subordina la realidad.

No cabe la menor duda de que el trabajo de Piaget y sus colaboradores sobre el

origen y el desarrollo de los conceptos de azar y probabilidad es uno de los estudios más

completos realizados sobre este tema y como gran parte de la obra de Piaget es

controvertido. Al margen de revisiones y críticas más generales (Flavell, 1968; Vuyk, 1984;

Flavell, 1984; Carretero y Madruga, 1984; Palacios, Marchesi y Carretero, 1985; etc), su

obra ha dado origen a gran cantidad de trabajos, unos con resultados que corroboran las

tesis de Piaget (Hoemann y Ross 1971; Ross y Hoemann 1975; Chapman 1975; Hoemann y

Ross, 1982; etc), y otros muchos que reflejan opiniones disconformes, considerándolos en

muchos casos, vinculados a trabajos con poco rigor experimental y con interpretaciones

ambiguas.

Algunos de los aspectos más problemáticos en toda la teoría piagetiana son: la

asignación de los sujetos a los diferentes períodos del desarrollo sobre el único criterio de la

edad, sin tener en cuenta el contexto y el marco etno-cultural (Hoemann y Ross, 1982); y el

uso de diferentes tareas con grupos de diferentes edades, que deja latente el problema de la

equivalencia de las situaciones experimentales y de las conclusiones extraídas (Hawkins y

Kapadia, 1984).

Desde presupuestos distintos a la perspectiva piagetiana se ha intentado comprobar

la no correlación entre la edad y los logros establecidos por Piaget. Un gran grupo de

trabajos, próximos al paradigma conductual, se centraron en intentar demostrar que los

sujetos preoperatorios tienen una cierta idea intuitiva del azar y de la probabilidad (Yost,

Siegel y Andrews, 1962; Estes, 1964; Davies, 1965; Goldberg, 1966; etc.). Sus resultados

indicaron en muchos casos, que los niños en edad preescolar son capaces de actuar en tareas

probabilísticas por encima de lo previsible. De hecho, "hay muchas teorías psicológicas (y apoyos

empíricos) que sugieren que el hombre puede ser capaz de hacer juicios probabilísticos desde los primeros

estadíos de su desarrollo cognitivo" (Hawkins y Kapadia, 1984; p.353).

Desde los planteamientos de la Teoría de la Información también se han realizado

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 136

numerosas investigaciones en este sentido. Una de las más conocida es la de Brainer (1981)

quien llevó a cabo una serie de experiencias sobre juicios probabilísticos con niños de

preescolar y de la escuela primaria. En sus conclusiones expone que es la limitada

capacidad de los niños más pequeños para retener información, y no la ausencia de

estructuras cognitivas adecuadas, lo que influye negativamente en las tareas o juicios

probabilísticos.

Hay otro gran número de trabajos que abordan el estudio del funcionamiento de los

sujetos adultos y ponen en entredicho la supuesta universalidad del pensamiento formal,

idea recogida por Flavell (1984), y que el propio Piaget llegó a cuestionarse en sus últimos

trabajos ya reconoce que no todos los individuos desarrollan las operaciones formales y

esquemas operatorios en la misma proporción, incluso admite que pueden no ser alcanzados

nunca (Piaget, 1978), en algún momento se deja entrever que puede ser el ambiente quien

determine las diferencias .

Este es uno de los resultados que recoge Pozo (1987) en su estudio sobre el

pensamiento causal, en el que indica cómo el "contenido" de la tarea concreta es una

variable significativa a la hora de actuar en una situación determinada. Otros investigadores

comprueban cómo sujetos adolescentes y adultos no realizan estrategias combinatorias al

efectuar juicios o tareas sobre probabilidad (Hoemann y Ross, 1975), o cómo individuos

adultos no utilizan estrategias de proporcionalidad para resolver problemas cotidianos

(Capon y Khun, 1979).

Desde perspectivas cercanas al enfoque del procesamiento de la información, se han

desarrollado numerosas investigaciones que apoyan la idea de que el funcionamiento ante

situaciones de incertidumbre o probabilísticas depende de la demanda de la tarea y del

modelo de procesamiento de la información que exige cada estrategia (Capon y Khun,

1979; Furman, 1981; Lester, 1983; etc.). Desde esta misma perspectiva hay un gran número

de trabajos que analizan y comparan tareas probabilísticas y tareas de proporciones en

distintas situaciones y con diferentes tipos de problemas, encontrando también un desfase

en la utilización de estrategias con respecto a las previsibles para el pensamiento formal y a

la vez una gran variedad de ellas en la resolución de tareas similares (Karplus y Karplus,

1972; Karplus y otros, 1979; Capón y Khun, 1979; etc). Scholz y Waschescio (1986)

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 137

comprueban como la inferencia realizada y el tipo o estrategia aplicada depende de la

estructura y representación semántica de la situación. Hay trabajos como los de Karplus,

Pulos y Stage (1983) y Karplus, Pulos y Stage (1983a) donde se detecta una falta de

relación entre el nivel de utilización de las estrategias del razonamiento proporcional y otras

tareas propias del pensamiento formal. Otros estudios, como el de Siegler (1981), recogen

resultados semejantes a los anteriores pero en tareas probabilísticas de juegos de cartas,

relacionando la elección de las estrategias con la estructura de la tarea y la capacidad

conceptual del sujeto.

En su trabajo, Pérez Echeverría, Carretero y Pozo (1986) obtienen también

resultados similares, aunque desde planteamientos cercanos a los piagetianos. Constataron

la diversidad de niveles en la aplicación de estrategias propias del razonamiento formal, con

respecto a tareas de proporciones, probabilidades y correlaciones presentadas a

adolescentes. En general, los sujetos de todas las edades utilizaban diferentes estrategias

para resolver cada problema, pero las estrategias menos elaboradas eran las que se

utilizaban en tareas de probabilidad.

La mayoría de estos trabajos sólo cuestionan aspectos específicos de la teoría

piagetiana. Por un lado, una de las ideas que se puede concluir de todos ellos es que se

pueden interpretar ciertas diferencias evolutivas en la resolución de tareas probabilísticas,

en función de factores como la estrategia puesta en juego, la memoria o la demanda de la

tarea. Dicho de otra forma, no sólo el contexto es determinate tanto en el proceso de

construcción como en el de aplicación, sino, también, el dominio específico sobre el que se

actúa impone unas ciertas condiciones al proceso.

Por otro, se comprueba que existe una falta de relación entre las distintas tareas

formales. El desarrollo de los distintos esquemas operatorios no es paralelo, no todos los

esquemas operatorios se desarrollan a la vez ni en la misma dirección e intensidad. Pero no

queda explicado el porqué de estos desfases, ni porqué los adultos no utilizan estrategias

más avanzadas en la resolución de tareas de probabilidad, ni tampoco explican los tipos de

estrategias utilizadas en las tareas más cotidianas. En general, pensamos que los sujetos

adultos no tienen un pensamiento formal desarrollado, porque, de hecho, el tipo de

problemas que han de resolver en su vida cotidiana no se lo demanda.

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 138

Otra cuestión discutible del trabajo desarrollado desde la perspectiva piagetiana es

la conceptualización única de la probabilidad, la clásica. En todas las interpretaciones y

reflexiones que hace sobre la actuación de los niños toma como referente dicha

conceptualización. Hecho que, como ya hemos apuntado, no consideramos que refleja la

naturaleza ambigua de la probabilidad ni sus múltiples facetas. Tampoco la creemos idónea

para el tratamiento de la probabilidad en la escuela, dados los diferentes contextos y

situaciones que, en la vida cotidiana y en el entorno socio-natural del niño, van a necesitar

de una interpretación probabilística.

En cualquier caso la comprensión y desarrollo del pensamiento probabilístico debe

ser un proceso progresivo que depende de la implicación del sujeto en las tareas y del

contexto en el que éstas se sitúan. El problema, desde el punto de vista didáctico, se centra

en comprobar si el diseño de un entorno adecuado provoca un avance significativo del

razonamiento estocástico de los sujetos. En cierta manera las investigaciones de Fischbein,

revisadas en el siguiente apartado, van en esta línea.

3.3.2. UNA APROXIMACIÓN DESDE EL APRENDIZAJE. LA TEORÍA DE

FISCHBEIN

Desde un enfoque diferente del aprendizaje y con una metodología de investigación

alternativa se encuentran los trabajos de Fischbein y sus colaboradores. Parten de analizar

críticamente el modelo de desarrollo propuesto por Piaget e Inhelder, y reflexionan sobre la

influencia que, en la formación del concepto de probabilidad, puede tener la ausencia de un

tratamiento específico en el proceso de aprendizaje.

Fischbein, por tanto, no analiza el desarrollo del pensamiento probabilístico del

sujeto, su trabajo esta dirigido al estudio del proceso de aprendizaje del conocimiento

probabilístico, al que supone una base fundamentalmente intuitiva. Considera la

comprensión de la probabilidad como un proceso continuo que parte de las intuiciones

primarias y, progresivamente, va incrementando la capacidad de análisis y aplicación de las

nociones probabilísticas hasta su transformación en un concepto operativo (Scholz y

Waller, 1983).

Según Pérez Echeverría (1988), las investigaciones de Fischbein se apoyan en las

propuestas de la "Stimulus Sampling Theory" de Estes, que mantiene que "la medida en la que

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 139

se aprende una respuesta está determinada por el número total de elementos estimulares conectados con esa

respuesta, en un momento concreto del proceso de aprendizaje de una persona determinada" (p.33). Es decir,

parte de una concepción del aprendizaje bastante distanciada de la perspectiva piagetiana,

pues, como observamos, los planteamientos de Estes (1964) están relacionados con

posiciones conductistas.

Otra diferencia básica es su propia interpretación del concepto de probabilidad,

Fischbein parte de una interpretación frecuencialista. Utiliza fundamentalmente la

frecuencia como criterio de análisis y comparación de la actuación de los sujetos ante

secuencias aleatorias, algunas de las cuales no son equiprobables, es decir, hay alternativas

de diferente probabilidad.

Una característica fundamental de todo el trabajo de Fischbein es el papel que da a

la intuición en el desarrollo del razonamiento matemático. Para él, "la intuición y la inteligencia

(o la intuición y el razonamiento) nos hablan de la misma realidad, incluso cuando, superficialmente, sus

mecanismos o sus códigos pueden ser diferentes" (Fischbein, 1975; p.6). En general, considera una

intuición como "una "idea" que posee las dos propiedades fundamentales de un concreto, realidad

objetivamente dada: "immediacy" ("inmediación") - es decir intrínsecamente evidente - y "certitude" ("certeza") no

en la forma convencional de certeza, pero prácticamente significa, certeza inminente" (Fischbein, 1987;

p.21). La intuición es una creencia cognitiva de carácter global, autoevidente y

autoconsistente, producto de la experiencia personal y que, como indican Fischbein y Gazit

(1984), no siempre coincide con el sentido considerado como correcto por el estamento

científico.

Fischbein considera el estudio del desarrollo del concepto de probabilidad como

especialmente significativo para el estudio de las intuiciones, pues en su desarrollo nos

encontramos ante una curiosa paradoja. En nuestra vida cotidiana gran parte de nuestras

conductas y manifestaciones son probabilísticas y reguladas por las intuiciones primarias.

Sin embargo, la utilización correcta de las normas probabilísticas están reguladas por la

teoría matemática que forma parte de lo que él llama intuiciones secundarias y que sólo

surgen después de un período de instrucción sistemático (Fischbein, 1975; Díaz Godino,

Batanero y Cañizares, 1988; Pérez Echeverría, 1988; etc). Antes de alcanzar dichas

intuiciones secundarias el individuo dispone de procedimientos que le permiten funcionar

ante la incertidumbre regulados por las intuiciones primarias. La determinación de las

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 140

estrategias de transformación de estas intuiciones primarias en intuiciones secundarias, es

en gran parte el objetivo del trabajo realizado por Fischbein y sus colaboradores.

Las intuiciones primarias son "adquisiciones cognitivas que se derivan de la experiencia del

individuo sin necesidad de una instrucción sistemática" (Fischbein, 1975; p.117). En otras palabras, la

intuición está ligada a la acción, se desarrolla de forma natural y posee rasgos cognitivos

que surgen a partir de la experiencia física y social, en contextos y situaciones cotidianas.

Como plantean Díaz Godino, Batanero y Cañizares (1988), en el ámbito del razonamiento

probabilístico lo que permite una mayor comprensión, y por tanto aplicabilidad de los

conceptos probabilísticos, es la experiencia en múltiples situaciones aleatorias; condición

relacionada con la naturaleza del conocimiento probabilístico y su complementariedad con

los contextos empíricos.

En su estudio, Fischbein parte del análisis de las investigaciones realizadas sobre el

tema y de sus propias investigaciones. A partir de ello concluye que el niño en su vida

cotidiana se enfrenta a numerosas situaciones azarosas. En ellas debe tomar decisiones

basándose en ciertas estimaciones intuitivas de las posibilidades con las que cuenta,

estimaciones que en general tienen un carácter subjetivo. En las acciones prácticas o

mentales que de ello se derivan intervienen directamente las intuiciones primarias que

posee el niño del azar. Fischbein parte del supuesto de que "las intuiciones primarias del azar están

presentes en las conductas diarias de los niños, incluso antes de los 7 años" (Fischbein, 1975; p.118). Es

decir, en términos escolares, los niños preescolares tienen ya ciertas intuiciones

probabilísticas.

Estas intuiciones primarias surgen de la acumulación de información por parte del

niño producto de experiencias en una realidad probabilística. Ellas le permiten ajustar

progresivamente su conducta a las proporciones que dicha experiencia le ha mostrado que

son relevantes, a través de lo que Fischbein llama intuición primaria de carácter

anticipatorio. Dicha intuición es una especie de construcción mental global sobre la

solución de un problema, antes de conocer los pasos detallados del proceso de solución.

Algunos autores han cuestionado esta interpretación al preguntarse si las intuiciones de la

probabilidad que reconoce Fischbein no representan más una creencia personal o

preconcepto subjetivo, que el resultado de una reconstrucción consciente de la frecuencia de

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 141

los acontecimientos (Scholz y Waller, 1983).

Fischbein considera que un reflejo de la existencia de estas intuiciones, es la

presencia en los niños pequeños de conductas de "matching" (emparejamiento). Los niños

van adaptando sus respuestas o predicciones a las frecuencias reales de los acontecimientos;

es decir, con los estímulos ambientales correspondientes, tal y como planteaba Estes (1964)

en su "Stimulus Sampling Theory". La "probability matching" es "la expresión de una particular

intuición, la intuición de la frecuencia relativa" (Fischbein, 1975; p.58).

La utilización de esta conducta se presenta a veces como una estrategia

"intensificadora", tal como la denomina Fischbein, en la cual la respuesta se ajusta al

resultado que se ha presentado un número mayor de veces, basándose en realidad en la

frecuencia absoluta del suceso. En general, su uso aumenta con la edad, lo cual puede estar

relacionado con la mayor capacidad de memoria pues, como ya comentábamos, Brainer

(1981) comprobaba la dependencia de la capacidad de retención de información con la

resolución de tareas probabilísticas. Esta estrategia también aparece muy comúnmente entre

los adultos a la hora de emitir juicios probabilísticos, es lo que Tversky y Kahneman (1973)

y Shaughnessy (1983) reconocen como el heurístico de "accesibilidad" o "disponibilidad"

de los datos, según el cual se espera que ocurra aquello que sucede habitualmente, o sobre

lo que se tienen mayor información y por tanto se considera más normal o corriente.

Otra estrategia detectada por Fischbein, en el funcionamiento de los niños pequeños

a la hora de enunciar un juicio en una situación aleatoria, es lo que nombra como efecto de

"recency negativa" (recencia negativa); a la que caracteriza como una concepción intuitiva

en base a la cual se ve como necesario una equilibración entre las frecuencias de los

distintos resultados en una larga serie de sucesos (Fischbein y Gazit, 1984). Según sus

investigaciones, este efecto también se incrementa con la edad. De hecho, en los trabajos

efectuados por Kahneman y Tversky, es uno de los errores más frecuentes a los que da lugar

la utilización sesgada del heurístico de "representatividad". Un ejemplo ampliamente

conocido es la llamada "falacia del jugador", de la que también encontramos referencia en

los trabajos de Piaget.

Frente a estas intuiciones primarias que dirigen la conducta del niño, están la

llamadas intuiciones secundarias, que guardan todas las características de las intuiciones,

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 142

pero se diferencian de las primarias en que, son el producto de un proceso de aprendizaje a

través de una instrucción sistemática (Fischbein, 1975). En nuestro caso serían las reglas y

conceptos básicos del Cálculo de Probabilidades. El conocimiento formal del Cálculo de

Probabilidades como la mayoría de las intuiciones matemáticas y científicas, son producto

de la elaboración de intuiciones secundarias y por tanto solo surgirán tras un proceso de

instrucción intencionado (Fischbein, 1987). Esta idea es aceptada por numerosos teóricos

de la probabilidad, por ejemplo Feller (1975), que pone un énfasis especial en la necesidad

de un desarrollo adecuado de las intuiciones probabilísticas como un componente básico de

la enseñanza de la probabilidad. Hietele (1975) afirma que un desarrollo inadecuado de los

procesos intuitivos pueden producir la configuración de modelos explicativos erróneos que

dificulten, tanto el razonamiento frente a sucesos fortuitos en la vida cotidiana, como el

acceso al conocimiento analítico, constituyéndose en auténticos obstáculos.

Fischbein plantea, por tanto, que estas intuiciones secundarias se desarrollan

progresivamente a partir de las intuiciones primarias en función de la experiencia del sujeto

y de su desarrollo operativo. Pero piensa que este desarrollo no tiene porqué dar lugar a un

concepto correcto y operativo de la probabilidad si no media una instrucción específica.

Gran parte de las investigaciones de Fischbein y sus colaboradores están centradas

en obtener información sobre la transformación de las intuiciones primarias en secundarias.

Para ello, por una parte diseñan experiencias de aula o programas completos de enseñanza

para la iniciación a las probabilidades en diferentes niveles educativos (Fischbein, Pampu y

Minzat, 1969; Fischbein y Gazit, 1984). Por otra, analizan las respuestas de los sujetos en

situaciones aleatorias concretas, con o sin instrucción previa, para así obtener información

sobre su funcionamiento y conseguir una mayor comprensión del origen del concepto de

azar y de probabilidad en el niño y de la naturaleza de los obstáculos con los que se

encuentra la educación del pensamiento probabilístico (Fischbein, Nello y Marino, 1991).

En sus trabajos Fischbein no explica cómo estas intuiciones primarias se estructuran

y se modifican hasta alcanzar las intuiciones secundarias. Expone la necesidad de que para

que ocurra dicha transformación es imprescindible una instrucción sistemática. Pero las

experiencias de Fischbein y sus colaboradores, tras la aplicación de programas por ellos

diseñados, no han corroborado de forma explícita la supuesta influencia de una instrucción

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 143

deliberada. Como ellos mismos reconocen "poco se conoce sobre las intuiciones probabilísticas y su

desarrollo bajo la influencia de una instrucción sistemática" (Fischbein y Gazit, 1984; p.1), y aún, casi

10 años después, sigue siendo así.

En sus investigaciones dan algunas indicaciones a nivel de principios básicos a tener

en cuenta, como, por ejemplo, la necesidad de no ignorar las actitudes intuitivas en los

procesos de enseñanza, para que los sujetos puedan ir analizando y confrontando sus

expectativas plausibles con los resultados empíricos obtenidos. "La dinámica recíproca entre el

cálculo teórico de probabilidades y la observación de frecuencias relativas puede ser la mejor contribución al

desarrollo de las intuiciones probabilísticas eficientes" (Fischbein y Gazit, 1984; p.3). Idea interesante

en la medida que es coherente con lo analizado en el capitulo anterior sobre la naturaleza

del conocimiento probabilístico y su dependencia de las situaciones empíricas y que aparece

como una constante en la mayoría de las investigaciones sobre el desarrollo del

pensamiento probabilístico, tanto en niños como en adultos.

En conclusión, Fischbein plantea y comprueba que desde edades muy tempranas

los niños tienen una cierta comprensión, de carácter preconceptual, del azar, de lo aleatorio,

de la frecuencia y, por tanto, de la probabilidad. Comprensión basada en las intuiciones

primarias producto de su experiencia cotidiana, o dicho de otra manera, en su interacción

activa en el entorno. Estas intuiciones primarias han de transformarse en conceptos

operativos o intuiciones secundarias. Esta transformación sólo es posible tras un proceso de

instrucción intencionada, es decir, no es algo a lo que el individuo accede de forma natural,

por su propio desarrollo madurativo. Los currículos actuales desarrollan fundamentalmente,

los aspectos deterministas de la realidad: toda explicación científica-formal consiste en

identificar una causa y sus leyes. Subyace en ellos un trasfondo dicotómico en el que sólo

tiene cabida la existencia o la no existencia de las cosas, dejando fuera de los límites de lo

racional y científico los sucesos aleatorios, lo no determinado, el intervalo entre el si y el

no.

Ello puede justificar parcialmente el hecho de que gran parte de los juicios

probabilísticos de los sujetos estén sesgados, ya que la intuición del azar, desarrollada

habitualmente en contextos extraescolares, se hace irreconciliable con la estructura del

pensamiento lógico, objetivo primordial de la educación (Fischbein y Gazit, 1984; Díaz

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 144

Godino, Batanero y Cañizares, 1988; Fischbein, Nello y Marino, 1991). Por ello estos

autores plantean que las ideas básicas y las reglas del Cálculo de Probabilidades es algo que

ha de ser aprendido mediante instrucción explícita, sin dicha intervención intencionada no

puede ser desarrollado un concepto operativo de la probabilidad, ni tan siquiera en adultos

(Figura 15).

A modo de síntesis

Como analizan Hawkins y Kapadia (1984), es difícil conseguir una síntesis que

permita una aproximación entre las ideas de Piaget y las de Fischbein. En todo caso,

algunas de sus conclusiones pueden ser complementarias desde una perspectiva didáctica.

Para Piaget e Inhelder el concepto de probabilidad sólo emergería después de un

desarrollo operacional natural y autoregulado, que diese sentido a las nociones de causa y

azar; sin embargo, según Fischbein, si bien esas condiciones pueden ser necesarias, no son

suficientes para el desarrollo operativo correcto del concepto de probabilidad, ello sólo será

posible tras un proceso de instrucción específico. Es más, el concepto de probabilidad es

siempre el resultado de un aprendizaje, sea o no intencionado, basado en lo que denomina

intuiciones primarias. De esta forma Fischbein ha puesto el énfasis en la base intuitiva

como acceso a la comprensión de la probabilidad (Hoeman y Ross, 82).

Realmente ni los planteamientos de Piaget, ni los de Fischbein, ni los de sus

colaborados o detractores, explican la gran variabilidad de resultados que aparecen en las

investigaciones. En la actualidad no disponemos de ningún marco teórico que dé cuenta

completa del conjunto de los resultados de dichas investigaciones. Ni los planteamientos de

Fischbein ni los de Piaget, considerados de forma independiente nos ofrece esa posibilidad.

Sin embargo pensamos que, a pesar de la dificultad que supone, sería interesante hacer un

esfuerzo para aproximar las posiciones de ambos. Aproximación que nos permitiría obtener

un marco integrador muy útil para la intervención didáctica. Algunas claves para ese trabajo

podrían ser las siguientes:

Figura 15: fischbein

* Considerar que la teoría piagetiana trata fundamentalmente sobre el

desarrollo y, en lo que concierne a este trabajo, da cuenta del desarrollo de los

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 145

conceptos de azar y de probabilidad. No obstante, en la propia teoría podemos

encontrar justificaciones para establecer nexos entre el desarrollo y el aprendizaje,

perfilando los mecanismos básicos de ésta. Sin embargo la teoría de Fischbein trata

exclusivamente sobre el aprendizaje y no tendría porqué resultar contradictoria con

una teoría del desarrollo más amplia como la de Piaget.

* Desde el punto de vista epistemológico, Piaget intenta hacer una síntesis

entre el racionalismo y el empirismo, aunque tiende hacia el primero. Fischbein se

instala en un planteamiento claramente empirista. Sin embargo en la actualidad

existen teorías del aprendizaje y el desarrollo de orientación constructivista, que

integran ambas posiciones. Si bien desde ninguna de esas teorías se ha abordado el

concepto de probabilidad, podían muy bien servir de marco desde el cual

reinterpretar los resultados de las investigaciones analizadas hasta el momento.

* En relación con los presupuestos interpretativos de cada uno, Piaget y

Fischbein adoptan perspectivas distantes a la hora de enfocar el significado del

concepto de probabilidad que toman como punto de partida para sus

investigaciones: Piaget, desde posiciones más racionalistas, toma como referencia la

teoría laplaciana. Mientras que Fischbein asume los presupuestos frecuencialistas,

acordes con su concepción empirista. Sin embargo, si consiguiéramos aunar las

perspectivas racionalistas y empiristas en un marco coherente que explicara el papel

de cada una de ellas es el proceso de construcción del conocimiento, podríamos

entrever la función de cada una de las dos concepciones de la probabilidad en el

proceso de construcción del conocimiento estocástico en la Escuela.

Hasta ahora las perspectivas que hemos analizado se dirigen fundamentalmente a

estudiar la elaboración del razonamiento probabilístico y en conseguir superar las

deficiencias que van encontrando en los distintos momentos de la evolución del

pensamiento. En última instancia, el objetivo es comprender cómo el ser humano adulto

alcanza un nivel de actuación lógica y coherente, es decir, de racionalidad. Sin embargo, en

los últimos veinte años el interés se ha derivado más hacia el estudio del ser humano como

quebrantador continuo de esas normas, como un ser muchas veces irracional. Los trabajos

que vamos a revisar a continuación se centran precisamente en estudiar los errores que el

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 146

hombre comete en gran parte de sus juicios probabilísticos cotidianos, generalmente

basados en sus experiencias y en las primeras impresiones abstraídas de ellas. Impresiones

que pueden ser engañosas y que como ya decía Laplace en su famoso tratado de 1812 "Una

de las grandes ventajas del cálculo de probabilidades es que enseña a desconfiar de las primeras impresiones"

(Laplace, 1985; p.120).

3.3.3. ESTRATEGIAS Y SESGOS ANTE SITUACIONES DE INCERTIDUMBRE.

LOS ESTUDIOS DE TVERSKY Y KAHNEMAN.

En la actualidad existen numerosos trabajos que muestran una racionalidad bastante

limitada en los razonamiento utilizados por los adultos ante problemas probabilísticos. En

las últimas décadas se ha desarrollado un importante y sistemático estudio sobre este tema.

Son representativos de esta corriente los trabajos realizados por Tversky y Kahneman en los

que describen y clasifican las estrategias y sesgos que presentan los adultos en su

razonamiento probabilístico. Sus teorías han servido de base para numerosas

investigaciones en el campo de la toma de decisiones bajo incertidumbre.

Estos estudios han surgido en el marco de las teorías sobre toma de decisiones en

situaciones de incertidumbre y sus máximos exponentes, como hemos señalado, son

Tversky y Kahneman. En sus trabajos intentan analizar los procesos psicológicos que

subyacen en nuestras decisiones cotidianas al enfrentarnos a tareas de tipo probabilístico,

contrarias a las deductivas (Tversky y Kahneman, 1974). Tomando como punto de partida

los resultados de las investigaciones de Kahneman y Tversky, a los que considera como

base y motivación de su propio trabajo, son significativos los estudios desarrollados por

Shaughnessy, más enfocados desde la perspectiva de la Educación Matemática. De acuerdo

con Shaughnessy (1992) una gran parte de los estudios de los psicólogos se limitan a

observar y describir qué ocurre cuando los sujetos se enfrentan a situaciones dominadas por

la incertidumbre. Sin embargo, los investigadores relacionados con el mundo de la

educación matemática, no se contentan con observar o describir y tienden a buscar razones

a las respuestas de los sujetos y a generar procedimientos que permitan la modificación y

superación de los errores detectados. Por lo que son más relevantes para nosotros. Sobre

ellos tratemos más detenidamente al revisar las investigaciones desarrolladas desde la

Didáctica de la Matemática sobre la enseñanza y aprendizaje del conocimiento

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 147

probabilístico.

Desde una perspectiva científica, las tareas probabilísticas tienen un sistema

normativo que regula su funcionamiento: el Cálculo de Probabilidades. Este sistema puede

ser utilizado como referencia para contrastar las actuaciones de los sujetos y analizar cuánto

se separan de dicha norma al tomar decisiones en tareas probabilísticas. Los primeros

trabajos sobre toma de decisiones estaban enfocados desde esta perspectiva y se

enmarcaban en contextos, de juego, económicos o empresariales. Sin embargo, a partir de

los años 80, al extender los trabajos a una gran variedad de situaciones se comprobó la no

adecuación de este modelo para el estudio de los juicios probabilísticos (Wallsten, 1980).

Desde entonces se han ido elaborando un modelo de análisis, apoyado en las teorías del

procesamiento de la información y en las teorías cognitivas, según el cual la capacidad

humana para controlar el entorno que rodea al problema es limitada. Ello provoca que ante

cierto tipo de situaciones, el sujeto utilice estrategias que le permitan reducir "la incertidumbre

que produce nuestra limitación para enfrentarnos con la complejidad de los estímulos ambientales" (Pérez

Echeverría, 1988; p.51). El estudio sobre la utilización de los juicios heurísticos es propio

de este modelo. En el campo de las teorías de la decisión a este enfoque se le conoce como

"Teorías Descriptivas" y en ellas, han integrado su trabajo Tversky y Kahneman.

Al analizar las actuaciones de las personas ante situaciones de incertidumbre o

aleatorias, encontraron que las personas no utilizan en sus estimaciones de la probabilidad

un sistema normativo, sino que, se dejan llevar por "las primeras impresiones" utilizando un

número limitado de mecanismos heurísticos.

Tal como lo definen Tversky y Kahneman (1983), los "heurísticos" son una

estrategia, deliberada o no, basada en una evaluación natural y que es matizada, para

producir una estimación o una predicción, normalmente de forma no reflexiva. Son

mecanismos que incorporados a nuestro razonamiento, nos permite enfrentarnos con la

complejidad del mundo que nos rodea y reducir la incertidumbre presente en ciertas

situaciones. Restringen el marco del problema a una dimensión manejable por nuestro

sistema cognitivo reduciendo las tareas más complejas a simples juicios. Esto implica una

cierta manera de procesar o comprender los mensajes que no conlleva el estudio exhaustivo

de toda la información disponible. La palabra "heurístico" tiene su origen en el vocablo

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 148

griego, heuriskein, que significa "encontrar"; se podría entender como un instrumento

natural para la búsqueda de soluciones a los problemas que se presentan en las distintas

situaciones. En otras palabras, son "`reglas de andar por casa que se aplican espontáneamente como

parte de un proceso de evaluación natural desarrollado rutinariamente en la percepción y comprensión de

mensajes" (De Vega, 1984; p.470). La utilización indiscriminada e inconsciente de estas

estrategias nos llevan a cometer numeros errores y a emitir juicios claramente sesgados,

producidos por una confianza excesiva en los mecanismos heurísticos. Scholz (1983)

caracteriza un sesgo o falacia como "el resultado de un proceso cognitivo, desarrollado sobre la base de

la información representada en la memoria, que ha conducido a una conclusión o decisión equivocada" (p.5).

Kahneman y Tversky plantean que, al estudiar las actuaciones de las personas ante

situaciones de incertidumbre, podemos identificar los procesos que subyacen a la toma de

decisiones y los errores o sesgos sistemáticos que se presentan, proporcionándonos un mapa

de las intuiciones humanas; pero siempre es un estudio a posteriori y tiene muy poco valor

predictivo. Estos autores no intentan explicar el origen de los heurísticos, ni predecir la

actuación del sujeto o evaluar los heurísticos, simplemente proporcionan una descripción de

la actuación realizada por el sujeto. Interpretan la adecuación de las respuestas de sujetos en

contraste con la regulación normativa.

Estos autores han identificado tres tipos básicos de heurísticos: representatividad,

accesibilidad y anclaje y ajuste. En algunos de sus últimos trabajos nombran otro heurístico,

el de simulación, al que dedican un capitulo en el libro de Kahneman, Slovic y Tversky

(1982). En él estudian las situaciones donde puede observarse dicho heurístico que, en

verdad, como ellos mismos reconocen, puede ser reducido en la mayoría de los casos al

heurístico de accesibilidad por reconstrucción.

A) Sobre el uso del juicio por representatividad y los posibles sesgos. El juicio

por representatividad es una evaluación del grado de correspondencia entre un resultado y

un modelo, en función de su semejanza. "O sea que estimará la probabilidad de un evento de acuerdo a

cuán representativo sea éste de esa población" (Ojeda Salazar, 1990; p.266). Cuando los sujetos

utilizan el heurístico de representatividad se enfrentan a situaciones donde tienen que

valorar la posibilidad de que:

* Un objeto A pertenezca a la clase B.

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 149

* El suceso A tengan su origen en el proceso B.

* El proceso B de lugar al hecho A.

Por ejemplo, cuando el suceso A es muy representativo de B suele considerarse con

una alta probabilidad que A tenga su origen en B. Un caso típico descrito por estos autores,

es cuando consideramos la probabilidad de que cierta persona tenga una profesión en

función de sus características físicas o emocionales (Kahneman y Tversky, 1972). Este

heurístico permite evaluar la probabilidad en función del grado de representatividad de A

con respecto a B, es decir, el grado en que se parecen A y B (Tversky y Kahneman, 1974).

Por ejemplo, ante el hecho común del nacimiento de bebes, los sujetos ven más probable

que ocurra el suceso A (de 10 nacimientos, 6 sean niñas y 4 niños) que el suceso A' (de 10

nacimientos, 9 sean niños y 1 sea una niña). El suceso A' se diferencia más del modelo

matemático, que nos dice que en el límite el número de niños y de niñas se iguala; una

trasferencia directa de esta creencia les lleva a pensar que el suceso A es más probable que

el A' por semejanza con el modelo.

Reducen el juicio probabilístico a valorar la posibilidad de relación entre el suceso y

una determinada causa o modelo, en términos de semejanza entre ellos. Esta estrategia

puede ser de gran utilidad en muchas situaciones pero en otras conduce a graves errores,

pues la semejanza o representatividad no se ve influida por factores que sí afectan

directamente a la probabilidad. Tanto la consideración de las probabilidades previas como

el tamaño de la muestra en relación con la población que estamos considerando, son

factores que influyen directamente a la probabilidad, sin embargo, para nada afectan al

grado de representatividad (Bar-Hillel, 1982).

Como nos indican Madruga y Carretero (1987) "La representatividad está en el origen de

numerosas concepciones erróneas del azar que tienen gran persistencia en nuestra sociedad, aún en sujetos con

alguna formación estadística" (p. 189). Ya hemos indicado en anteriores ocasiones que un error

típico en la utilización de este heurístico es la llamada "falacia del jugador" (o el llamado

por Fischbein efecto de "recencia negativa"), según la cual los sujetos, en una serie de

experiencias aleatorias independientes, tienden a buscar "el equilibrio" entre las frecuencias

de aparición de los diferentes sucesos posibles. Por ejemplo, al tirar sucesivas veces una

moneda al aire, tras obtener una secuencia de caras parece evidente que en la próxima tirada

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 150

tiene que salir cruz; es como si el azar se considerase un proceso que se corrige a si mismo

y tendiera al equilibrio entre las distintas alternativas, como si una secuencia parcial tuviera

que reflejar las propiedades generales del proceso.

Estas concepciones erróneas del azar y de las leyes que lo rigen, como la conocida

"Ley de los Grandes Números", están ocasionadas por una valoración errónea del suceso, al

considerar su semejanza con el modelo general (Tversky y Kahneman, 1971). En el fondo

es como si las personas creyeran en la existencia de una "ley de los pequeños números",

según la cual en toda muestra de una población, por pequeña que sea, se ven reflejadas las

hipótesis esperadas para toda la población. Estos errores también son descritos por

Shaughnessy.

En la descripción general de los heurísticos y sesgos encontrados, Tversky y

Kahneman (1974) recogen como sesgos más comunes de la utilización de este heurístico, a

parte de los ya indicados, otras consideraciones erróneas de la probabilidad sustentadas en:

la ignorancia del tamaño de la muestra o de las probabilidades previas; la ausencia de

intuición del fenómeno de regresión a la media; la ilusión de la validez o insensibilidad a la

predictibilidad. Describiremos brevemente algunos de ellos.

Las investigaciones realizadas constatan que la mayoría de los sujetos, al afrontar la

tarea propuesta, no tienen en consideración los datos sobre las tasas de ocurrencia, la

información sobre las probabilidades previas, o la tasa básica de frecuencia. En general,

estos datos sólo son utilizados en ausencia de otro tipo de información o cuando tienen

alguna relación causal directa con el acontecimiento que han de valorar (Madruga y

Carretero, 1987). En las situaciones, a las que teóricamente se podría aplicar el teorema de

Bayes, las probabilidades previas influyen directamente en el cálculo de las probabilidades

a posteriori; sin embargo, los sujetos habitualmente cuando poseen alguna información

sobre la representatividad de un acontecimiento, ignoran las probabilidades previas.

Por ejemplo, al estimar el porcentaje de emigrantes argentinos que son

psicoanalistas es corriente, en nuestro entorno universitario, realizar el cálculo en función

de los casos que conocemos de emigrantes argentinos que son psicoanalistas en dicho

contexto, sin considerar los datos generales sobre el número de emigrantes argentinos que

hay en España, la proporción de ellos que son psicólogos y cuantos de estos son

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 151

psicoanalistas (descrito por Pérez Echeverría, 1988).

Otro sesgo característico de la influencia de la representatividad a la hora de emitir

juicios probabilísticos es la no consideración del tamaño de la muestra sobre la que estamos

estimando la probabilidad de un suceso. Si bien el tamaño de la muestra no afecta a la

posible semejanza entre el estadístico de la muestra y el parámetro de la población, sí

influye en la varianza de la muestra que cambia proporcionalmente a su tamaño y por tanto

varía la probabilidad de los acontecimientos. Este sesgo se presenta no sólo en personas

inexpertas o con poca formación, también aparece en los juicios de los expertos en

estadísticas y en diseños experimentales incluso a veces en su labor profesional (Tversky y

Kahneman, 1971; Kahneman y Tversky, 1982a; 1982b).

En general, las personas tampoco desarrollan una idea clara del fenómeno de

regresión a la media, y se asombran ante la existencia de una regresión que no esperaban,

inventando causas falsas explicativas del fenómeno. Como consecuencia de esta regresión

es probable que tras una versión del suceso, desviada de la media en una cierta dirección y

distancia, la versión siguiente presente una desviación menor, pero en sentido contrario. Por

ejemplo, en el contexto social, y más concretamente en el de aprendizaje, no se admite

como algo normal que, tras una actuación brillante de un adulto o de un niño, suela seguir

una mediocre o viceversa. Es habitual esperar que el nivel de actuación se mantenga;

ignorar esta tendencia natural a la media, y considerarla como desinterés o como algo

excepcional, según los casos, ha llevado en algunas ocasiones a considerar como más

efectiva, dados sus supuestos efectos inmediatos, la recriminación tras lo mediocre, que la

alabanza tras lo brillante. Como analizan Tversky y Kahneman (1974), "pensamos que el

fenómeno de la regresión sigue siendo esquivo a causa de la incompatibilidad con la creencia de que el resultado

predicho debería de ser representativo al máximo de la información disponible, y, en consecuencia, que el valor de

la variable del resultado debería de ser tan extremo como el valor de la variable de la información." (p.10).

Por último, también es muy característico de los juicios basados en la

representatividad, la ilusión de su validez; relacionada con la confianza que tienen los

sujetos en la ocurrencia del acontecimiento que ellos han seleccionado. Para predecir un

determinado resultado, tienen en muy poca consideración los factores que reducen la

precisión de la predicción, como puede ser una información redundante o irrelevante. Por

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 152

ejemplo, según la estadística correlacional, es más precisa la predicción basada en

informaciones independientes que en las informaciones redundantes, sin embargo, éstas son

para los sujetos mucho más representativas y las predicciones basadas en ellas ofrecen una

mayor confianza.

B) Sobre el juicio emitido desde la accesibilidad de los datos. El segundo

heurístico más comúnmente observado en la conducta de los adultos es el de accesibilidad,

también categorizado por Shaughnessy (1983). Se refleja en la tendencia que tienen los

sujetos a realizar predicciones basadas en ejemplos accesibles de un suceso, bien porque

están en la memoria o bien porque son reconstruibles fácilmente. "Así la accesibilidad es un

heurístico que afecta o refleja nuestra propia percepción de la frecuencia relativa" (Shaughnessy, 1992;

p.472). Este autor reconoce, por ejemplo, que esta estrategia está en el origen de las

concepciones erróneas sobre la estimación de combinaciones posibles; al ser más fácil la

reconstrucción de las combinaciones de 2 elementos que la de 6 elementos, provoca que el

sujeto considere las de 2 elementos como más numerosas.

Este heurístico en verdad da una clave muy útil para evaluar la probabilidad ya que

suelen recordarse mejor y con más seguridad los casos de clases abundantes. La experiencia

nos ha enseñado que generalmente los casos de clases numerosas se recuerdan con mayor

facilidad que los casos de clases menos frecuentes, es un heurístico fuertemente ligado con

los fenómenos de memoria. Pero existen factores que influyen en nuestra capacidad de

recordar datos o reconstruir situaciones que sin embargo no afectan a la probabilidad del

suceso, dando lugar a errores sistemáticos en los juicios emitidos desde dicha valoración.

Cuando evaluamos la probabilidad de ocurrencia de un evento y obtenemos los datos sólo

de la memoria, esta suele ser selectiva y provoca que el conjunto de referencia, la muestra

considerada, no sea representativo del fenómeno en su totalidad; es decir, de la población

que estamos juzgando, lo cual nos llevará a sesgos o errores sistemáticos en nuestros

juicios.

Hay aspectos que influyen directamente en la facilidad de recuperación de

información memorizada sobre casos conocidos como: la "salience" (prominencia) de un

suceso; lo impactante de la información; la familiaridad con la información; la cercanía en

el tiempo. Aspectos que al afectar directamente sobre la recuperabilidad de la información

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 153

pueden influir en los juicios emitidos desde la accesibilidad y conducir a consideraciones

sesgadas de la probabilidad.

En sus trabajos, Tversky y Kahneman (1973) plantean que la accesibilidad está

influida no sólo por la mayor familiaridad o experiencia de los sujetos con los datos, sino

incluso con la propia disposición de búsqueda de información en la memoria. Así tareas

diferentes ponen en funcionamiento disposiciones diferentes de búsqueda. Ante un suceso

extraño, raro o simplemente no interesante, la recuperación de información se hace

selectiva, eludimos o ignoramos información y tomamos decisiones sin contar con ella, o

mejor dicho, sin realizar una búsqueda exhaustiva de ella, provocando por tanto actuaciones

sesgadas.

Quizás el sesgo más característico de una incorrecta aplicación del heurístico de la

accesibilidad, es la llamada correlación ilusoria. Este heurístico ofrece una explicación

razonable a la presencia de este efecto, estudiado ya años atrás por Chapman y Chapman

(1967). Estos autores estudiaron la correlación que algunos profesionales de la psicología

clínica mantenían entre la forma que tiene un paciente de dibujar determinados rasgos de la

figura humana y ciertas patologías (esquizofrénico - ojos saltones). La correlación ilusoria

está basada en la fuerza del vínculo asociativo entre los dos hechos, cuando la asociación es

fuerte es probable que el sujeto concluya que los hechos están frecuentemente emparejados

y así los recuerde aún con la presentación de datos que los contradicen (Tversky y

Kahneman, 1974).

lgunas situaciones donde el heurístico es aplicado son aquellas donde las preguntas

sobre un suceso son contestadas a través de un mecanismo que se parece al funcionamiento

de un modelo de simulación. En sus últimos trabajos lo han propuesto como un heurístico

independiente, simulación, dada la importancia que puede tener en el contexto de la

predicción y planificación bajo incertidumbre, la manipulación de ciertos modelos

mentales. Según Kahneman y Tversky (1982c), esta estrategia se basa en la facilidad con

que se pueden construir ejemplos, modelos o escenarios para la valoración de las

probabilidades, vía diferente para "traer cosas a la mente" que el simple hecho de recordar

datos. Como siempre la aplicación de este heurístico puede llevar a sesgos y errores en los

juicios. Por ejemplo "La facilidad con la que la simulación de un sistema alcance un particular estado es

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 154

eventualmente usado para juzgar la "propensity" ("tendencia") del sistema real a producir tal estado"

(Kahneman y Tversky, 1982c; p.202). En general, la mayor facilidad para reconstruir

información sobre un evento y manipularla no se corresponde siempre con el conjunto de

sucesos más probables, sin contar con la posible destrucción mental selectiva de la

información de los acontecimientos pasados.

En el fondo, tras los juicios emitidos desde los heurísticos de representatividad y de

accesibilidad, parece subyacer el peso que para los sujetos tiene su experiencia en los

distintos medios y situaciones, sobre ella y sobre los datos que de ella extrae, filtrados por

sus propias concepciones y percepciones de los hechos, apoyan sus valoraciones y

decisiones.

C) Sobre el ajuste a los datos disponibles. Aún hay un último heurístico descrito

por estos autores, aunque con menos soporte empírico y sobre el que se han realizado un

número menor de investigaciones, es el denominado de anclaje y ajuste. Consiste en un

mecanismo a través del cual las personas realizan estimaciones a partir de un valor inicial

que se ajusta para producir la respuesta final; por tanto, sujetos con puntos de partida

iguales pueden producir estimaciones diferentes.

La información irrelevante, bien recogida en el enunciado de un problema o bien

obtenida por cálculos incompletos, es un tipo de información accesible a los sujetos que

fácilmente les lleva a cometer errores en las estimaciones posteriores, ajustadas a dicha

información. Algunos autores lo consideran más bien como un sesgo especial del heurístico

de accesibilidad, pues depende de la facilidad de obtener una información (De Vega, 1984).

También se asocia este heurístico con la evaluación de sucesos disjuntivos y conjuntivos,

sobreestimando o subestimando la probabilidad según los datos iniciales de los

acontecimientos compuestos.

D) Análisis global de la teoría de Tversky y Kahneman. Todos los heurísticos

descritos por estos autores son evaluados siempre a posteriori y no hay ningún intento de

predecir las condiciones bajo las cuales se realizan estos juicios, ni bajo las que aparecerán

los distintos sesgos detectados. Hay un gran número de factores - la experiencia con el

contenido del problema, el impacto o cercanía de la información, el tipo de información, el

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 155

contexto donde se aplican, etc - que influyen en la resolución de los problemas

probabilísticos pero es muy difícil especificar dónde, cómo o en qué medida. Estos autores

no intentan explicarlo.

Según Wallsten (1983) en la investigación sobre heurísticos y sesgos se pueden

detectar tres problemas, interrelacionados entre si:

* Una concentración excesiva de estudios alrededor de los tres heurísticos definidos

en las páginas anteriores.

* La tendencia a considerar la clasificación en heurísticos como una explicación.

* La ausencia de una teoría rigurosa.

Desde un enfoque más dirigido hacia la Educación Matemática, se han realizado

también numerosas investigaciones que dan explicaciones alternativas o complementarias, a

los distintos errores detectados en el razonamiento adulto, ante situaciones de

incertidumbre. Así, por ejemplo Konold (1989) concluye que, cuando ciertos sujetos se

enfrentan a la incertidumbre, razonan bajo esquemas causales. Su objetivo inmediato se

limita a predecir el resultado de la prueba simple más próxima, sin otras consideraciones y

aplicaciones de los heurísticos descritos por Kahneman y Tversky. Esta forma de

razonamiento es lo que Konold llama"outcome approach", responde a la percepción del

suceso simple como un fenómeno aislado y es considerado como un modelo informal de

razonamiento bajo condiciones de incertidumbre. Mientras que los heurísticos son producto

de la percepción de procesos aleatorios, los razonamientos bajo esquemas causales son el

resultado de la percepción del fenómeno como un proceso determinista. En un reciente

trabajo desarrollado junto con R. Falk considera que los juicios erróneos sobre la

aleatoriedad, que según los estudios de Tversky y Kahneman están basados en la noción de

semejanza, se apoyan en valoraciones de complejidad y están mediatizados por la dificultad

de codificar la información, la secuencia más compleja es más difícil de codificar y por

tanto es juzgada como más aleatoria (Konold y Falk, 1992).

Los trabajos de Shaughnessy (1977), (1981), (1983), recogen, analizan y clasifican

los errores detectados en sus investigaciones sobre las concepciones erróneas de

probabilidad desde la perspectiva de su incidencia en los procesos de enseñanza/aprendizaje

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 156

de estos conceptos. Entre los errores más característicos están los relacionados directamente

con la utilización de los dos primeros heurísticos. Identifica claramente diversos tipos de

errores debidos tanto a la no consideración de las informaciones proporcionadas por

experiencias aleatorias anteriores, como a la dependencia del sujeto de los modelos

deterministas con relaciones causales directas. Otros autores como Hope y Kelly (1983),

también en esta línea, han identificado errores debidos a la imprecisión del lenguaje

ordinario, ya analizado, comprobando que la comprensión verbal del problema es otro de

los factores que influye a la hora de analizar el acontecimiento concreto y tomar decisiones.

Lecoutre ha desarrollado diferentes investigaciones sobre las respuestas de los

sujetos ante sucesos aleatorios. Como resultado de sus investigaciones propone añadir un

nuevo sesgo a la lista ofrecida por Kahneman y Tversky, el sesgo de equiprobabilidad, que

se presenta al considerar como propiedad del conjunto de los sucesos posibles la

característica de igual probabilidad. Analiza las respuestas de los sujetos, en general niños,

y las clasifica en distintos modelos de razonamiento desde los que explica el significado del

sesgo de equiprobabilidad, modelos recogidos en gran parte de sus trabajos (Lecoutre,

1985; Lecoutre y Durand, 1988; Cordier y Lecoutre, 1990; etc). Por ejemplo, dentro del que

denomina "Modelo Azar" de pensamiento, la respuesta basada en la equiprobabilidad se

justifica por considerar a los sucesos de carácter aleatorio por naturaleza como

equiprobables. Creencia que, por otro lado, tiene una cierta correspondencia con el propio

proceso histórico. Como recordaremos, los primeros acontecimientos sobre los que se

trabajo en el cálculo de probabilidades, estaban relacionados con los juegos de azar, sucesos

que por las condiciones impuestas, en general, son equiprobables, y durante años se

consideraron sólo este tipo de sucesos.

Como a los anteriores trabajos descritos, sobre el razonamiento probabilístico,

también a las teorías de Tversky y Kahneman, se han replicado y se les ha criticado

duramente, al ser teorías meramente descriptivas y, según Pérez Echeverría (1988), por dar

una cierta sensación de vaguedad, al faltar la descripción del método experimental, del

análisis estadístico o las características específicas de los sujetos utilizados en la muestra.

Sin menospreciar las posibles críticas y validaciones de los trabajos realizados en esta línea,

no cabe duda que es sorprendente observar cómo individuos adultos y, en muchos casos

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 157

profesionales expertos, son incapaces de inferir de su experiencia cotidiana reglas

estadísticas tan básicas como la regresión a la media o el efecto del tamaño de la muestra.

3.3.4. CONCLUSIONES GENERALES

La mayoría de los datos existentes confirman que, si tomamos como parámetro de

comparación las normas de la teoría matemática, la mayoría de las personas adultas, en

general, no actúan correctamente ante problemas inferenciales o probabilísticos. Según

Tversky y Kahneman (1983), los principios probabilísticos y estadísticos no se aprenden de

la experiencia cotidiana porque los casos relevantes no se codifican de un modo apropiado.

Ideas que apoyan, en cierta medida, las tesis de Fischbein sobre la necesidad de un

formación específica. Como nos dice Pérez Echeverría (1988) es bastante difícil que, ante

un juicio erróneo propio, una persona pueda reconstruir, por si sola, el proceso que le ha

llevado a realizarlo y detectar en qué momento ha cometido el error. Es necesario un

proceso de reflexión sobre las manifestaciones o juicios emitidos y sobre las decisiones

tomadas, para permitir al sujeto reconstruir los datos considerados y la secuencia de

estrategias utilizadas y conocer cuál es el origen de su error.

Lo interesante ahora es seleccionar de toda esta información la más relevante para

coordinarla significativamente, en nuestro caso con un objetivo doble. Por un lado, detectar

los conocimientos didácticos específicos que un maestro necesita para el diseño y desarrollo

de procesos de enseñanza/aprendizaje, que posibiliten la construcción un conocimiento

probabilístico idóneo, en el contexto de un aula de Educación Primaria. Y por otro, las

propias condiciones de formación de los profesores, dado que, desde las investigaciones

desarrolladas, no podemos obviar las propias ideas de los profesores, ideas que en muchos

casos reflejan un nivel propio de las intuiciones primarias o simplemente preconcepciones

sobre el mundo de la incertidumbre.

En conjunto, dada la no existencia de una teoría completa sobre el desarrollo y

el aprendizaje del conocimiento probabilístico, de los diferentes estudios analizados

podemos extraer varios aspectos, que consideramos de especial relevancia a la hora

del diseño y desarrollo de los procesos de enseñanza y aprendizaje en los distintos

niveles educativos:

- Es propio del ser humano y por tanto del niño, la búsqueda de explicaciones

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 158

para lo que ocurre a su alrededor. En éste sentido se preocupa por el orden de

los sucesos y tiende a establecer relaciones de causalidad. Así la comprensión

del azar puede aparecer como complementaria de la relación causa-efecto.

- El conocimiento estocástico se construye progresivamente en interacción con

el entorno. Parte, a edades muy tempranas, de una intuiciones iniciales que se

van transformando progresivamente en conocimientos más elaborados y

complejos.

- En la medida en que el conocimiento estocástico es intuitivo, a la hora de

interpretar situaciones de incertidumbre, de lugar a un número considerable

de sesgos y obstáculos.

- El proceso de elaboración del conocimiento estocástico depende de la

experiencia del sujeto y de su nivel de implicación en las situaciones vividas.

Dichas situaciones han de estar consideradas en contextos específicos que

deben recoger la gran variedad posibilidades que refleja la vida real.

- Dicho proceso de elaboración requiere, la reflexión sobre las intuiciones y

concepciones previas relativas al fenómeno, la codificación y valoración de la

información que nos oferta las diferentes situaciones. Es necesario aprender a

seleccionar la estrategia idónea para cada caso.

- Este proceso llevará a los sujetos a diferenciación progresiva entre sucesos

necesarios, y por tanto predecibles, y sucesos aleatorios, no predecibles, base

de la adquisición de un concepto operativo de la probabilidad.

- Todas las conclusiones anteriores, no son sólo aplicables a la iniciación del

niño en el mundo de la probabilidad. Tampoco los adultos, sin una

intervención intencionada y reflexiva, pueden desarrollar un razonamiento

probabilístico idóneo, manteniendo niveles de comprensión y concepciones no

adecuadas e incluso incorrectas.

Todos estos trabajos no siempre están orientados hacia el mundo educativo. Aunque

sus informaciones, no cabe duda que nos son útiles, es necesario confrontarlas con los datos

procedentes de investigaciones dirigidas al estudio y análisis de los problemas específicos

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 159

del aprendizaje y la enseñanza del conocimiento probabilístico en la escuela.

3.4. ESTUDIOS SOBRE EL APRENDIZAJE Y LA ENSEÑANZA DE

LOS CONCEPTOS ESTOCÁSTICOS ELEMENTALES

Tras la revisión realizada en el Capítulo II, sobre el desarrollo de las nociones de

azar, aleatoriedad y probabilidad, su evolución histórica y epistemológica, en el presente

capítulo hasta ahora hemos analizado las distintas perspectivas teóricas sobre la elaboración

del conocimiento probabilístico: su comprensión conceptual, la problemática de su

aprendizaje y su aplicación en la vida cotidiana.

En este apartado nos centraremos en las investigaciones realizadas sobre el

aprendizaje y la enseñanza del conocimiento probabilístico desde la óptica de la Educación

Matemática.

A partir de todos los trabajos realizados desde el campo de la psicología y de la

progresiva inclusión de estos tópicos en los curricula escolares de todos los países, se ha

despertado un creciente interés por el tema que ha provocado la realización de un gran

número de investigaciones en los últimos 10 años. Dos fuentes, según Shaughnessy (1992),

se pueden considerar como significativas para el estudio de la enseñanza/aprendizaje del

conocimiento estocástico, las investigaciones realizadas por los psicólogos y las realizadas

por los educadores matemáticos, aunque sus objetivos son marcadamente diferentes, como

ya indicábamos antes. "Los psicólogos se centran fundamentalmente en observar y describir qué ocurre

cuando los sujetos se enfrentan a situaciones de incertidumbre...los educadores matemáticos y estadísticos...no se

contentan con observar, su objetivo está más dirigido a la búsqueda de una intervención que modifique las

concepciones erróneas de los sujetos" (Shaughnessy, 1992; p.469). Desde las dos fuentes es

significativo destacar el escaso número de investigaciones centradas en la problemáticas de

los profesores ante los procesos de enseñanza/aprendizaje de estas nociones, tanto en el

análisis de sus concepciones como de los procesos de formación. En este sentido, son

importantes los trabajos realizados desde el Institut für Didaktik der Mathematik, sobre la

formación de profesores en activo en esta materia y que analizaremos en la revisión de los

antecedentes de nuestro trabajo, en el siguiente capítulo.

En un primer acercamiento al estado actual de las investigaciones sobre la

enseñanza/aprendizaje del conocimiento estocástico, comprobamos que la mayoría de ellas

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 160

se refieren a los niveles de secundaria y algunas a niveles universitarios, pero existe un

número relativamente pequeño de investigaciones dirigidas al estudio de los niños de los

primeros niveles educativos, niños entre 6-12 años. Autores como Garfield y Ahlgren

(1988), Garfield y Ahlgren (1988a), Borovcnik y Bentz (1991), Sholz (1991), o Greer y

Ritson (1993a), desde diferentes perspectivas, han realizado importantes revisiones de

investigaciones relacionadas con la problemática de la comprensión probabilística. Desde el

punto de vista educativo, quizás la más relevante de los últimos años es la realizada por

Shaughnessy (1992).

De las investigaciones realizadas hemos seleccionado aquellas que, desde nuestra

propia visión del problema, sus resultados o conclusiones tienen cierta relevancia a la hora

del diseño y desarrollo de los procesos de enseñanza/aprendizaje y, por tanto, originan

alguna implicación en la formación de los maestros. Desde una visión global, las

investigaciones realizadas se pueden clasificar en tres grandes bloques, consistentes con la

clasificación realizada en el apartado anterior:

A) Niveles de comprensión de las nociones estocásticas. En primer lugar

hay un cierto número de investigaciones dirigidas a detectar y describir el nivel de

conceptualización de los sujetos, niños o adultos, sus concepciones sobre las

nociones elementales estocásticas, como son la noción de aleatoriedad, la noción de

probabilidad o bien dedicadas a la descripción de las decisiones tomadas por los

sujetos en función de la asignación de probabilidades a los distintos

acontecimientos.

B) Proceso de instrucción y su influencia en el aprendizaje. Un segundo

grupo esta más centrado en el análisis de los procesos de instrucción y sus efectos

sobre la evolución de las concepciones de los alumnos, incluyendo estudios

comparados sobre distintas formas de acceder a la enseñanza de lo estocástico.

C) Heurísticos y sesgos sobre situaciones de incertidumbre. Hay un

tercer bloque cuyo interés esta focalizado en la descripción de los razonamientos y

estrategias heurísticas utilizadas por los sujetos, los sesgos detectados y su posible

modificación. Este último grupo esta más dirigido a sujetos adultos, lo que es de

especial interés para nosotros.

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 161

3.4.1. INVESTIGACIONES SOBRE LA COMPRENSIÓN DE LAS NOCIONES

ESTOCÁSTICAS ELEMENTALES

De este primer grupo de investigaciones, una de la más característica es la realizada

por Green (1982). Su estudio se centró en el estudio de las respuestas dadas por 3000 niños

entre 11 y 16 años a un cierto número de cuestiones sobre problemas probabilísticos

descrito en sucesivos escritos (Green, 1982; Green, 1983; Green, 1987; Green, 1991). La

fuente principal de datos fue un test con un gran numero de tareas probabilísticas de

respuesta múltiple, aunque en algunos de los ítems se pedía una justificación de la elección.

En función de sus respuestas Green, determinó el nivel de desarrollo de los niños de las

distintas edades en relación con los estadíos propuestos por Piaget. Encontró que la mayoría

de los niños sabían algo sobre probabilidad e incluso algunos conocían el lenguaje de la

incertidumbre, pero, aunque su habilidad y conocimiento se incrementaba con la edad, la

gran mayoría no alcanzaba el nivel de razonamiento formal. Conclusiones significativas de

su trabajo fueron:

1.- Que el concepto de proporción es fundamental para la comprensión conceptual

de la probabilidad;

2.- La utilización y comprensión de términos como "cierto" o "imposible" es

bastante deficiente;

3.- Solamente un programa sistemático de enseñanza de la estocástica podría

eliminar los errores de pensamiento detectados en los niños.

Su trabajo es fundamentalmente descriptivo y Shaughnessy (1992) lo enmarca en la

tradición empirista británica. Fue replicado por J. Izard y otros (1992), dentro de un estudio

más amplio denominado "The Simulo Project". En él se recogieron las respuestas de 1100

niños de tres países diferentes, Hungría, Brasil y Canadá, con edades entre los 11 y los 16.

Sus reflexiones se centraron fundamentalmente en establecer patrones de desarrollo de los

conceptos probabilísticos, con especial referencia a las diferencias de sexo. Seleccionaron,

del test elaborado por Green, aquellos ítems significativos para determinar los niveles de

desarrollo. Sus resultados son semejantes a los obtenidos por Green y su conclusión más

relevantes es la poca información que el test aporta para poder fijar el nivel de desarrollo.

Cuestionan la gran extensión del cuestionario (35 ítems) en relación con el número de ítems

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 162

que en verdad son significativos (18 ítems).

Hay otras investigaciones más centradas en detectar las concepciones de los sujetos

sobre nociones concretas. En esta línea, el estudio presentado por Konold, con la

colaboración de R. Falk y otros autores (Konold y col., 1991), explora los criterios

subjetivos utilizados por los adultos en la determinación de lo fortuito o lo aleatorio. Se les

presentó a un conjunto de sujetos, novatos y expertos en estos temas, una serie de sucesos

sobre los cuales tenían que determinar su carácter aleatorio y justificarlo. Detectaron cuatro

modelos de razonamiento según los juicios estén basados en criterios de: equiprobabilidad;

múltiples posibilidades; incertidumbre o causalidad. Sugieren que la confianza subjetiva en

las "múltiples posibilidades" y en la "equiprobabilidad" pueden ser dos posibles barreras

para la comprensión de los fenómenos aleatorios en su conjunto. Idea consistente con los

planteamientos de Lecoutre y Duran (1988) quienes, como veremos, defienden el "sesgo de

equiprobabilidad", según el cual lo aleatorio es asociado a lo equiprobable, como uno de los

más frecuentes y resistentes en las explicaciones de los sujetos.

En el mismo sentido encontramos el trabajo de Konold y Falk (1992), también con

estudiantes universitarios, cuyo objetivo era analizar los juicios aleatorios. Parten de la

hipótesis de que los juicios aleatorios están mediatizados por la dificultad de codificar la

información sobre ellos, siendo ésta valorada subjetivamente. Para ello les presentaron a los

sujetos una serie de secuencias binarias en las que se les pedía valorar su carácter aleatorio

y que intentaran memorizarlas, capacidad que tomaron como medida de la valoración

subjetiva de la aleatoriedad de la secuencia, es decir de la dificultad de codificación. Los

resultados obtenidos les permiten sugerir que los juicios sobre el carácter aleatorio de la

secuencia están influidos por las valoraciones subjetivas, y están mediatizados por la

dificultad de codificar la información dada la complejidad de los datos; las secuencias más

complejas y más difíciles de memorizar son consideradas como las de mayor aleatoriedad.

Aunque sus conclusiones son muy iniciales, tienen sentido desde la perspectiva del azar

como complejidad, ya tratada en los apartados anteriores. Estos autores piensan que esta

reflexión tiene importantes implicaciones didácticas, "una interpretación de la aleatoriedad como

complejidad puede tener más atracción intuitiva para los estudiantes, y por lo tanto puede proporcionar la base

sobre la cual puede ser construida una comprensión inicial de la aleatoriedad" (Konold y Falk, 1992; p.7).

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 163

La existencia de variados razonamientos para justificar la aleatoriedad de la serie la

explican Ayton, Hunt y Wright (1989), por la imposibilidad de definir de forma rigurosa la

idea de secuencia aleatoria, no disponemos de un patrón de referencia fijo que nos

determine que estamos realmente ante una sucesión aleatoria.

En la misma línea, encontramos las investigaciones de Green (1988) y (1991), quien

realizó una investigación con 1.600 niños de 7 a 11 años sobre su comprensión de la

aleatoriedad a través de la cumplimentación de un test escrito, o la realizada por Falk

(1981) en la que también trata la percepción de los sujetos de la noción de aleatoriedad. En

cualquiera de ellas, como ya hemos visto en el capitulo anterior, se detecta la noción de

aleatoriedad como una idea controvertida, y no hay construida una concepción clara sobre

ella, depende de los diferentes contextos en donde es analizada, incluso de la formulación

de las cuestiones planteadas.

Más centrado en el tratamiento de la concepción de la probabilidad está el trabajo de

Falk (1992), quien a partir del problema de los tres prisioneros analiza las creencias

espontáneas sobre el problema y las estrategias intuitivas utilizadas para encontrar la

solución. Intenta encontrar algún criterio para predecir porqué y cómo la probabilidad de

elegir un suceso determinado es modificada en función de la evidencias obtenidas, pero

concluye que no hay datos que puedan ser considerados como criterios válidos a nivel

general.

Falk, Falk y Levin (1978) realizaron un estudio sobre las decisiones que toman

niños de 4 a 11 años, en una situación de juego, en función de la probabilidad de cada

resultado. La actividad consistía en elegir el color con mayor probabilidad de salir entre un

cierto número de objetos que presentaban dos colores diferentes, con variadas proporciones,

tamaños y materiales. Su objetivo era analizar los razonamientos y concepciones sobre las

situaciones aleatorias, la proporción y la probabilidad, comparando los resultados en

función de la edad del sujeto. Los resultados reflejan una tendencia en los estudiantes, bien

a rechazar la incertidumbre en su conjunto o a subestimar su impacto; lo que achacan a una

posible influencia negativa de la instrucción. Las elecciones de los más pequeños eran

correctas en un gran número, lo que les lleva a plantear la necesidad de introducir la

enseñanza de la probabilidad desde los primeros niveles educativos para atenuar la

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 164

instrucción "determinista" y potenciar el inicio de conceptos probabilísticos. La influencia

negativa de una educación centrada exclusivamente en un punto de vista determinista, en el

desarrollo del pensamiento estocástico, es también reconocida en su reflexiones por otros

autores como Steinbring (1984), o Díaz Godino, Batanero y Cañizares (1988), cuestión que

ya hemos comentado en anteriores ocasiones.

Uno de los últimos trabajos de Fischbein (Fischbein, Nello y Marino, 1991), se

centra en analizar el origen y la naturaleza de algunos obstáculos que consideran relevantes

para la educación probabilística. Un total de 618 niños entre 9 y 14 años realizaron uno de

los dos cuestionarios elaborados que presentaban características equivalentes. En dichos

cuestionarios se introducen ítems sobre caracterización de tipos de sucesos; sucesos simples

y compuestos y sucesos diferentes pero con estructura equivalente. Los resultados indicaron

un problema de comprensión lingüística, los sujetos no poseen una noción clara de términos

como "cierto", "posible" o "imposible", la noción de suceso simple y compuesto necesita

también de una especial atención; observaron la gran dificultad para abstraer la estructura

matemática de las situaciones planteadas. El resultado que en sus conclusiones consideran

más importante por sus implicaciones didáctica, es la dificultad para aceptar por parte de

los sujetos que los sucesos aleatorios pueden ser analizados desde un punto de vista

predictivo-determinista. Es decir, que nuestra expectativa sobre la ocurrencia de un suceso

pueda ser cuantificada, en cierta manera.

Con niños de secundaria, Maury (1984) estudio la resolución de un conjunto de

problemas relacionados con la cuantificación de la probabilidad. Del análisis de las

conductas observadas concluye que los niños disponen de varios modelos probabilísticos

espontáneos y que los movilizan en función del contexto en que han de intervenir. Ello

confirmaba su hipótesis general de que la actividad cognitiva implicada en la resolución de

un problema depende en gran medida de los hechos a los que esté ligado dicho problema.

En el mismo sentido, Maury (1985) investigó sobre el conocimiento espontáneo del

concepto de independencia en probabilidad y su evolución al modificar la presentación de

los problemas a trabajar. De nuevo confirmó su hipótesis de partida sobre cómo el contexto

de presentación de los problemas influye en los razonamientos y explicaciones de los

alumnos. En una investigación posterior, Maury (1987) hipotetizó también sobre la

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 165

influencia de ciertos variables contextuales en la actividad cognitiva implicada en la

resolución de problemas probabilísticos y del nivel de consciencia con que los

procedimientos son puestos en juego. Para ello enfrentó a unos 600 estudiantes de

secundaria con la resolución de un conjunto de 8 problemas, en los que variaba su

estructura, el vocabulario utilizado en su formulación, el contexto y las nociones

implicadas: cuatro trataban sobre la cuantificación, uno sobre la independencia y otro sobre

la probabilidad condicionada. En sus conclusiones confirmaba que la actividad cognitiva

movilizada en las distintas tareas depende en gran medida de los objetos sobre los que el

sujeto este razonando, y de los procedimientos que éste tenga disponibles. Detectó un tipo

de respuesta, que denominó "respuesta mixta", a la que consideró condicionada por la

tensión entre sus concepciones y la "presión" de la cuestión planteada.

Peard (1990) realizó un estudio de casos que analiza el funcionamiento de alumnos

de secundaria ante diversas situaciones probabilísticas relacionadas con el juego. Sus

conclusiones son interesantes al confirmar la influencia del entorno en la elaboración del

conocimiento probabilístico. La investigación fue realizada en Australia donde la afición al

juego es algo frecuente en todos los niveles sociales. Su intención era analizar si el

funcionamiento de los niños era más elaborado que el detectado en otros países en función

de su bagaje cultural. Los resultados corroboraron sus hipótesis al detectarse un alto nivel

de desarrollo de los conceptos probabilísticos en estos niños, lo cual le llevó a concluir que

estos conceptos son elaborados activamente por los individuos como respuesta a su entorno.

Otros estudios son los realizados por Leffin (1971), que detectó cómo los niños del

cuarto y séptimo grado no utilizan correctamente la información del espacio muestral para

calcular probabilidades, hecho que atribuye a la dificultad que para estos niños supone

manejar los problemas combinatorios; o el realizado por Jones (1974), quien desarrolló una

investigación con niños muy jóvenes usando la metodología clínica, siendo uno de los

primeros en utilizar esta metodología en la investigación sobre el conocimiento estocástico.

Jones efectuó diferentes grabaciones de entrevistas a niños indicando los tipos de errores

que iban cometiendo en la elección; por ejemplo, el color que elegían como más probable al

girar un "spinner" (peonza con zonas de diferentes colores). Concluyó que la elección de los

niños pequeños estaba basada en muchos casos en su color favorito, sin ninguna referencia

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 166

al área ocupada por dicho color, era una interferencia, en cierta forma negativa, del

contexto. Otra investigación realizada con niños de la escuela primaria, como un estudio de

casos, es la presentada por Koops (1981). Su objetivo era analizar las concepciones de los

niños frente a dos enfoques de la probabilidad, el modelo de Laplace y el de la

estabilización de la frecuencia, sin llegar a resultados significativos que permitiese optar

claramente por la idoneidad de alguna de ellas. Con respecto al enfoque subjetivo de la

probabilidad es significativa la investigación realizada por Huber y Huber (1987). Es un

estudio transversal en el que intentan investigar los principios que gobiernan la probabilidad

subjetiva y su validez a lo largo de los años. Sus resultados indican que los principios, su

base experiencial y su naturaleza estable, son válidos para todos los grupos de edad y se

mantienen a lo largo del desarrollo.

En el contexto de nuestro sistema educativo, y en el nivel de Bachillerato, se han

realizado algunas experiencias sobre las concepciones y razonamientos de los alumnos.

Acevedo y Romero (1991) y (1992) analizan, en primer lugar, el razonamiento proporcional

y probabilístico y, en un segundo trabajo, el razonamiento correlacional y combinatorio;

ambos estudios están integrados dentro de un programa más amplio denominado "El

proyecto T.R.L. (Test de Razonamiento Lógico)". En general consideran que se detecta un

cierto progreso en los éxitos de los alumnos a lo largo del Bachillerato, y una mayor

facilidad de resolución en las tareas de correlación que en las tareas probabilísticas, que

achacan simplemente al aumento de la edad.

En niveles más elementales es significativo el trabajo realizado por Giménez (1992)

sobre las estrategias presentadas, por niños de 8º de E.G.B., para determinar la

probabilidad. Su objetivo era identificar las estrategias usadas por los estudiantes en tareas

probabilísticas y relacionarlas con su conocimiento del número racional. Para ello realizó

una serie de entrevistas en las que se les propuso diversas situaciones de juego: elecciones

de bolas, dados y peonzas. Los primeros resultados obtenidos le permitieron identificar

doce estrategias diferentes. Alguna de ellas conducían a respuestas correctas e incorrectas.

Pudo comprobar la existencia de estrategias estables en todos los contextos y otras

inestables que variaban según la situación de juego.

En relación también con alumnos de secundaria, Serrano, Batanero y Díaz Godino

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 167

(1991) y Serrano (1993) han realizado sendos trabajos sobre las concepciones iniciales de

un grupo de 10 estudiantes de 1º de BUP, en relación a conceptos elementales asociados a

la idea de proceso estocástico. El método empleado fue el de entrevista individual, en las

que se les pedía resolver una serie de cuestiones relacionadas con situaciones estocásticas.

Se observaron pocas dificultades ante la comprensión de las características generales de

imprevisibilidad de los fenómenos aleatorios y la mayor parte tienen un razonamiento

combinatorio correcto. Sin embargo se detectan un cierto número de fallos en la aplicación

de la regla de Laplace, que los autores achacan a la dificultad de aplicación de la idea de

independencia de ensayos en un contexto práctico. Los alumnos manifestaron también

concepciones incorrectas respecto a la esperanza matemática en un contexto de juego de

apuesta.

En síntesis, los resultados de todas estas investigaciones, confirman la existencia de

intuiciones probabilísticas desde edades muy tempranas y su sesgada conceptualización a lo

largo de los años, incluso en adultos expertos; hecho que plantea la posibilidad y, en cierta

medida la necesidad de introducir, de forma sistemática, el tratamiento de los conceptos

probabilísticos en la escuela desde niveles muy iniciales para paliar tanto la influencia de

una instrucción posterior, demasiado formalizada y en general sesgada hacia lo

"determinista", como la de una experiencia asistemática y poco reflexiva en los aspectos

indeterministas de la realidad.

Esto nos lleva al segundo grupo de investigaciones, aquellas cuyo objetivo esta más

dirigido al estudio de los procesos de instrucción y sus posibles efectos en la concepciones

y razonamientos de los niños.

3.4.2. INVESTIGACIONES SOBRE EL PROCESO DE INSTRUCCIÓN Y SU

INFLUENCIA EN EL DESARROLLO DEL RAZONAMIENTO

PROBABILÍSTICO

En este grupo las investigaciones más significativas son las realizadas por Fischbein

y sus colaboradores, ya indicadas al estudiar sus planteamientos sobre el desarrollo de las

intuiciones probabilísticas.

En sus primeros trabajos, Fischbein, Pampu y Mînzat (1967) intentaron comprobar

cómo ciertas nociones estocásticas intervienen en el razonamiento de los niños y en sus

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 168

conductas desde edades muy tempranas. En su investigación observaron cómo las

conductas de los niños pequeños se iban adaptando, o "emparejando" como ellos lo

nombran, a las frecuencias con que se presentaban las diferentes secuencias aleatorias.

Detectaron la clara influencia de la noción azar/suerte/posibilidad en situaciones concretas.

En trabajos posteriores diseñaron procesos de instrucción específicos para el conocimiento

estocástico, en aspectos y niveles diferentes, para comprobar su influencia en el desarrollo

del concepto de probabilidad. Así en Fischbein, Pampu y Mînzat (1969), desarrollan una

propuesta de enseñanza programada a partir de diversas lecciones y tareas que se trabajan

en el aula en tiempos correlativos. Estaba orientada como iniciación a la probabilidad por

niños de 10-12 años. De la reflexión sobre los resultados concluyen que:

* La comprensión de la dinámica de los fenómenos estocásticos necesita de la

realización efectiva de experiencias aleatorias, que se van transformando

progresivamente en experiencias mentales.

* Dicha realización debe coordinar tanto los aspectos probabilísticos como

estadísticos, como un cuerpo único necesario para producir una idea productiva de

los procesos estocásticos.

* La iniciación en los procedimientos combinatorios ha de estar integrada en dichas

experiencias aleatorias para evitar convertirlos en simples reglas de cálculo.

* Estas condiciones permiten la síntesis entre el azar y la necesidad, fusión esencial

para el dominio del concepto de probabilidad.

En esa misma línea ,Fischbein, Pampu y Mînzat comprobaron que incluso los niños

de preescolar presentaban una clara evolución en las tareas de proporción relacionadas con

situaciones probabilísticas después de un período de instrucción específica sobre el tema,

aunque la influencia era mucho más clara entre los 9 y 10 años (Fischbein, Pampu y Mînzat,

1970). Resultados similares se presentaron ante una instrucción sobre tareas combinatorias

(Fischbein, Pampu y Mînzat, 1970a).

En la investigación realizada por Fischbein, Barbat y Mînzat (1971), también

focalizada sobre un proceso de instrucción para la iniciación en la teoría de la probabilidad,

concluyeron que ésta puede contar con un "terreno intuitivo favorable en lo concerniente a los

conceptos y procedimientos siguientes: el concepto de suerte y de medida de la suerte como razón entre el número

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 169

de casos favorables y el número de casos posibles" (p. 277), pero reconocen el problema de

transformar una intuición primaria en una intuición secundaria, proceso que consideran no

puede ser reducido a una explicación limitada o a una definición simple, aun siendo clara y

convincente, sino que necesita de un ejercicio prolongado en variadas situaciones que

pongan en juego las estructuras necesarias para permitir, tanto la construcción de las

intuiciones secundarias, como la articulación del fondo intuitivo primario.

En un estudio realizado en 1984, Fischbein y Gazit analizaron los efectos de una

enseñanza programada para la introducción de la probabilidad y la noción de frecuencia

relativa, sobre las intuiciones y concepciones de los niños. El programa incluía actividades

prácticas y ponía un especial énfasis en la relación entre la probabilidad calculada "a priori"

y la frecuencia obtenida empíricamente. Entre sus resultados, analizados a través de dos

cuestionarios A y B pasados a los niños al finalizar el programa, el más importante es la

evolución en la comprensión y utilización de las nociones implicadas en las lecciones

desarrolladas como las de suceso seguro, posible e imposible; o suceso simple y compuesto.

Sus resultados en general no son muy satisfactorios pues si bien hay una clara evolución en

sus concepciones - controladas con el cuestionario A - al comparar los grupos

experimentales y de control, no se detecta una diferencia significativa en sus

interpretaciones intuitivas ni que mejoren sus estimaciones, realizadas en situaciones de

incertidumbre - controladas por el cuestionario B.

Según los propios autores, el factor más significativo detectado es la variable edad.

Los niños del curso más alto, 7º grado, manifestaban claras diferencias en algunos aspectos

con el grupo de control, pero presentaban controversia en otros, como el cálculo de

proporciones. Se detectaba la utilización de diferentes esquemas operativos en función de

las tareas. En sus conclusiones no llegan a explicar el porqué de estas diferencias en

relación a la edad, ni la causa de las diferencias que presenta cada sujeto en función de las

diversas tareas presentadas.

DelMas y Bart (1987) investigaron sobre la influencia de un proceso de formación

en el que un elemento esencial era la comparación entre las conjeturas iniciales de los

sujetos y los resultados experimentales. A los estudiantes en un curso introductorio se les

propone una tarea relacionada con una serie de lanzamiento de monedas, primero escriben

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 170

sus conjeturas sobre los posibles resultados y luego realizan la experiencia, comparando los

resultados y buscando explicaciones sobre la disonancia encontrada. DelMas y Bart

concluyeron que forzar esta comparación ayudó a los estudiante a comprender y aplicar el

modelo frecuencialista sobre el que estaban trabajando.

Algunos estudios iniciales sobre la instrucción estocástica, se centran en el análisis

de los resultados obtenidos al poner en juego una determinada lección sobre probabilidad,

normalmente de muy corta duración. En esta línea están los trabajos de Shulte (1968),

White (1974) y Moyer (1974). Cada uno de ellos encontró un cierto incremento de las

adquisiciones de los estudiantes sobre el concepto de probabilidad, pero las diferencias

entre la evolución de los grupos experimentales y de control eran muy poco significativas

en relación con la modificación de los razonamientos, las habilidades o las actitudes; es

muy probable que la corta duración del proceso y la excesiva delimitación fueran variables

determinantes.

Glaymann (1976) realizó una experiencia centrada en la realización de una

secuencia de actividades de introducción a la probabilidad y a la estadística con niños de 9 a

10 años a través de una aproximación inductiva por experimentación. Presentaba a los

niños dos ruletas de diez sectores cada una y las condiciones del juego. Ensayaban 2000

veces la tirada, trabajaban con las frecuencias relativas, que se representaban y se

comparaba el resultado experimental con el obtenido a través de una tabla de números

aleatorios. A partir del análisis de los resultados, y en función de las estrategias y

razonamientos utilizados, concluyó que para poder disponer de un modelo aleatorio y de

unos procedimientos de cálculo simple, todo "método" a desarrollar en la escuela elemental

debe combinar al mismo tiempo la combinatoria, la probabilidad, la estadística y la

simulación. Reservando para más tarde el atender a la diferenciación de los dominios

específicos; "aprender a imitar al azar" es previo a la construcción de un modelo teórico.

Otra investigación, realizada por Kapadia (1980) con niños de 11 a 16 años, analiza

un proyecto de trabajo basado en la resolución de problemas, considerando a la Estadística

como una materia interdisciplinar. Se presentan situaciones problemáticas en diferentes

contextos, en los que están implicados diferentes conceptos fundamentales estocásticos, sus

conclusiones se refieren fundamentalmente al nivel actitudinal de los niños hacia las tareas

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 171

propuestas y su modificación positiva, más que a la evolución de sus concepciones, sobre

las que no hace comentarios significativos.

Steiner (1990a), utilizando el tema de las votaciones, desarrolla un proyecto de

enseñanza/aprendizaje durante tres semanas con niños de los grados 11 y 12, sobre la base

del trabajo en grupo y la discusión. Parte de una visión epistemológica compleja de la

educación matemática y considera a esta investigación como una focalización limitada y

diseñada para ello. Toma como una variable significativa el contexto en que se integra el

trabajo y el valor social del tema en cuestión. Sobre el análisis de la información recogida

en el desarrollo de las clases, concluye validando el camino inductivo y genético que

permite al niño construir su propio conocimiento y adquirir progresivamente una visión más

formal del conocimiento estocástico, modificando claramente su actitud hacia el

conocimiento matemático.

Una propuesta de introducción de la probabilidad en la escuela, basada en la

interpretación de la probabilidad como un valor estable de la frecuencia relativa, es la

realizada por Warmuth (1991). En ella y después de una fase propedeútica, que sitúa en el

final del nivel elemental, se introduce al niño en el calculo matemático. Lo más

significativo de su propuesta es la valoración que hace de la relación mutua entre el modelo

matemático y la realidad, idea que como ya apuntamos en el capitulo anterior es una de las

características fundamentales del conocimiento probabilístico.

Por último, y también en esta línea, es necesario hacer referencia a los trabajos de

Steinbring. En uno de sus trabajos (Steinbring, 1990a), presenta el estudio comparado entre

tres clases de matemáticas de secundaria, en las que se están trabajando conceptos básicos,

reglas y problemas de probabilidad. A partir del tratamiento de estos aspectos en el aula,

reflexiona sobre la concepción de la probabilidad subyacente. Así, en el curso (A) se

introduce la probabilidad desde su definición formal y las actividades dominantes son las

del cálculo formal. En el curso (B) aparece el desarrollo de la probabilidad de forma

explícita pero inmerso en situaciones concretas, integrando actividades de experimentación

en los procesos de aprendizaje. Y en la tercera clase (C) se percibe un énfasis en los

aspectos experimentales del tratamiento de las nociones probabilísticas, relacionados con el

contexto directamente. Concluye que esta tercera opción es la más apropiada, tanto en sus

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 172

logros en el avance conceptual y comprensivo de los alumnos, como por su coherencia con

el estatuto epistemológico del conocimiento probabilístico.

En otro trabajo posterior Steinbring (1990) y (1991a) analiza un episodio concreto

de una clase de niños de 5º grado, en el que los niños resuelven y discuten sobre las

soluciones encontradas a un juego, en el que se le ha pedido "a priori" la probabilidad de

una determinada solución. Su objetivo más que proponer un proceso de instrucción

determinado es analizar por un lado, la contradicción entre una enseñanza dirigida y la

naturaleza del conocimiento estocástico y, por otro lado, la relación entre dicha naturaleza y

el significado constituido socialmente en la interacción en el aula, a través de un micro-

análisis de dicho episodio. Sus conclusiones son una reflexión teórica sobre la dificultad de

comprensión de estas nociones en la que plantea la necesidad de un proceso continuo de

retroalimentación en la construcción de los significados relacionados con ellos, en función

de lo que nombra como la característica "auto-referente" de dichos conceptos. Es decir, su

progresiva adquisición en un proceso de exploración sobre ellos mismos, ampliando el

campo de aplicación y profundización.

En general, parece evidente la gran dificultad que tienen los estudiantes para

modificar sus concepciones estocásticas erróneas, idea consistente con las presentadas por

Garfield y DelMas (1989) o por Well, Pollatsek y Boyce (1990) en sendos trabajos sobre

procesos programados, con experiencias concretas de formación sobre diversas nociones,

como independencia, aleatoriedad o la influencia del tamaño de la muestra, utilizando la

simulación por ordenador. En ellos se puntualiza otro resultado interesante, ya antes

indicado en otras investigaciones, como es la influencia del contexto en que se presenta la

tarea y la estructura de la misma tarea puesta en juego en el proceso de instrucción. Well,

Pollatsek y Boyce apuntan además que muchos estudiantes no comprenden realmente el

efecto del tamaño de la muestra sobre la variabilidad de los datos o de los resultados,

mostrando gran resistencia a modificar sus concepciones. Garfield y DelMas, sin embargo,

obtuvieron resultados más mezclados. Algunos estudiantes cambiaban fácilmente sus

concepciones no adecuadas a lo largo de la experiencia propuesta, mientras que otros

persistía incluso después de haberla realizado y discutido sobre ella.

De todas estas investigaciones se puede concluir que una instrucción parcial y

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 173

puntual es insuficiente para un desarrollo adecuado del pensamiento probabilístico, es decir

un mero "adiestramiento" estocástico puede producir ciertas modificaciones parciales pero

no es suficiente para producir una evolución significativa en las concepciones erróneas de

los sujetos, producto de sus experiencias previas en contextos relacionados con la

incertidumbre y como tales conocimientos previos, muy resistentes al cambio. Es necesario

buscar y analizar otras estrategias que permitan la evolución real de las concepciones de los

sujetos.

En esta dirección, Shaughnessy (1977) intentó detectar estrategias efectivas para la

instrucción del conocimiento estocástico en universitarios, que permitan superar las

concepciones erróneas y reducir la confianza en el uso de los heurísticos a la hora de tomar

decisiones. Para ello presentó un curso en el que los estudiantes tenían que resolver y

discutir las decisiones adoptadas en tareas similares a las planteadas por Kahneman y

Tversky en sus investigaciones. En este trabajo el papel del profesor estaba perfectamente

configurado: organiza, provoca y diagnostica.

Shaughnessy concluye con una propuesta en el que el trabajo en grupo es pieza

fundamental y cuyo eje es la actividad de los alumnos construyendo y comprobando

modelos aproximativos. En un análisis retrospectivo que realiza Shaughnessy (1992)

considera, como conclusión mas relevante, la valoración del propio proceso de instrucción

en el que los estudiantes compararon tres tipos de informaciones: sus conjeturas iniciales,

los resultados empíricos y los resultados previstos por el modelo. El contraste y la reflexión

sobre dichas informaciones les posibilitó "la reconciliación de la disonancia entre sus

"misconcepciones" y sus observaciones empíricas" (p.482). Aunque, como el propio Shaughnessy

indica, el cambio de sus respuestas o creencias hacia las tareas propuestas no siempre es

posible, incluso después de un proceso de instrucción sistemático, "es muy difícil reemplazar una

"misconcepción" por una concepción normativa, una primera intuición por una intuición secundaria, o un juicio

heurístico por un modelo matemático. Las creencias y concepciones son modificadas lentamente" (p.481). En

la misma línea están otros trabajos suyos, Shaughnessy (1981) y (1983), en los que analiza

diferentes concepciones erróneas de los alumnos, en general relacionadas con el uso

sesgado de los heurísticos de juicio probabilístico señalados por Kahneman y Tversky.

Este trabajo conecta directamente con el tercer grupo de investigaciones más

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 174

centradas en la descripción y en algunos casos modificación del uso de estrategias erróneas

de razonamiento ante situaciones de incertidumbre. La mayoría de estas investigaciones

toman como base los trabajos de Kahneman y Tversky, descritos en el apartado anterior,

sobre los juicios no normativos de los sujetos ante situaciones de incertidumbre, sujetos que

en general son universitarios.

3.4.3. INVESTIGACIONES SOBRE HEURÍSTICOS Y SESGOS ANTE

SITUACIONES DE INCERTIDUMBRE

En esta línea se enmarcan las investigaciones de Ojeda Salazar (1990) y (1990a), en

las que analiza, respectivamente, la relación entre la posible asignación de probabilidades y

el contexto de aplicación, y sobre el uso de los heurísticos ante situaciones de probabilidad

condicionada. Realizadas ambas con grupos de niños de 10-11 años y 14-16 años,

considerando como una variable significativa la existencia de una instrucción previa en

probabilidad. En sus conclusiones encontramos de nuevo la discusión sobre el posible

obstáculo que supone la enseñanza tradicional de la probabilidad para el desarrollo de una

base intuitiva probabilística pues, cuanto mayores eran los sujetos, más empleaban los

métodos heurísticos para resolver las situaciones probabilísticas presentadas, y más sesgos

aparecían.

Hay un grupo de autores, como Bar-Hillel y Falk (1982); Falk (1983); Pollatsek y

col. (1987); Falk (1988); Borovcnik (1988) o Kelly y Zwiers (1988), fundamentalmente

educadores matemáticos y estadísticos, que han analizado las estrategias de los sujetos,

normalmente alumnos de secundaria o universitarios, ante situaciones de probabilidad

condicional. En estos trabajos se detectan las numerosas dificultades con que se enfrentan

los sujetos ante situaciones de probabilidad condicionada que originan gran cantidad de

decisiones erróneas. Una de las dificultades más importantes surge cuando un evento

condicionado ocurre antes del suceso que es la condición, dada la dificultad que supone

para un estudiante inferir la causa de un suceso, que está condicionado por otro posterior.

Además, el método usual para calcular tal probabilidad es el teorema de Bayes y éste da

muy poca o casi ninguna percepción intuitiva de la relación. Falk propuso que para trabajar

el problema podía ser útil la simulación física (Falk, 1983; Borovcnick, 1988). Otro tipo de

error conceptual ante la probabilidad condicional es la confusión entre un condicional con

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 175

su inverso; es decir, la relación contraria entre las causas (Falk, 1988).

Según Shaughnessy (1992), "las concepciones erróneas sobre la probabilidad condicional están

estrechamente relacionadas con la comprensión por los estudiantes de la noción de suceso independiente y de la

aleatoriedad en general" (p. 475), nociones que en general no son discutidas en la escuela.

Aunque relativamente hay muy pocos trabajos sobre las intuiciones y creencias de los

sujetos que versen específicamente sobre probabilidad condicionada, las investigaciones

realizadas apoyan el uso de situaciones del mundo real en los procesos de instrucción para

ayudar a los estudiantes en la comprensión de la condicionalidad.

Kelly y Zwiers (1988) hacen especial mención a la diferencia entre el mundo real y

la noción matemática respecto a la idea de sucesos que se excluyen o dependen

mutuamente, indicando la necesidad de la relación entre el modelo empírico y el

matemático. En el mundo real, los sucesos mutuamente excluyentes no son necesariamente

sucesos complementarios. Estos autores sugieren que se debe trabajar la diferencia entre

sucesos contrarios y contradictorios. En el fondo estamos de nuevo ante un problema de

lenguaje, los mismos vocablos no tienen el mismo significado en el lenguaje cotidiano que

en el matemático y esto puede ocasionar problemas en la comprensión de las ideas que

subyacen a dichos términos. En este caso estamos de nuevo ante el problema de relación

entre el mundo empírico y su modelización matemática, que no son isomorfos totalmente.

Como nos recuerda Steinbring (1986), el propio concepto matemático de independencia

estocástica, en sus inicios estaba asociado a nociones concretas, a dependencias o

independencias de hechos reales y sólo después fue distanciándose de lo empírico y

constituyendo un concepto matemático. Es un concepto difícil de entender, pues no todo lo

que parece independiente en el mundo real lo es matemáticamente y al contrario (Harten y

Steinbring, 1983). Un intento de acercamiento a este tema es el trabajo realizado por

Pollatsek y col. (1987), en el que elaboraron un cuestionario estructurado sobre el tema que,

aunque recoge algunas razones de las respuestas dadas, no aporta explicaciones relevantes.

Falk (1989) realizó otro estudio que versa sobre los juicios de probabilidad en

situaciones imprevistas o casuales y, entre sus resultados, encontró que los sujetos se

sorprenden más ante las propias casualidades vividas que ante las que les ocurren a otros

sujetos. Los sucesos auto-coincidentes son más fáciles de recordar y retomar que

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 176

casualidades similares de otros, por eso las casualidades auto -significativas son

proporcionalmente más sorprendentes que las casualidades sin sentido para uno mismo.

Esto es explicado a través del heurístico denominado "disponibilidad" por Kahneman y

Tversky. Las casualidades vividas son fácilmente recordadas y renombradas y, por

inusuales, son consideradas como sucesos únicos en nuestra experiencia, lo cual nos lleva a

considerar mínima la probabilidad de que ocurran sucesos de esa categoría.

En nuestro círculo más cercano de formadores de profesores, Serrano, Batanero y

Díaz Godino (1992) y Serrano (1993), han realizado una investigación con sujetos de 14

años (1º de BUP) y de 19 años (Estudiantes de Magisterio), sobre el uso del heurístico de

representatividad en situaciones de simulación. Comprueban que si bien el patrón seguido

por la mayoría de los alumnos es el de representatividad, aparecen gran variedad de matices

en los argumentos utilizados en sus respuestas: comparación de porcentajes sin tener en

cuenta el tamaño de la muestra, confianza en la continuación de la tendencia y, en otros, de

una compensación de la tendencia, etc. En todo caso encontraron una notable influencia del

resultado obtenido en la experiencia simulación sobre ciertas respuestas de los sujetos, lo

cual cuestiona la validez didáctica de la simulación en relación con la superación del

heurístico de representatividad.

Otro grupo de investigaciones relevantes son las realizadas por Konold y

colaboradores, dirigidas a descubrir las interpretaciones y estrategias de los sujetos ante

situaciones probabilísticas. Aunque los sujetos con los que trabaja Konold, como gran parte

de estos autores, son principalmente universitarios, sus conclusiones nos pueden aportar

datos, tanto sobre el propio proceso de enseñanza/aprendizaje, como sobre la realidad de los

profesores de primaria y las condiciones de su formación, pues entre otras cosas su

formación estocástica es prácticamente nula, aspecto coincidente con los sujetos

considerados en estas investigaciones.

Uno de sus primeros trabajos fue analizar los juicios informales de los sujetos ante

situaciones probabilísticas y su diferencia con la teoría normativa de la probabilidad, más

en concreto en relación con la comprensión de la noción frecuencial de la probabilidad

(Konold, 1983). En sus conclusiones propone un nuevo modelo para explicar el

razonamiento de los sujetos, la "outcome approach", según el cual los sujetos a lo hora de

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 177

predecir un resultado o tomar una decisión bajo incertidumbre están centrados en la

predicción de la prueba individual inmediata y no en el contexto global. Este modelo lo

propone como válido para explicar los errores detectados en los juicios cotidianos de los

sujetos "aunque inconsistentes con las teorías formales de probabilidad, sus componentes son lógicamente

consistentes y razonables en el contexto de la toma de decisiones cotidianas" (Konold, 1989; p.59), y lo

propone como explicación alternativa a los heurísticos descritos por Kahneman y Tversky.

Responde a una preferencia por analizar la situación probabilística desde una perspectiva

causal. Mientras que los juicios heurísticos se basan en percepciones de los procesos

aleatorios, los esquemas causales de razonamiento, tipo outcome approach, son provocados

por el predominio de la percepción de los procesos deterministas, al disponer los sujetos de

modelos válidos para percibir y analizar los experimentos aleatorios (Falk y Konold, 1992).

Estos sujetos no ven los resultados como una prueba simple de un experimento, incluida en

un conjunto de muchas pruebas, sino que perciben cada prueba como un experimento o

fenómeno individual y aislado. Este es el esquema de la estrategia de "outcome approach".

En la misma línea están gran parte de sus investigaciones.

Así, en otro de sus trabajos, Konold (1989) utiliza la entrevista a estudiantes

universitarios como medio para analizar el grado de adherencia de los sujetos al modelo

propuesto. Las explicaciones dadas las contrasta con el modelo normativo y desde el

significado del heurístico de representatividad, para poder confirmar la validez del modelo

de "outcome approach" como explicación alternativa de los razonamientos. De su análisis

concluye que los planteamientos de Kahneman y Tversky son incompletos y que el modelo

propuesto por él permite explicar un conjunto de errores que se dan habitualmente en el

razonamiento probabilístico, producto de focalizar el interés en el resultado individual

inmediato. En su trabajo, Konold y Cols (1990) analizan tanto los razonamientos

probabilísticos de un cierto número de universitarios, como los elementos que intervienen

en dichos razonamientos, con el fin de obtener datos que posibiliten su modificación.

Realizan dos estudios basados en la presentación de tareas sobre el lanzamiento de

monedas, similares a las presentadas por Kahneman y Tversky, con una entrevista posterior

en que las respuestas son discutidas y justificadas. Tras el análisis de los resultados,

plantean que las personas razonan desde una gran variedad de marcos y creencias sobre la

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 178

incertidumbre, pues dado que, en general, la probabilidad no es enseñada en la escuela, la

mayoría de los estudiantes tienen una conceptualización previa e informal de estos

conceptos producto de su experiencia en contextos cotidianos. Sugieren que un porcentaje

regular de respuestas a estas tareas reflejan una "outcome approach", es decir, un

tratamiento de la incertidumbre a través de una aproximación al resultado inmediato.

En el mismo sentido, Konold y otros (1993) comprueban que, ante la solicitud de

elección de la secuencia más probable en un lanzamiento de monedas entre cuatro

secuencias posibles, sorprendentemente, un 72% de los estudiantes contestan correctamente

sobre la equiprobabilidad de todas ellas, contrariamente a los resultado de Kahneman y

Tversky. Este resultado sugiere en principio que la mayoría de los estudiantes de secundaria

y universidad ven los resultados sucesivos de un proceso aleatorio como independientes.

Sin embargo en ítems posteriores y en las entrevistas realizadas a continuación, se detectan

respuestas inconsistentes desde el punto de vista lógico con la primera. Así, si se les

pregunta por la secuencia menos probable, sólo la mitad de los estudiantes contestan

correctamente. La primera conclusión es que realmente los sujetos no comprenden el

concepto de independencia y la interpretación dada, a la aparente contradicción entre las

dos situaciones, está relacionada de nuevo con la estrategia de "outcome approach". Según

estos autores, en el primer caso los sujetos funcionan como si les estuviera preguntando por

lo que va ocurrir ahora, inmediatamente, y concluyen que todo es posible, cualquier

secuencia puede salir. Mientras que en el segundo caso el esquema de funcionamiento es

diferente, y se basa más en el heurístico de representatividad, eligiendo la secuencia que

para ellos se diferencia más del modelo general de lanzamiento de las monedas. La

diferencia de funcionamiento entre las dos situaciones estos autores la achacan a la propia

estructura semántica de la pregunta.

Estos autores concluyen que estos datos tienen una implicación considerable en los

procesos de instrucción, alineándose con las ideas propuestas por Shaughnessy (1992) de

incluir en los procesos de instrucción unidades que permitan la confrontación de los juicios

correctos basados en la teoría normativa y los juicios informales basados en la utilización

de heurísticos como elemento fundamental de dichos procesos. Esta propuesta está basada

en la creencia de que un medio para provocar el cambio conceptual es crear situaciones que

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 179

permitan cuestionar el origen de las intuiciones particulares, provocando un conflicto

cognitivo; la resolución de dicho conflicto requiere de una reformulación y comprensión de

las situaciones, desde un punto de vista más elaborado. En sus propias conclusiones, estos

autores le encuentran ciertas limitaciones, en el sentido de que "las incompatibilidades y las

contradicciones probablemente no serán detectadas por los estudiantes hasta que ellos mismos razonen desde un

marco único" (Konold y col., 1992; p.30).

También con estudiantes universitarios y de posgrado, Coux y Mouw (1992)

realizaron una investigación sobre el uso de estos sujetos del heurístico de

representatividad. Estos sujetos estaban realizando un curso de introducción general a la

estadística o un curso de profundización sobre la inferencia estadística. Fueron divididos en

tres grupos, dos experimentales y otro de control. Con los grupos experimentales se trabajó

y se discutió sobre una serie de cuatro problemas en los que se trataba de determinar, bajo

sus criterios subjetivos, la probabilidad de ciertos sucesos en distintas experiencias. Se

administraron, individualmente, dos protocolos, un pre-test y un pos-test, que contenían

diversos ítems de respuesta múltiple, diseñados especialmente para medir el uso del

heurístico de representatividad. De los resultados obtenidos concluyeron que los juicios

sobre acontecimientos están en función de los hábitos lógicos o heurísticos aprendidos.

Estos son muy difíciles de romper ya que, dada la especial naturaleza de lo aleatorio, es

imposible disponer de una conjunto de evidencias concretas que apoyen un correcto

funcionamiento, no hay respuestas correctas y únicas. Como indican Falk y Konold (1992),

un claro obstáculo desde un análisis determinista de la situación, es la no diferenciación

entre "la elección correcta" y el "resultado favorable", no siempre el conocimiento lleva a la

certeza absoluta y a la respuesta correcta. Coux y Mouw sugieren que, una posibilidad para

provocar el cambio de los hábitos, sería ofrecer situaciones concretas e inquietantes en las

que la inconsistencia lógica del razonamiento del sujeto pueda ser demostrado,

permitiéndole su cuestionamiento.

Estos trabajos, en general, son una excepción entre el grupo de las numerosas

investigaciones realizadas por psicólogos pues, como confirma Shaughnessy (1992), es raro

encontrar en sus estudios algún interés en la influencia de la instrucción en las concepciones

erróneas detectadas. Los trabajos de Nisbett y colaboradores también exploran los efectos

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 180

de la enseñanza estadística. Por ejemplo, en la recopilación realizada por Kahneman, Slovic

y Tversky (1982), encontramos un trabajo de Nisbett y col. (1982) sobre la inferencia

inductiva realizada por las personas en su vida diaria. El procedimiento de análisis utilizado

se basa en que "el razonamiento inductivo debe de ser justificado en términos de adecuación de los modelos

subyacentes de los sucesos en cuestión" (p. 447) y no desde unos presupuestos generales dados por

la teoría normativa. En sus conclusiones analizan el carácter automático e inconsciente de la

mayoría de las inferencias que los sujetos realizan en su vida diaria, y ven su evolución, no

sólo como una mera maduración personal, sino como producto de los cambios vividos a

nivel lingüístico, cultural y educativo. Este trabajo se encuadra dentro de otro más general

cuyo objetivo es el estudio del razonamiento humano y de las habilidades aplicables a

muchas áreas de conocimiento. En este sentido, es importante el trabajo de Nisbett y col.

(1987) en el que describen los efectos de una enseñanza especifica sobre la Ley de los

Grandes Números. Analizan como los sujetos, tras un proceso de instrucción, son capaces

de generalizar sus aplicaciones a una gran variedad de situaciones. Las tareas que proponen

son relativamente fáciles con una propensión a la utilización de heurísticos. Como podemos

comprobar, hay un número significativo de datos que demuestran lo frágil que es nuestro

razonamiento bajo la incertidumbre.

En un sentido similar, como hemos indicado en líneas anteriores, Lecoutre y Duran

han realizado numerosas investigaciones sobre los razonamientos probabilísticos de los

sujetos, en las que han detectado un nuevo sesgo que han denominado "el sesgo de

equiprobabilidad", y al que consideran como un fuerte obstáculo en la evolución del

pensamiento estocástico, al ser de una gran resistencia. Este sesgo lo relacionan con la

utilización del heurístico de "representatividad", propuesto por Kahneman y Tversky.

Para comprobar su hipótesis han realizado distintas investigaciones alrededor de un

problema base: el lanzamiento de dos dados simultáneamente y comparar la probabilidad de

los posibles resultados compuestos. Sobre él han realizado diferentes modificaciones, en la

presentación del problema, en el tipo de información dada y en las características de los

sujetos presentándose en todos los casos un alto porcentaje de sujetos que razonaban bajo

criterios de equiprobabilidad, Lecoutre (1984), Lecoutre (1985), Duran (1987), etc., lo que

les permite comprobar la gran resistencia de este tipo de razonamiento. En investigaciones

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 181

posteriores, Lecoutre y Duran (1988), con sujetos de 14 a 19 años y sobre el mismo

problema, identifican cinco modelos espontáneos de razonamiento explicativo bajo criterios

de equiprobabilidad. El más común y significativo que detectan lo emplean el 65% de los

sujetos, es el modelo "Hassard" (Azar), según el cual los eventos aleatorios son "por

naturaleza" equiprobables.

En la misma línea, Cordier y Lecoutre (1990) enfrentan a estudiantes entre 16-17

años con un problema de la misma categoría pero con una presentación diferente. En este

caso es la extracción de dos objetos de una urna que contiene tres objetos, dos iguales y uno

diferente, y plantean la probabilidad de las distintas combinaciones. En su análisis detectan

cuatro modelos, pero curiosamente el más común en este caso ya no es el modelo

"Hassard" sino el "combinatoire", según el cual los sujetos evidencian que hay tres posibles

combinaciones todas con igual probabilidad. Este modelo lo utilizan alrededor del 75% de

los sujetos frente al 3% aproximadamente que utiliza en este caso el modelo "Hassard".

Estos resultados, si bien les permite confirmar de nuevo la alta resistencia de este sesgo,

constatan una clara desviación de los criterios de explicación en función de la presentación

del problema, el hecho de presentar un objeto con sentido en si mismo puede haber

condicionado las explicaciones dadas.

3.4.4 CONCLUSIONES GENERALES

Los resultados obtenidos nos aportan nuevos datos que corroboran y complementan

los presupuestos presentados en los diferentes trabajos teóricos, analizados en el apartado

anterior. Por ello, son de especial relevancia para la elaboración progresiva de un marco

general sobre el desarrollo del pensamiento probabilístico y sus problemas, que nos pueda

dar claves para la enseñanza de la probabilidad en la escuela, sus dificultades, sus limites y

sus condiciones; y en consecuencia son potencialmente fuente de información para el

conocimiento profesional de referencia.

Con respecto a los niveles conceptuales detectados y los tipos de razonamiento

que presentan los sujetos ante la incertidumbre, se pueden considerar como relevantes

las siguientes conclusiones sobre el desarrollo del pensamiento probabilístico:

- En primer lugar se corrobora la existencia de intuiciones primarias sobre la

aleatoriedad y la probabilidad desde edades muy tempranas, reflejo de la

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 182

experiencia personal en situaciones cotidianas con un cierto nivel de

incertidumbre.

- Se detectan ciertas concepciones sobre la aleatoriedad, como la asociación

azar/suerte que pueden ser un obstáculo para la comprensión del conocimiento

probabilístico, dada la dificultad de aceptar un posible análisis de los hechos

desde un punto de vista predictivo.

- Esta intuiciones o concepciones iniciales de los sujetos no evolucionan

paralelamente al desarrollo lógico del sujeto. El razonamiento de los

individuos bajo la incertidumbre se muestra, en general, muy frágil, incluso en

los adultos. Sin alcanzar el nivel de pensamiento formal.

- En los juicios cotidianos de los sujetos se detectan claramente concepciones

no formales y el uso de esquemas heurísticos de funcionamiento, condicionados

por la experiencia anterior del sujeto. Dichas concepciones, aunque dan origen

a numerosos sesgos en sus razonamientos, presentan una gran resistencia a ser

modificados.

- Por otro lado, en gran parte de las investigaciones se concluye que la

actividad cognitiva desarrollada ante este tipo de situaciones, depende de

diversas variables externas. En general, ante diferentes situaciones los sujetos

ponen en funcionamiento distintas creencias y esquemas operativos en relación

a los procedimientos disponibles y a las condiciones contextuales por el sujeto.

Las condiciones o variables externas con mayor influencia son:

* El contexto donde es presentado el problema, es decir, los aspectos de

la realidad que están relacionados con las diferentes cuestiones

planteadas.

* La propia formulación de dichas cuestiones, la forma y el sentido de

los interrogantes propuestos.

* Y el nivel de comprensión lingüística de los términos empleados en

dicha formulación.

Todo ello nos induce a reflexionar sobre la necesidad de diseñar y desarrollar

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 183

programas educativos que integren la enseñanza de la estocástica desde los primeros años,

para atenuar el efecto de una enseñanza excesivamente enfocada desde presupuestos

deterministas, y así facilitar el desarrollo de un pensamiento probabilístico.

A partir de las conclusiones presentadas en las distintas investigaciones

podemos extraer algunas consideraciones importantes, a tener en cuenta a la hora de

diseñar procesos de enseñanza/aprendizaje en los que esté implicado el conocimiento

probabilístico:

- Dado el gran número de conceptualizaciones informales detectadas sobre los

diferentes aspectos del conocimiento probabilístico, y su carácter estable y

resistente, éstas no pueden ser ignoradas en los proceso de enseñanza y

aprendizaje. Las concepciones previas de los sujetos han de ser necesariamente

su punto de partida.

- Su posible modificación y evolución hacia una visión más formal del

conocimiento probabilístico sólo es posible a través de procesos reflexivos que

permitan comprobar la inconsistencia de sus intuiciones, o su validez.

- El proceso de enseñanza debe responder a una relación dinámica entre la

realización efectiva de experiencias aleatorias y la construcción de modelos

matemáticos. Dichos procesos deben posibilitar la confrontación de las

conjeturas iniciales de los sujetos con los datos empíricos y las previsiones del

modelo matemático.

- Por último se defiende la idea de que las distintas experiencias y situaciones

probabilísticas, integradas en los procesos de enseñanza, deben estar

relacionadas siempre con hechos del mundo real, y coordinar aspectos

probabilísticos y estadísticos, así como diversos procedimientos de cálculo, y

diferentes formas de interpretar y representar la noción de probabilidad.

Cabría pensar que después de la reiterada defensa desde tantas investigaciones, de la

importancia y repercusión de su enseñanza/aprendizaje desde los primeros niveles y del

reconocimiento progresivo de su papel predominante en nuestra sociedad actual y en el

desarrollo del individuo, la probabilidad y la estadística fueran hoy un aspecto del

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 184

conocimiento matemático totalmente integrado en las escuelas. Sin embargo, a pesar de las

investigaciones y estudios realizados, muy poca probabilidad y estadística es enseñada de

forma sistemática en la mayoría de los países. Como nos matiza Shaughnessy (1992),

quizás donde existe una mayor tradición sobre el tema es en las escuelas europeas, ya que

en las escuelas americanas su presencia es casi nula al igual que en gran parte de las

españolas. Revisaremos, a continuación, su tratamiento en diferentes propuestas y proyectos

curriculares.

3.5. TRATAMIENTO DEL CONOCIMIENTO PROBABILÍSTICO EN

LOS PROYECTOS Y MATERIALES CURRICULARES

En los últimos años se han dado intensos debates sobre la idoneidad o no de la

introducción de la probabilidad y la estadística en la escuela y sobre el momento idóneo de

tal introducción. A partir de todas las investigaciones y discusiones realizadas, numerosos

argumentos se han ido aportando a favor de dicha inclusión, entre ellos:

* Su interés para la resolución de problemas relacionados con el mundo real y con

otras materias del currículum.

* Su influencia en la toma de decisiones de las personas cuando disponen sólo de

datos afectados de incertidumbre.

* Su dominio facilita el análisis crítico de la información recibida a través, por

ejemplo, de los medios de comunicación.

* Su comprensión proporciona una filosofía del azar de gran repercusión para la

comprensión del mundo actual.

El reconocimiento de su valor educativo ha llevado a incluir paulatinamente el

conocimiento estocástico tanto en los análisis y reflexiones más generales sobre el

currículum matemático obligatorio, como en los curricula escolares concretos de cada país.

Un claro reflejo de la importancia adquirida por la educación estocástica en los

últimos años y de su reconocimiento como parte integrante de la cultura matemática de los

individuos, es su inclusión en los "Estandares Curriculares y de Evaluación para la

Educación Matemática", publicados en 1989 por la NCTM. En ellos se recogen los

informes y reflexiones de un gran número de profesionales de la Educación Matemática y

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 185

se formula lo que se considera como contenido básico del currículum escolar matemático,

en respuesta a las demandas de la sociedad sobre la necesidad de cambio de las

matemáticas, tanto en su contenido como en la orientación de su enseñanza. Entre sus

introducciones novedosas, encontramos la sugerencia del tratamiento del conocimiento

estocástico a lo largo de todos los años escolares.

La justificación de su inclusión se apoya, por un lado, en la consideración de que,

para ser un ciudadano integrado en la sociedad actual, es necesario estar bien informado y

para ello es esencial entender los conceptos y técnicas fundamentales de la probabilidad y la

estadística y sus relaciones. "La recogida, organización, presentación e interpretación de los datos, así

como la toma de decisiones y predicciones basadas en dicha información, son todas ellas destrezas que tienen

cada vez más importancia en una sociedad que se base en la tecnología y la comunicación...El estudio de la

estadística y la probabilidad subraya la importancia que tiene plantear preguntas, hacer conjeturas y buscar

relaciones durante la formulación y resolución de problemas del mundo real...constituyen conexiones importantes

con otras áreas de contenido, como Ciencias Sociales y Naturales...Su docencia debe estar impregnada de un

espíritu de investigación y exploración" (NCTM, 1991; p.54). Y, por otro lado, el ritmo del cambio

en la sociedad actual es cada vez más acelerado, lo que supone la necesidad de una

formación que proporcione al ciudadano recursos para toda la vida, que le permitan

enfrentarse y comprender la complejidad de la sociedad en la que está inmerso. "El estudio de

la probabilidad ocupa a los estudiantes, de forma activa, en la exploración de sucesos y situaciones que son

relevantes en su vida diaria" (NCTM, 1991; p.114). No sólo les proporciona una información

valida para enfrentarse con los problemas cotidianos, sino que les permite un acercamiento

diferente a dichos problemas, una forma distinta de analizarlos.

Desde los Estandares se propone introducir "la exploración del azar" y el

tratamiento del "concepto de casualidad" desde los primeros niveles, incluido el Preescolar

y, un tratamiento posterior, dirigido a la elaboración de modelos, experimentales y teóricos,

de situaciones probabilísticas, que les sirvan en situaciones cotidianas como referente, a la

hora de determinar o hipotetizar posibilidades de ocurrencia, y tomar decisiones en función

de ello. En sus orientaciones metodológicas apunta la necesidad de implicar a los niños de

forma activa en su aprendizaje y de tomar como punto de partida situaciones que surjan del

mundo cotidiano, no como concreciones ejemplificadoras del contenido probabilístico

aislado, sino para tratar la totalidad de contenidos implicados y sus interrelaciones.

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 186

En la misma línea están las recomendaciones indicadas en el llamado Informe

Cockcroft, resultado de un estudio realizado sobre la enseñanza de las matemáticas en el

Reino Unido. En él se recoge un breve análisis sobre la situación específica de la enseñanza

de la probabilidad y la estadística, en el que indica los pocos trabajos e investigaciones

desarrolladas sobre el tema, cuando, curiosamente, se considera al Reino Unido como uno

de los países con mayor experiencia en la enseñanza del conocimiento estocástico.

Comenta que, en general, estos conocimientos son iniciados en el nivel de

Secundaria y, a menudo, se insiste en la aplicación directa de técnicas o fórmulas sin más

explicaciones de su significado. Un tratamiento de estas características, provoca

habitualmente un desarrollo, lejos de la comprensión de los alumnos al no incidir en la

discusión de los datos disponibles, en su interpretación y en las posibles conclusiones

alternativas en función del contexto de aplicación. Como contrapunto, afirma que estas

materias no pueden ser consideradas como un conjunto de técnicas, sino como una actitud

mental diferente que "admite la incertidumbre y la variabilidad en los datos y en la recogida de éstos y

permite tomar decisiones a pesar de esa incertidumbre" (Cockcroft, 1985; p.286). Sin entrar en

especificar contenidos concretos, puntualiza que son conocimientos que deben de ser

enseñados con lentitud, a través de todas aquellas situaciones y actividades necesarias para

que las ideas se comprendan, desarrollen y afiancen. Mantiene, además, que "los años de

primaria poseen un valor intrínseco: el de un período en que se abren las puertas a una amplia gama de

experiencias" (Cockcroft, 1985; p.104) y que proporcionarán una base de estimable valor para

la actividad matemática en los años posteriores.

3.5.1. PROPUESTAS CURRICULARES ESPECÍFICAS

Si bien en todos los estudios consultados se constata la casi total ausencia de un

material escolar apropiado para el trabajo en aula, sí hemos encontrado interesantes

propuestas curriculares específicas sobre el tratamiento del conocimiento probabilístico y/o

estadístico a lo largo de los distintos niveles educativos. Entre ellas podemos citar la

propuesta por Varga y Dumont (1973) en Combinatoire, statisques et probabilités de 6 a 14

ans, en la que proponen una secuencia de trabajo a lo largo de los ocho primeros cursos de

la enseñanza (6-14), dirigida fundamentalmente a la adquisición de habilidades y destrezas.

Su punto de partida es la recogida de información a través de la experiencia. A continuación

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 187

introducir a los niños, en los aspectos combinatorios y, progresivamente, en la búsqueda de

los posibles resultados del evento o experimento aleatorio. También tratan los distintos

aspectos del conocimiento estocástico, los distintos tipos de sucesos, la equiprobabilidad, la

frecuencia, la construcción e interpretación de las diferentes clases de tablas, gráficas,

conceptos, medidas y representaciones posibles, hasta finalizar en el último curso, con la

introducción de la visión conjuntista de las probabilidad y de las medidas de centralización

y dispersión fundamentales.

Desde nuestra perspectiva, los planteamientos de Vargas y Dumont desvinculan de

la realidad el conocimiento y comprensión de estos conceptos con demasiada rapidez. Al

finalizar la Primaria, en una edad donde los niños aún no están capacitados para una

tratamiento formal de estos conocimientos, ¿cómo puede representar la interpretación del

conjunto de sucesos como un álgebra de conjuntos? Todo el desarrollo de la propuesta se

apoya en una presentación cercana al conocimiento formal de la probabilidad y la

estadística, situando la combinatoria en la base de dicho conocimiento. En sus orientaciones

metodológicas sugiere la necesidad de acceder a estos conocimientos a partir de la

experimentación en situaciones especialmente planificadas y tratadas con un material

concreto. Son situaciones entendidas como elementos de experimentación, diseñados más

en función del contenido y su estructura, que desde la realidad e intereses del niño. Pueden

servir de referencia para su inclusión en proyectos o unidades más amplias que otorgen un

sentido a su tratamiento.

Una propuesta más en la línea de las ideas actuales, la presentada por Díaz Godino,

Batanero y Cañizares (1988) en su libro Azar y Probabilidad, que también recoge la

necesidad de su tratamiento desde los primeros niveles. En dicha propuesta, completada con

un estudio teórico sobre el tema, analizan la imposibilidad de enfocar la enseñanza

elemental de estas nociones hacia su adquisición formal, dada la incapacidad cognitiva de

los niños de estas edades. Como alternativa, enfocan su trabajo hacia la construcción de

intuiciones, basadas en la propuesta de una amplia fenomenología. Dicha construcción

constituirá un momento previo y base de la adquisición de conceptos formales, propio de

etapas educativas posteriores.

Proponen una serie de unidades didácticas para desarrollar en las aulas desde los

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 188

primeros niveles, incluido el Infantil, hasta la Educación Secundaria, con un tratamiento

escalonado del conocimiento estocástico, a modo indicativo y orientativo de un proceso

global de formación. La secuencia va en progresivo aumento de complejidad de los

conceptos implicados, fenómeno aleatorio, juegos combinatorios, frecuencias relativas, el

lenguaje del azar, comparación y asignación de probabilidad, etc. En el desarrollo de las

unidades propuestas siempre parten de situaciones experienciales en las que los niños ha de

tomar parte activa. Son situaciones puntuales, al margen de todo contexto global, que no

representan en sí mismas ningún proceso, ni una relación con situaciones más amplias.

Ahlgren y Garfield (1991), presentan un análisis de los distintos planteamientos

curriculares sobre el conocimiento estocástico en el que analizan:

* Las fuentes habituales del currículum: las disciplinas científicas, las necesidades

de la sociedad o el propio conocimiento del profesor.

* Las posibles condiciones que influyen en la elección de la orientación curricular,

entre las que incluyen la necesidad de superar las concepciones no adecuadas de los

alumnos.

* Y diferencian varias aproximaciones al currículum estocástico: aquellas cuya

organización se basa exclusivamente en un conjunto de actividades secuenciadas y

con sentido en sí misma; las que se organizan como unidades completas en sí

mismas, independientes y separadas; incluso las que se presentan como todo un

curso completo también diferenciado en sí mismo.

Estos autores presentan como alternativa el desarrollo de un currículum integrado en

el que proponen iniciar el tratamiento del conocimiento estocástico desde los cinco años.

Presentan los objetivos que consideran idóneos y el conjunto de ideas y destrezas a

desarrollar a lo largo de la enseñanza obligatoria. En su desarrollo enfatizan los aspectos

relacionados con el nivel de secundaria, dejando para la etapa de 5-10 años un único y

básico objetivo, la exploración de los conceptos relacionados con el azar, inmersa en

contextos amplios de experiencia.

Otras propuestas más centradas en un análisis de carácter metodológico son las

presentadas: por Olecka (1982) en el Proceeding of the First International Conference on

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 189

Teaching Statistics (ICOST); o por Bisson (1983) en su trabajo Du hassard aux

probabilités.

La propuesta de Olecka (1982) describe un proceso de instrucción sobre algunos

conceptos probabilísticos concretos como experimento simple y compuesto, probabilidad,

probabilidad condicional y esperanza matemática, basado en el método de las seis etapas de

Dienes. Si bien, por las nociones que analiza, no es muy útil para el nivel de primaria, sí lo

es por el proceso y los pasos que desde él propone, tales como: la interacción inicial con la

experiencia; la búsqueda de regularidades y de isomorfismos entre las distintas

experiencias; el uso de distintos sistemas de representación, etc. La última etapa, de

formalización, la propone solo para niveles posteriores de la enseñanza.

El proceso descrito por Bisson es una adaptación de la teoría de situaciones

didácticas planteada por Brousseau (1986). Su punto clave está en la elección de problemas

significativos que preservan el sentido del conocimiento implicado, inmersos en una

situación más amplia en la que está implicada todo el sistema de interacciones: la situación

didáctica. Plantea los tres tipos de situaciones didácticas que según Brousseau deben de

ponerse en juego en un proceso de enseñanza/aprendizaje del conocimiento matemático,

según el tipo de dialéctica que establezcan: de la acción, de la formulación y de la

validación.

* En las situaciones que domina la dialéctica de la acción se plantean

problemas al estudiante cuya solución esté relacionada con el concepto que se

pretende enseñar. Se debe posibilitar el contraste entre distintas soluciones y ajustar

su acción en función de la información que recibe de la propia situación.

* En la situación de formulación el alumno debe elaborar el modelo intuido

de la fase anterior, construyendo un lenguaje que permita el intercambio de

información con sus compañeros. Como resultado, el alumno crea un modelo

explícito que puede ser reformulado con ayuda de signos o reglas.

* El tercer tipo es la situación de validación en la que el objetivo es

conseguir que el estudiante avance en el proceso de matematización, al probar la

validez del modelo para interpretar hechos diferentes y convencer de su validez a

otros compañeros.

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 190

Tal como están descritas, consideramos que las situaciones en donde se plantea la

dialéctica de la acción, siempre inmersas en contextos más amplios que conecten con la

realidad del niño, son las idóneas para poner en juego en los primeros años de la primaria.

Son aquellas en la que los problemas planteados estén en relación con el concepto que se

pretende enseñar y en las que se pone al niño en contacto con la experiencia directa.

Hay otras propuestas, focalizadas en los niveles de Secundaria, como la presentada

por el Grupo Cero (1984) en Un proyecto de currículum de Matemáticas. De él, no nos

interesa tanto los contenido que proponen: recogida, tratamiento y análisis de los datos;

reconocimiento de situaciones de azar; juegos de azar y su tratamiento estadístico;

frecuencia relativa; probabilidad; etc; sino sus orientaciones metodológicas. Defiende la

introducción lenta del estudio de conceptos probabilísticos y estadísticos, concediendo

tiempo suficiente a las discusiones y experiencias subyacentes a partir de variadas

situaciones. En todo su trabajo se enfatiza la perspectiva frecuencialista de los sucesos y el

subsiguiente tratamiento estadístico de los datos.

También está centrada en secundaria la propuesta la presentada por el School

Council Project on Statistical Education (1980), Statistics in your world, en la Universidad

de Sheffield, cuna junto con la de Bielefeld, de gran parte de los trabajos e investigaciones

sobre la enseñanza y aprendizaje de la probabilidad y la estadística. En su trabajo ofrecen

una serie de cuadernos de actividades para el alumno (11-16) y de notas para el profesor. Su

orientación metodológica parte básicamente, del desarrollo del conocimiento en contextos

prácticos vinculados con el mundo del niño. Plantean una adquisición progresiva, tanto de

las técnicas, como de los conceptos, y la no necesidad de una justificación teórica completa

en estos niveles de la educación. Ponen de manifiesto el carácter interdisciplinar de estas

materias y por tanto su potencialidad para relacionar el conocimiento matemático con otras

áreas del currículum. Una adaptación de dicho proyecto es L´estadistica en el votre mon,

publicada por el ICE de la U.A.B. en 1990. En dicho proyecto se presentan diferentes

materiales para el alumno, y libros para el profesor, en los que se proponen una colección

de actividades y situaciones de experimentación que intentan estar conectadas, en cierta

forma, con problemas cotidianos y con el mundo real.

Existen también propuestas de situaciones o tareas de enseñanza en donde se

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 191

presentan experiencias accesibles a todos los niveles educativos e integrables en diferentes

procesos. Un ejemplo es el, ya clásico, libro de Engel (1988), L'Enseignement des

Probabilites et de la Statistiques. En él, Engel presenta una recopilación exhaustiva de

problemas y situaciones, discutidas y desarrolladas, con un claro carácter instructivo. Sus

ejemplos han sido fuente de un gran número de experiencias sobre la enseñanza de la

probabilidad y la estadística, realizadas por profesionales de diferentes niveles, tanto en sus

aulas, como en sus trabajos de investigación.

En su propuesta, aunque plantea inicialmente la necesidad de integrar estos

conocimientos en todos los niveles de la enseñanza, en su desarrollo real dirige el estudio

de las probabilidades hacia los niveles de Secundaria. La mayoría de las situaciones

propuestas por él necesitan para su desarrollo de unos mínimos conocimientos

matemáticos, algunos no accesibles a los niños de Primaria. Aún así, su obra es de gran

significación por aportar multitud de ideas útiles para trabajar en la escuela el conocimiento

estocástico.

Muchas de estas propuestas se caracterizan por pretender dar protagonismo a los

niños en el desarrollo de las distintas actividades, pero presentan un formato muy

específico, cerrado en muchos casos y lineal; con una secuencia determinada "a priori" e

independiente del contexto en donde pueden adquirir significado para el niño. Presentación

controvertida, en cierta forma, con la idea que tenemos sobre el sentido del tratamiento del

conocimiento matemático en la escuela, cuyo principal problema es "la construcción del sentido,

de la justificación ontológica de los objetos matemáticos" (Thom, 1974; p.148). Hecho dependiente del

contexto real de aplicación.

Todas estas reflexiones, proyectos y estudios, desarrollados en los últimos años, han

ido configurando nuevas propuestas en cuanto a la enseñanza de la matemática en general,

y de la estocástica en particular. Propuestas que paulatinamente se han ido reflejando en los

distintos sistemas educativos.

3.5.2. NUESTRO CURRÍCULUM PRESCRIPTIVO

El sistema educativo de un país es el reflejo de las necesidades socio-económicas,

culturales y políticas, la reforma del sistema surge cuando las necesidades de dicha sociedad

evolucionan y sus demandas se modifican. El cambio de las necesidades sociales y el mayor

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 192

conocimiento sobre el tema, a partir de los estudios e investigaciones realizadas, han

provocado la transformación de la opinión de aquellos elementos de la sociedad que

piensan sobre la enseñanza de la Matemática en los diferentes países. Desde ellos se

procede a la selección de los contenidos a enseñar configurando las propuestas oficiales en

función de las demandas de la sociedad. La inclusión oficial, en los curricula escolares

elementales, de los aspectos relacionados con el conocimiento estadístico y probabilístico,

es fruto de dicho movimiento.

Esta selección, por otra parte, es el resultado de lo que, el propio Chevalard (1991),

denomina trabajo externo de la transposición didáctica, y es lo que determina, a partir del

saber científico, los objetos del saber que deberán de ser enseñados, es decir el currículum

pretendido, que se propone, en gran parte, por mediación de los programas oficiales (Traves

y Westbury, 1989). No obstante, este paso no es suficiente, pues en el caso del

conocimiento estocástico la definitiva integración en el ámbito escolar se está dando a un

ritmo lento y difícil, entre otras razones, por el escaso conocimiento que aún se dispone

sobre la didáctica de la estocástica, la carencia de profesores cualificados y su particular

naturaleza epistemológica. Razones ya indicadas por Ràde (1986), pero que mantienen gran

parte de su vigencia. Por tanto, su inclusión en el currículum ejecutado a nivel de aula y su

reflejo en el currículum alcanzado por los alumnos, está aun muy lejos de ser una realidad

en un gran número de países, entre ellos España.

En un informe elaborado por la International Commission on Mathematical

Instruction denominado School Mathematics in the 1990s, publicado en España en 1988

como Las Matemáticas en Primaria y Secundaria en la década de los 90, se presenta una

revisión sobre los curricula de diferentes países y en ella se constata un alto grado de

uniformidad entre las diferentes propuestas en lo referente a aritmética y algebra, no tanto si

nos fijamos en los contenidos de geometría, y una gran variedad con respecto al estudio de

la probabilidad y la estadística. Hay países con un largo camino recorrido en la enseñanza

de estos temas desde la escuela elemental como Inglaterra o Alemania y otros en que su

tratamiento en los curricula es prácticamente insignificante. En España no ha sido incluido

en el desarrollo curricular de la enseñanza primaria hasta la ordenación del año 92, con las

nuevas propuestas resultado del desarrollo de la LOGSE.

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 193

En un análisis más exhaustivo de los curricula matemáticos presentado por Traves y

Westbury (1989), estos autores advierten que en general se centran más en el dominio de la

estadística, porque "aparentemente la probabilidad no es suficientemente importante a nivel internacional

como para justificar el rótulo de Probabilidad y Estadística" (p.16).

En el caso del currículum español, en las sucesivas ordenaciones de la Educación

Obligatoria 1970/1981/1984, no encontramos nada ni en cuanto a objetivos/contenidos ni

en el campo de las orientaciones metodológicas, para el tratamiento matemático de

nociones asociadas al azar y a la probabilidad. En la enseñanza básica actual las nociones

asociadas al mundo de la incertidumbre, están prácticamente ausentes, basta analizar los

libros de texto de EGB para constatarlo.

Sin embargo, en la regulación del Ciclo Superior de la EGB, en los llamados

Programas Renovados, si se recoge un bloque de contenidos, denominado "Estadística

Descriptiva", centrado en la introducción de las técnicas elementales de tratamiento y

representación de datos, sin ninguna alusión al tratamiento de la probabilidad y sus

relaciones, dejando estos contenidos para el BUP, comentando explícitamente que "este tema

enlaza en BUP con el estudio de las distribuciones estadísticas y de la probabilidad, instrumento matemático que

utiliza la estadística inductiva" (Programas Renovados de la EGB. Ciclo Superior, 1981; p.175).

A nivel metodológico, en los Programas Renovados había unos principios explícitos

que orientaban al profesor hacia la necesaria implicación activa del alumno, respetando y

adaptando la enseñanza a su ritmo de aprendizaje. Pero, sin embargo la presentación de una

secuenciación de objetivos y contenidos perfectamente delimitados y organizados

jerárquicamente, induce a los profesores, y fundamentalmente a los del Ciclo Superior, a

presentar los conceptos previamente de forma teórica, para luego aplicarlos a la resolución

de ejercicios.

Habitualmente, en nuestro medio educativo la enseñanza de la probabilidad se ha

iniciado alrededor de los quince años. En los programas del Bachillerato actual aparece en

los cuestionarios oficiales de primer curso un solo objetivo formulado en relación al

conocimiento probabilístico: "Introducir la teoría combinatoria y la noción de

probabilidad para el caso de un universo finito". Este planteamiento ha llevado

generalmente a una presentación de la teoría matemática de la probabilidad desde una

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 194

perspectiva clásica, en la que la asignación de las probabilidades iniciales a los sucesos se

basa en la regla de Laplace y en el cálculo combinatorio. El tema se desarrolla de forma

axiomática, sin considerar que en estos niveles la gran mayoría de los alumnos no pueden

comprender un desarrollo axiomático de la teoría matemática, y mucho menos cuando

adolecen de toda preparación intuitiva que, como hemos visto, es previa a cualquier

conocimiento formal de la probabilidad. El resto de los contenidos regulados están

relacionados con el conocimiento estadístico y en general no se establecen conexiones entre

ellos.

En sus planteamientos subyace la misma idea señalada para el caso de los

Programas Renovados. Los conceptos aparecen en los cuestionarios como objetos

matemáticos sobre los cuales, en primer lugar se ha de estudiar su definición y propiedades,

para luego ser aplicados a casos particulares, a modo de ejemplo. "Es el marco de una enseñanza

clásicamente estructurada en curso teórico y ejercicios, es decir, "tu aprendes, yo explico", según expresión de

Douady" (Margolinas, 1993; p.175).

La nueva regulación del sistema educativo español, producto del desarrollo de la

LOGSE, ha incidido significativamente en el tratamiento de este campo del conocimiento

matemático en los curricula oficiales. Por primera vez se recoge su enseñanza desde los

primeros niveles educativos y a lo largo de toda la Enseñanza Primaria y Secundaria

Obligatoria.

Con respecto a la Enseñanza Secundaria Obligatoria (E.S.O.), dentro de sus

objetivos, se presenta la necesidad de incorporar al lenguaje y modos de argumentación

habitual, la forma probabilística de expresión matemática y las diversas formas de explicar

la realidad determinada/aleatoria. Así mismo, recoge la utilización de técnicas sencillas de

recogidas de datos, tanto referidos a fenómenos causales como aleatorios y a la

interpretación de dichos datos.

Paralelamente en el apartado de contenidos se presenta un bloque denominado

"Tratamiento del Azar", en él se recogen los diferentes conocimientos, tanto conceptuales,

procedimentales, como actitudinales, que se han de trabajar en este nivel. Básicamente se

centran en: reconocer y caracterizar los fenómenos aleatorios; la asignación de

probabilidades tanto en experimentos simples como compuestos; introducir el concepto de

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 195

probabilidad a través del estudio frecuencial de los fenómenos; introducir la probabilidad

laplaciana como correspondiente a casos sencillos y equiprobables.

Entre los procedimientos a poner en juego propone la utilización de distintas fuentes

de información para asignar probabilidades, y de diversas técnicas y procedimientos para su

cálculo. Y entre las estrategias más generales: el reconocimiento de fenómenos aleatorios

en la vida cotidiana y en el conocimiento científico; argumentar conjeturas sobre su

comportamiento; y tomar decisiones en los distintos contextos en función de la información

obtenida. Estrategias que llevarían a los alumnos a una valoración positiva de la

información probabilística, a la hora de tomar decisiones ante situaciones de incertidumbre,

adquiriendo cautela y sentido crítico ante las creencias populares sobre los diferentes

fenómenos aleatorios.

Paralelamente se presenta un bloque de "Interpretación, representación y tratamiento

de la información", que se divide en dos grandes apartados: el tratamiento de la información

sobre los fenómenos causales, en el que introduce el significado de la proporcionalidad, y el

tratamiento de la información sobre fenómenos aleatorios, en el que directamente trabaja el

estudio estadístico de los datos. Mantienen un tratamiento paralelo y sin referencias en sus

orientaciones sobre las posibles relaciones con el otro bloque, donde se incidía en la

conceptualización del fenómeno aleatorio a través de parámetros probabilísticos,

complementarios de los estadísticos.

En las orientaciones específicas sobre el tratamiento del azar, plantean la

introducción progresiva de la idea de azar y probabilidad desde los primeros años de la

etapa. El trabajo debe estar dirigido al desarrollo de una intuición sobre la probabilidad,

para lo que propone directamente el enfoque frecuencial, tanto para el estudio de la

probabilidad como del significado y comportamiento de la aleatoriedad, permitiendo

detectar sus "regularidades". Da un papel relevante a la actividad manipulativa y al juego y

considera a la combinatoria como un método idóneo relacionado con distintas expresiones

de la probabilidad.

Sus orientaciones metodológicas, acordes con las orientaciones psicopedagógicas

generales de todo el sistema educativo español, recogen los planteamientos constructivistas

del conocimiento, comentados en capítulos anteriores y defienden los siguientes aspectos:

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 196

la importancia de los conceptos previos de los alumnos como punto de partida; el papel de

la aproximaciones contextuales e inductivas al conocimiento matemático; el proceso de

actividades como algo abierto y flexible con variedad de métodos de trabajo y

organizaciones; etc.

Por último en la secuencia sugerida, (MEC, 1992b), se considera al primer ciclo

como una continuación del trabajo desarrollado en Primaria sobre los fenómenos en los que

interviene el azar, llegando a cierto nivel de formalización de una medida del grado de

incertidumbre que le permita asignar probabilidades a través fundamentalmente del

recuento. Ya en el segundo ciclo propone la adquisición de una idea más precisa del

concepto de probabilidad como medida de lo esperable en la ocurrencia de un suceso y sus

posibles aplicaciones, pero sin llegar a su axiomática.

Existen otras secuenciaciones, sugeridas por distintos grupos de profesores, como

las tres propuestas recogidas en el libro del MEC (1993), en las que encontramos opciones

muy diferenciadas. Desde la consideración de los conocimientos probabilísticos y

estadísticos como un bloque único, hasta una fuerte tendencia hacia lo probabilístico en

detrimento de lo estadístico, retrasando su tratamiento al segundo ciclo. La propuesta

"Actividades sobre Azar y Probabilidad" por Cruz; González y LLorente (1993), está

presentada como material curricular, centrada en el tratamiento de la probabilidad y el azar

a través de diferentes experiencias. También localiza el tratamiento de estos temas a partir

del segundo ciclo.

El currículum español presentado en el Real Decreto del 1679/91 sobre la

regulación de la Educación Primaria (BOE del 13/9/1991), recoge la enseñanza de estos

conceptos en un bloque único denominado "Organización de la Información". En su

desarrollo se concretan los objetivos y los contenidos conceptuales, procedimentales y

actitudinales para la iniciación del conocimiento estadístico y probabilístico a lo largo de

los distintos ciclos de la primaria (MEC, 1992a).

En el desarrollo del bloque encontramos de nuevo una mayor carga en la

introducción de conocimientos y técnicas elementales de la estadística descriptiva, si bien

es cierto que plantea la necesidad de construir el conocimiento probabilístico en

interrelación con el propio conocimiento estadístico. El conocimiento probabilístico es

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 197

iniciado desde la introducción del carácter aleatorio de una experiencia hasta las primeras

asignaciones del grado de probabilidad de un suceso. En la secuenciación sugerida por el

MEC, la iniciación en la probabilidad y la caracterización de los tipos de sucesos, se

propone en el tercer ciclo de Primaria, sesgando todos los otros ciclos hacia un tratamiento

exclusivamente estadístico, en el que se incluyen recuentos, tablas, gráficos e

interpretaciones de los datos representados, todo previamente a la introducción de una

interpretación probabilística de la información.

En sus orientaciones más generales, acordes como ya dijimos con los presupuestos

constructivistas, se plantea la necesidad de partir de la experiencia del niño y de sus

conocimientos previos sobre el tema, respetar sus ritmos de aprendizaje y guiar su

aprendizaje a través del diseño de una secuencia de actividades, relacionadas entre si en la

medida de lo posible, pero de distintas categorías: actividades de presentación, de

desarrollo, de generalización y de profundización. Matiza al final que es útil comprobar que

los objetivos se han cumplido al finalizar el proceso.

Más concretamente, para el tratamiento del "Azar y la Probabilidad", proponen

como introducción idónea partir del la experimentación y análisis de los juegos de azar,

confrontando las estimaciones realizadas y los resultados obtenidos. Consideran que los

niños de estas edades "ya pueden apreciar el carácter aleatorio de un suceso mediante la observación de

fenómenos de la vida cotidiana y mediante la realización de juegos...pueden decidir de forma sencilla e imprecisa

el grado de probabilidad de un suceso" y que, por tanto, las actividades apropiadas para "el

tratamiento de estos contenidos son en su mayoría lúdicas y motivadoras y suponen el trabajo con objetos

concretos y conocidos, por lo cual no ofrecen gran dificultad para su enseñanza y aprendizaje" (MEC, 1992a;

p.94). Podemos percibir la sugerencia de una introducción de este conocimiento a través de

un camino puramente intuitivo y experimental que puede provocar su comprensión parcial

y desvirtuada.

En la propuesta presentada por la Junta de Andalucía, (BOJA del 20/6/1992), no hay

una presentación explícita de un bloque relacionado con algún aspecto del conocimiento

estocástico. Pero, como podemos comprobar están recogidos implícitamente en los distintos

objetivos generales. En la colección de materiales curriculares presentados por la Junta de

Andalucía (Junta de Andalucía, 1992) para la Educación Primaria, podemos señalar, por

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 198

ejemplo, dos objetivos vinculados con el aprendizaje del conocimiento estocástico:

(Obj. 1) "Utilizar los códigos y conocimientos matemáticos para apreciar, interpretar y

producir informaciones sobre hechos o fenómenos conocidos, susceptibles de ser

matematizados." (Tomo I; p.103).

(Obj. 6) "Utilizar técnicas elementales de recogida de datos para obtener información sobre

fenómenos y situaciones de su entorno; representarla de forma gráfica y numérica y

formarse un juicio sobre la misma." (Tomo I; p.104).

Este hecho se refleja a lo hora de sugerir una cierta organización y secuenciación de

los contenidos propuestos desde el Decreto de la Educación Primaria, recogida en el Tomo

II de dicho desarrollo. Así encontramos:

* En el segundo ciclo y, curiosamente, dentro del desarrollo del bloque

"Números y Operaciones", la siguiente sugerencia:

- "Exploración sobre la causalidad. Constatación del carácter aleatorio de algunas experiencias"

(Tomo II; p.99).

* Ya en el tercer ciclo, y dentro del mismo bloque de "Números y

Operaciones", encontramos las siguientes indicaciones:

- "Recogida, organización, representación, análisis y valoración de datos de forma cada vez más

sistemática. Formulación de sencillas inferencias. Presentación de manera ordenada y clara de los

resultados".

- "Aproximación a la idea de probabilidad. Exploración del grado de probabilidad de sucesos sencillos"

(Tomo III; p.100).

* En otro bloque distinto "Conocimiento, orientación y representación

espacial" pero, también en el tercer ciclo, encontramos reflejado el tratamiento

estadístico de los datos, de forma muy especial:

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 199

- "Representaciones espaciales de ideas y situaciones no espaciales. Elaboración e interpretación de tablas y

gráficas estadísticas" (Tomo III; p.99).

Dicha organización no parece reconocer la problemática específica del conocimiento

estocástico cuya naturaleza, como ya hemos comentado, difiere sustancialmente de otros campos

del conocimiento matemático, como el numérico o el geométrico. su presentación, diluida y

dispersa puede producir gran confusión a los profesores a la hora de su tratamiento en el aula.

A la hora de las orientaciones metodológicas, hay algunas indicaciones referidas a estos

temas. Así, indican que los niños del segundo ciclo suelen tener un especial interés por

situaciones donde ha de analizarse y preverse la probabilidad de un suceso o la repetición de un

elemento. Aclaran que siempre en un tono investigativo y lúdico, se le pueden proponer

actividades tendentes a discriminar lo seguro, lo posible, lo probable, etc. Igualmente importantes

consideran las actividades experimentales sobre modelos de probabilidad, localizadas en el tercer

ciclo. En ellas se ha de enfrentar al alumno con experiencias concretas en situaciones de

naturaleza probabilísticas, en las que tengan que prever el resultado y comprobarlo

experimentalmente, "descubriendo progresivamente que, puede saberse que suceso es más probable, y "cuanto" más

probable es" (Junta de Andalucía, 1992; p.96).

Hay una cierta tendencia de nuevo hacia el estudio de sucesos fundamentalmente

repetibles, en todas las propuestas oficiales. "Se trata de comprobar que los alumnos empiezan a constatar que

hay sucesos imposible, sucesos que con toda seguridad se producen, o sucesos que se repiten, siendo más o menos

probable esta repetición" (MEC, 1992; p.29), es decir, factibles de ser analizados fundamentalmente

desde una perspectiva frecuencialista y tratados desde la estadística elemental, considerando la

perspectiva clásica como un caso especial en situaciones de equiprobabilidad.

Este planteamiento puede tener ciertos problemas dada la dificultad que supone en un

contexto práctico, por un lado asegurar la equivalencia de los sucesivos experimentos y por otro,

su posible repetición infinita, lo cual lleva en muchos casos a resultado contradictorios. Al querer

confirmar rápidamente los resultados previstos por el modelo de referencia, pueden considerar

ciertos sesgos de la intuición probabilística, asociados al uso del heurístico de representatividad,

como también comenta Serrano (1993) en su trabajo. Aunque, al dar un papel significativo a las

concepciones iniciales de los sujetos en sus orientaciones metodológicas, se facilita la

consideración de las predicciones previas formuladas por los alumnos, de carácter subjetivo,

como soporte de la enseñanza de la probabilidad, en contraste con las sugerencias relativas a una

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 200

aproximación frecuencial de la probabilidad.

Hasta aquí, hemos constatado la evolución de las propuestas oficiales como consecuencia,

entre otras cosas, de los avances en la investigación. Pero ahora es necesario un segundo gran

paso: la integración real del conocimiento estocástico en el aula; es decir, convertir el

currículum "pretendido" en un currículum "ejecutado" y "alcanzado".

Gran parte de las propuestas curriculares analizadas respetan la idea general de unas

matemáticas escolares adaptadas a las necesidades del momento actual, desarrolladas desde las

perspectivas surgidas en el estudio de los procesos de enseñanza/aprendizaje de las matemáticas.

Parten de los presupuestos de una construcción significativa del conocimiento, orientaciones que

particularizan directamente al tratamiento del conocimiento estocástico, pero sin hacer mención

especial sobre la problemática específica de la comprensión de estos conceptos, ni sobre su

naturaleza epistemológica, opuesta en cierta medida a la estructura lógica formal del

conocimiento matemático.

Sobre dicha naturaleza, su influencia y las condiciones que impone en la enseñanza de la

probabilidad en la escuela, reflexionamos en las líneas siguientes; como último paso necesario

para cerrar el análisis psicodidáctico del conocimiento probabilístico.

3.6. LA ENSEÑANZA DEL CONOCIMIENTO ESTOCÁSTICO

Tras el estudio de cómo se desarrolla el razonamiento probabilístico y sus dificultades a

través de toda la documentación revisada, disponemos de una relativa información sobre las

condiciones y obstáculos para su aprendizaje. Ahora nos centraremos en otro elemento de

considerable importancia en el estudio de la Educación Matemática y, en consecuencia, de la

Educación Estocástica, como es el referido al diseño de los procesos de enseñanza. Éstos son de

carácter mucho más complejo que el propio proceso de aprendizaje, puesto que en ellos se han de

tener en consideración tanto la información referida a la especial naturaleza epistemológica del

conocimiento estocástico, como a las particularidades de su aprendizaje, más otro conjunto de

elementos como son, las condiciones contextuales, los medios disponibles o la propia disposición

del profesor. Es decir, nos referimos a la coordinación de todos los elementos que caracterizan el

desarrollo del proceso de enseñanza, la selección de problemas significativos, métodos, modelos,

representaciones, instrumentos, tipo de situaciones que se han de poner en juego, etc, para

conseguir el deseado aprendizaje de los alumnos.

En nuestro trabajo, la reflexión sobre las características de la enseñanza del conocimiento

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 201

estocástico es de especial interés ya que, como analiza Otte (1979), el campo de acción de la

formación de profesores está en la intersección de estos dos mundos, el del aprendizaje y el de la

enseñanza. La formación de profesores, en general y más específicamente la de los profesores de

matemáticas, es un campo complejo sometido a numerosas tensiones y a una relación, no

definida explícitamente, entre los conocimientos teóricos y la práctica educativa.

Los procesos de enseñanza, en principio, están diseñados para facilitar a los alumnos el

aprendizaje y la comprensión de los conceptos, las actividades organizadas pretenden ayudar a

asimilar el conocimiento de la materia. Esta premisa se traduce tradicionalmente en un proceso

de una "seudo- transposición didáctica", cuyo primer paso, en el caso de las Matemáticas

especialmente, es simplificar el conocimiento matemático para transformarlo en formas más

elementales, factibles de ser presentadas directamente a los alumnos y así facilitar su aprendizaje.

Se tiende a buscar un camino a través de la propia estructura de la disciplina, que permita el

aprendizaje lo más directa y sencillamente posible, guiándose por la estructura lógico-formal de

la Matemática.

Sin embargo, en los últimos años encontramos múltiples sugerencias sobre la

conveniencia de introducir el conocimiento matemático a través de un amplio conjunto de

actividades y estrategias diversas. Un ejemplo de ello, con amplia difusión entre los educadores

matemáticos, es lo sugerido en el llamado Informe Cockcroft (1985):

"La enseñanza de las matemáticas en todos los niveles de la educación debe incluir:

* exposición por parte del profesor;

* discusión entre el profesor y los alumnos, y entre estos últimos;

* trabajo práctico apropiado

* consolidación y práctica de las destrezas y rutinas básicas;

* resolución de problemas, incluyendo la aplicación de las matemáticas a las situaciones de la vida cotidiana;

* realización de trabajos de investigación; (p.88)

Más recientemente en las orientaciones metodológicas recogidas en los Estandares

Curriculares y de Evaluación para la Educación Matemática, publicados en 1989, se propone

que "el punto de vista constructivista del proceso de aprendizaje debe quedar reflejado en la forma en que se enseña

gran parte de las matemáticas. Por lo tanto, la docencia debería variar e incluir oportunidades en función de:

* trabajos adecuados;

* tareas individuales y de grupo;

* discusión entre profesor y alumnos y entre los propios alumnos;

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 202

* práctica sobre métodos matemáticos;

* exposición por parte del profesor; (NCTM, 1991; p.11).

No obstante, todas estas sugerencias han tenido muy poca repercusión en las aulas de

primaria, y la mayoría de los profesores, al enseñar matemática, mantienen una estructura lineal

tanto en la planificación de su labor docente, como en su desarrollo en el aula. Un número

importante de profesores consideran los contenidos curriculares como algo ya prefijado, algo que

no es cuestionable y que no provoca en sí mismo discusión alguna, por lo tanto, centran más su

atención sobre cómo tratar dichos contenidos en el aula para hacer más ameno y efectivo su

aprendizaje. Hecho que hemos podido comprobar en nuestra propia experiencia como

formadores de profesores (Navarrete y otros, 1992; Cardeñoso y otros, 1994). En el caso del

conocimiento matemático, a este supuesto hay que añadir la imagen generalizada de dicho

conocimiento como un algo perfectamente estructurado, lógica y jerárquicamente, con sentido en

sí mismo, y que ha de ser aprendido paso a paso. El contenido está prefijado hasta en su

organización; el profesor se a de limitar a presentarlo al alumno a través del mejor camino

posible, camino que normalmente es una versión simplificada y compartimentada del saber

matemático.

Hay numerosas investigaciones que intentan caracterizar las concepciones de los

profesores, con respecto a la naturaleza del conocimiento (Porlán, 1989; Carter, 1990), o más

específicamente, del conocimiento matemático (Thompson, 1984; Llinares y Sánchez, 1989;

Peterson y otros, 1989; Llinares, 1991; McNamara, 1991; Thompson, 1992; etc). En estos

estudios constatan que dichas concepciones condicionan en gran medida, la organización y el

desarrollo de los procesos de enseñanza. La mayoría de ellos coinciden en una idea: "las creencias

del profesor sobre las matemáticas (como disciplina y asignatura del currículum) pueden ser comunicadas a través de la

conducta de instrucción como modelos, teniendo efectos directos sobre el qué y cómo aprenden sus alumnos"

(Llinares, 1991; p.46).

En los niveles de Primaria muchos profesores tienden a presentar la materia a través de

cuestiones concretas e inmediatas, ilustradas con ejemplos; dirigiendo su acción a cuestiones

intuitivas, fundamentalmente relacionadas, con los conceptos que consideran básicos. Sobre ellos

y paso a paso se iran construyendo posteriormente los demás componentes del conocimiento

matemático. Es necesario unos fundamentos, unos conceptos básicos, claros conceptualmente,

sobre los que construir todo el edificio matemático, como un "conjunto referencial" del que

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 203

partir, en términos de Freudenthal (1983). Éste autor duda claramente de la necesidad de la

existencia de tal conjunto, como base de la construcción del conocimiento matemático. Las

buenas intenciones de numeros profesores de querer representar los conceptos de la forma más

simple posible y explicarlos directamente, degenera el conocimiento y hace imposible la

adquisición real del nuevo saber. Los conceptos quedan más vacíos de significado cuanto más

simplemente los queramos presentar (Steinbring, 1988).

Actualmente en nuestras aulas de Primaria hay una ausencia casi total de aspectos

referidos al conocimiento estocástico, al menos explícitamente, pues hasta la promulgación del

Real Decreto 1679/91, por el que se establece el currículum de la Educación Primaria (B.O.E. del

13/9/1991) y sus posteriores desarrollos, no estaba recogido ninguno objetivo/contenido

relacionado con este campo del saber matemático. Es, por tanto, difícil describir cómo conciben

los profesores de Primaria este conocimiento y cómo puede ser tratado en las aulas, pues aún

estamos en una etapa de transición.

Habitualmente en los niveles superiores, la probabilidad es definida desde los principios

de la teoría axiomática; sin embargo, en niveles más elementales es introducida o bien a través de

la frecuencia relativa en situaciones empíricas concretas, o bien desde fundamentos teóricos

relacionados con la probabilidad clásica. En cualquier caso, el objetivo es disponer de una

definición clara y precisa de la probabilidad lo antes posible, para poder seguir elaborando sobre

ella el conocimiento estocástico. En la mayoría de las veces queda pendiente la comprensión de

su objeto de estudio, la noción de suceso aleatorio y el problema del significado de la

probabilidad en los posibles contextos de aplicación. Este último aspecto es un tema de gran

controversia histórica aun sin resolver que, como hemos visto en páginas anteriores, no puede ser

ignorado y/o reducido a una interpretación homogénea del concepto. Siendo estas dos nociones:

la de probabilidad y la de aleatoriedad, las dos ideas básicas sobre las que se apoya toda la

estructura matemática del Cálculo de Probabilidades, su significado, no suele ser cuestionado ni

analizado al ser introducidos en la escuela.

La idea de aleatoriedad y de suceso aleatorio es normalmente considerada como algo ya

conocido e intuido por los sujetos y no suele ser objeto de estudio en sí misma. A nivel escolar,

recordemos que en nuestro sistema actual solo se trabaja en secundaria, un suceso aleatorio es

caracterizado generalmente de forma negativa, con referencia a un suceso ya conocido como es el

determinista y por tanto definido como "aquel cuyo resultado no puede ser pronosticado". A

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 204

veces es también introducido en función de la probabilidad, concepto que aún suele estar sin

asimilar, incluso en algunos casos, a partir de la introducción de otros conceptos considerados

"básicos" y, por tanto, también intuitivos, como suceso, resultado, espacio muestral, etc. En

cualquier caso, la noción de azar o de aleatoriedad no son analizadas ni en relación con su

significado en la vida real, ni en relación a como alcanza su modelización matemática. En

general, "el experimento azaroso es una idea introductoria que es apoyada matemáticamente y lingüísticamente de

muchas maneras, sin desarrollar su significado preciso y la representación subyacente a lo largo de la enseñanza"

(Steinbring, 1991; p.141).

Esto puede tener consecuencias importantes a la hora de la comprensión de una realidad,

fundamentalmente azarosa, como la que nos rodea, y para el propio aprendizaje del conocimiento

estocástico pues, como nos dicen Konold y otros (1991), "la noción de aleatoriedad es ambigua y

compleja, pero mantenemos que las variantes del concepto son sin embargo el corazón del pensamiento probabilístico y

estadístico" (p.2).

Como nos sugieren Kapadia y Borovcnick (1991), "la probabilidad es una materia difícil de

aprender y enseñar. La causalidad es mucho más confortable, pensando lógicamente es mucho más clara, pero el azar es

una realidad" (p.2), y por tanto ineludible su tratamiento en el aula. El aprendizaje de la

probabilidad supone para el sujeto una revolución similar a la acaecida en la historia del

conocimiento. Los estudiantes han de aceptar la presencia de la incertidumbre como algo

inherente a la realidad y adoptar la convención de representar dicha incertidumbre

cuantitativamente (Falk y Konold, 1992).

Para el diseño de los procesos de enseñanza/aprendizaje del conocimiento estocástico hay

una serie de cuestiones claves que nos pueden orientar a la hora de tomar las decisiones más

adecuadas. Apoyándonos en las ideas de Hawkins y Kapadia (1984), las podemos sintetizar en

tres:

A).- ¿Qué tipo de concepciones o ideas tienen los niños de las distintas edades, sobre lo

aleatorio y la probabilidad?

B).- ¿Cómo se pueden modificar dichas concepciones? ¿Qué relación tienen dichas ideas

iniciales, con el conocimiento formal de la probabilidad?

C).- ¿Hay algún modelo, procedimiento o técnica idóneas para facilitar la comprensión y

adquisición del conocimiento probabilístico?

Ninguno de estos interrogantes están contestados plenamente desde los trabajos y estudios

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 205

revisados, no hay respuestas claras y únicas; también en estos aspectos sigue siendo un tema

controvertido sobre el que no hay unicidad de criterios. Nosotros, desde la perspectiva de análisis

que ha dirigido todo el estudio, hemos ido extrayendo ciertas ideas y condiciones, señaladas al

final de cada apartado, que consideramos de especial relevancia a la hora del diseño y desarrollo

de los procesos educativos; analizaremos como se reflejan a la hora de su enseñanza. El estudio y

coordinación de las implicaciones que dichas ideas imponen son potencialmente elementos del

conocimiento profesional de los profesores, responsable de su diseño y desarrollo.

3.6.1. LAS CONCEPCIONES DE LOS ESTUDIANTES Y SU POSIBLE

MODIFICACIÓN

Desde una perspectiva constructivista, el sujeto sólo adquirirá una verdadera comprensión

del conocimiento estocástico a través de la interacción, en situaciones concretas, de sus nociones

subjetivas, fruto de sus experiencias y conocimientos previos, con los conceptos y modelos

estocásticos. Como hemos podido comprobar en el apartado anterior, no hay un modelo completo

sobre el desarrollo conceptual en probabilidad y estadística, pero lo que sí está claro desde las

investigaciones consultadas es que los sujetos, incluso los más pequeños, disponen de ciertos

recursos y concepciones sobre los aspectos probabilísticos de la realidad, aunque no queda

claramente caracterizado el tipo de conocimiento propio de cada edad. Los sujetos "siempre tienen

elaborados sus propios heurísticos, errores y creencias sobre la probabilidad y la estadística" (Shaughnessy, 1992;

p.472), producto de sus propias experiencias. Concepciones y estrategias que han de ser tenidas

en cuenta en el diseño y desarrollo de los proceso de enseñanza/aprendizaje. Los alumnos no son

"tablas rasas" esperando la llegada de la teoría normativa a través de los procesos de

enseñanza/aprendizaje, ellos parten de sus propias ideas y de sus propias formas de concebir los

problemas que se les presentan en las distintas situaciones.

Sus experiencias de juego, por ejemplo, son una fuente fundamental para los estudiantes,

como señalan algunas de las investigaciones revisadas (Peard 1990). El conocimiento estocástico

requiere, especialmente, de la implicación del sujeto en la toma de decisiones directas y en la

interpretación de la información relativa a las situaciones estocásticas. Es decir, las intuiciones de

los sujetos han de ser tenidas en consideración de forma ineludible a la hora del desarrollo de un

proceso de enseñanza. Las tareas de enseñanza de la probabilidad no pueden ser reducidas a la

presentación y desarrollo de su estructura conceptual. Es necesario considerar que por encima de

dicha estructura los sujetos tienen construidas sus propias intuiciones y modelos intuitivos, ellos

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 206

determinan sus estrategias de pensamiento, sus interpretaciones y sus valoraciones de las

situaciones, ignorando en la mayoría de los casos el conocimiento normativo (Fischbein, 1990).

Gran parte de las investigaciones analizadas parecen apoyar nuestra propia forma de

entender el cambio y la evolución de las concepciones. El camino idóneo para provocar dicho

cambio se perfila como aquél, que parte de enfrentar al sujeto con situaciones, actividades y

problemas en los que sus respuestas, apoyadas en sus intuiciones particulares y subjetivas, entren

en conflicto con otras informaciones procedentes de distintas fuentes. La resolución de dicho

conflicto siempre requerirá de formulaciones mas comprensivas y elaboradas (Grupo

"Investigación en la Escuela", 1991). Konold (1991) propone tres criterios generales a través de

los cuales los sujetos son forzados a evaluar sus creencias e intuiciones actuales. Enfrentar al

sujeto con el ajuste entre sus creencias y:

* Las creencias de los otros: ¿mis creencias concuerdan o contrastan con las creencias de

los otros?

* Sus otras creencias afines: ¿son mis creencias internamente consistentes?

* Sus propias observaciones: ¿se ajustan mis creencias a las observaciones empíricas?

Estos tres criterios son apropiados para provocar la construcción de conocimientos. Son

potencialmente efectivos para inducir un cambio conceptual, al provocar un conflicto en las

creencias de los sujetos al compararlas con las otras informaciones puestas en juego en el

proceso. "La comprobación (testado) de la adecuación de las creencias de los estudiantes no debería ser una empresa

aislada e individual, sino que debe implicar el diálogo y negociación entre los integrantes de la comunidad, la cual

negocia los méritos relativos de las distintas perspectivas" (Konold, 1991; p.155). Como recordaremos, un

esquema que parecía válido para explicar el aprendizaje de los sujetos del conocimiento

probabilístico era el representado por el teorema de Bayes, que no es otro que la modificación de

una idea previa, en función de los nuevos datos empíricos.

Los nuevos conocimientos e intuiciones sobre las nociones que tratan el mundo de la

incertidumbre no son accesibles por simple transmisión verbal directa, sólo a través de la

experiencia y de la actividad desarrollada por el sujeto, entendiendo actividad mental y no sólo

manipulativa, es posible la reelaboración de su conocimiento (Fischbein, 1990). Estas

experiencias deben reflejar la mayor variedad posible de situaciones e introducir en su desarrollo

metodológico la reflexión sobre las estrategias heurísticas empleadas y los sesgos producidos.

Por todo ello, y respetando los principios y pautas metodológicas planteadas desde los

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 207

presupuestos de los que partimos, reflejadas en el Capitulo I, consideramos estas intuiciones

subjetivas, o juicios personales sobre una situación aleatoria concreta, como el punto de partida

de todo aprendizaje estocástico. Proceso que continuara con el contraste a lo largo de todos su

desarrollo con los resultados empíricos de las experiencias presentadas y con las predicciones del

modelo estocástico. Analizando las posibles contradicciones entre ambos tipos de información

podremos reconducir el conocimiento hacia intuiciones más profundas o caracterizaciones más

precisas, posibilitando la aplicación de lo aprendido a nuevas situaciones y contextos. Este

desarrollo constituye un proceso metodológico en espiral que va progresivamente aumentando en

la amplitud y complejidad de los problemas planteados y, en consecuencia, en la comprensión de

los conceptos implicados (Grupo "Investigación en la Escuela", 1991).

Como hemos podido comprobar en la revisión de las investigaciones realizadas con

adultos, fundamentalmente con aquellos sin formación estocástica, éstos suelen presentar,

también, gran cantidad de juicios subjetivos sesgados y estrategias no normativas ante las

situaciones aleatorias o de incertidumbre (Shaughnessy, 1977; Shaughnessy, 1981; Kahneman,

Slovic y Tversky, 1982; Konold, 1989; etc). Esta información no puede ser ignorada a la hora del

diseño y desarrollo de un proceso de formación de profesores, si el objetivo es la comprensión

conceptual y didáctica de los conceptos estocásticos, para facilitar su integración en los procesos

educativos. Feiman-Nemser y Buchman (1986) afirman que los programas de formación de

profesores, si desean obtener un aprendizaje efectivo, han de incluir en su desarrollo la

consideración de las creencias y conocimientos previos mantenidos por los sujetos. En concreto,

con respecto a este campo de la Matemática, las concepciones iniciales de los profesores juegan

un papel de considerable importancia pues, como indica Konold (1991), sólo a partir de ellas y de

su evolución es posible la construcción de un verdadero conocimiento y comprensión de la

probabilidad y su significado. En función de estos datos, concluimos que todo lo descrito en las

hojas anteriores es igualmente válido cuando trabajamos con profesores. De hecho, Fischbein

(1990) sugiere que los profesores han de pasar por las mismas visicitudes que sus alumnos a la

hora de elaborar un conocimiento significativo sobre lo estocástico.

3.6.2. CARACTERÍSTICAS DEL PROCESO DE ENSEÑANZA DEL CONOCIMIENTO

ESTOCÁSTICO

Las peculiaridades del conocimiento estocástico tienen claras consecuencias educativas.

La naturaleza teórica de los conceptos estocásticos provocan un claro conflicto con las formas

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 208

tradicionales de trabajar las matemáticas en las aulas. Partir de definiciones claras y universales

de unos conceptos básicos como "conjunto de referencia", base de todo el desarrollo posterior de

la teoría formal, y la tendencia a organizar las actividades de enseñanza en función de la propia

estructura del conocimiento matemático, entra en claro conflicto con la naturaleza de la

evolución del conocimiento estocástico. Los conceptos básicos de la teoría de la probabilidad no

pueden ser comprendidos simplemente a través de su definición matemática, pues, como ya

hemos indicado, es necesario partir del análisis de situaciones significativas que faciliten un

desarrollo progresivo de los conceptos.

La necesaria interacción entre el modelo matemático y la situaciones empíricas es

requisito imprescindible para la elaboración comprensiva de la teoría formal. Esta idea de

complementariedad, sobre la que hablamos al final del segundo capítulo, entre el objeto y el

modelo y su continua interrelación, como condición necesaria para la elaboración conceptual,

requiere, en los procesos de enseñanza/aprendizaje, de una aproximación al conocimiento

estocástico por diferentes caminos que permitan dicha interrelación, de ida y vuelta. "El complicado

estatus de la retroalimentación, como vehículo de la instrucción, supone un serio cambio para el profesor de

probabilidad" (Falk y Konold, 1992; p.154).

Esta particularidad entra en conflicto con la organización habitual de la enseñanza por

procesos lineales y jerarquizados y, en la cual, la referencia a lo empírico y las aplicaciones

concretas, son consideradas como motivaciones extra-matemáticas, dispensables. "La enseñanza

estocástica no puede estar simplemente basada sobre definiciones explícitas de la probabilidad y el azar, que

proporcionen una comprensión total de su contenido" (Steinbring, 1991; p.144). El significado del

conocimiento estocástico no es obvio ni inmediato, depende de las posibles representaciones de

la situación sobre la que se está trabajando, del enunciado verbal del problema, de los modelos

considerados, de la actividad que se realice y del contexto donde se desarrolle.

La idea de construcción en espiral de los conceptos estocástico y de complementariedad

entre el modelo matemático y las situaciones empíricas, no sólo es útil para explicar la evolución

de dicho conocimiento sino también para diseñar los procesos de interacción en el aula (García

1988; Steinbring, 1991). Su consideración supone evitar caminos unilaterales y lineales en el

desarrollo del conocimiento estocástico, el trabajo en el aula debe establecerse en un proceso

cíclico, con avances progresivos en complejidad. El elemento provocador de tal proceso es el

problema que se presente en las distintas situaciones. Estas situaciones deben integrar una gran

variedad de aspectos, conceptuales y procedimentales, e implicar al sujeto en la toma de

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 209

decisiones directas y en las posibles interpretaciones, permitiéndoles investigar sus propias ideas

y contrastarlas progresivamente con nuevos datos. Para ello, Steiner (1983) plantea que las

situaciones y actividades propuestas al alumno han de guardar un grado suficiente de similitud

con las situaciones reales. En el desarrollo de dichas situaciones hay dos elementos claves: las

actividades a realizar y los medios de representación que se utilicen.

La interrelación continua entre el modelo matemático y el caso individual, objeto-modelo,

puede ser representada de múltiples maneras. Para el caso de las situaciones estocásticas existen

diferentes medios de representación específicos, como las representaciones gráficas de las

distribuciones o los diagramas de árbol, representaciones que normalmente se presentan en

función del tipo de problema que se esté trabajando. Sin embargo, las mismas situaciones pueden

ser representadas a través de diferentes medios; comparando representaciones diferentes se llegan

a nuevas intuiciones sobre la relación existente entre una situación concreta y su modelización

matemática. Ello permite construir un amplio espectro de relaciones entre situaciones concretas y

su modelo matemático a través de las diversas actividades. El conjunto total de las formas de

representación de una situación es el mediador entre dicha situación empírica y el modelo. En los

primeros niveles educativos son de gran utilidad dadas las características del pensamiento

concreto de los niños de esas edades.

Con respecto a las actividades, la tarea matemática concreta tiene un papel prominente en

la planificación del profesor y en la práctica en el aula. La concepción de la tarea matemática

ocupa un lugar relevante en las concepciones epistemológicas del profesor. Por ejemplo,

Thompson (1984) una de las variables que utiliza para analizar las creencias de los profesores

sobre las matemáticas es el tipo de tareas que planifica y desarrolla en su aula. "Los profesores de

matemáticas a menudo piensan y hablan sobre la enseñanza en forma de tareas: las tareas son de alguna forma sus

"conceptos"" (Steinbring, 1991; p.156).

Frecuentemente las actividades son presentadas en el aula aisladamente, sin conexión

entre ellas, o en todo caso con un vago vínculo. Desde la perspectiva de la complejidad del

conocimiento estocástico y sus múltiples interrelaciones con otros conocimientos,

complementada por los presupuestos que conllevan la necesaria presentación globalizada del

conocimiento en los primeros niveles de la educación, es imprescindible, como ya hemos dicho,

plantear las actividades desde otra visión más compleja que la que ofrece una simple secuencia

lineal, organizada normalmente jerárquicamente. La planificación de las actividades deben tener

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 210

"un formato abierto y flexible, con un itinerario de las actividades en espiral con posibles ramificaciones y variantes

adaptables a diferentes contextos" (García y Cubero, 1993; p.17). En el caso de la elaboración del

conocimiento estocástico esta idea esta representada en lo que Steinbring (1984) denomina el

sistema de tareas, que permite introducir variaciones del más diverso tipo en el proceso,

respetando una estructura sistémica entre ellas.

La consideración de las actividades integradas en un sistema que facilite múltiples

itinerarios y relaciones, nos permite respetar la propia naturaleza del conocimiento estocástico y

las condiciones de su aprendizaje. Este sistema de tareas se debe caracterizar por los siguientes

aspectos:

* En lo que se refiere al tratamiento del conocimiento estocástico integrado en un

sistema de tareas, la estructura básica estaría dada por un objeto común de trabajo

representado desde múltiples perspectivas, que permitiera el desarrollo de tareas

análogas. Sólo trabajando con las diversas tareas, los problemas que en ellas se formulan,

sus aplicaciones y sus relaciones, podemos comprobar su carácter sistémico; es decir, su

relación con un mismo objeto y sus características análogas. Está presentación de

problemas análogos es también planteada por Polya (1967), quien la considera una

estrategia importante en la elaboración del conocimiento mediante la resolución de

problemas. Polya reconoce como tareas análogas aquellas que coinciden en ciertas

relaciones, pero que mantienen claras diferencias entre ellas. Se puede hacer variaciones

simples modificando los datos o el contexto situacional, o más complejas variando

incluso el modelo de referencia.

* El sistema de tareas ha de dar una oportunidad para organizar las formas de

representación del conocimiento y las actividades de aprendizaje de formas diversas

estableciendo relaciones entre ellas. Cuando los sujetos, se expresan, experimentan,

toman opciones, recogen datos, los organizan, los comparan, hacen supuestos, deciden,

construyen modelos, dan argumentos matemáticos y no matemáticos, calculan con

formulas concretas, etc, necesitan tanto de los instrumentos generales de conocimiento,

como de los medios concretos estocásticos de representación e interpretación.

* La idea de sistema de tareas también respeta la evolución en espiral del

conocimiento estocástico en su interacción en el aula, pues permite trabajar con estos

saberes en un proceso cíclico, ampliando progresivamente su extensión y aplicación.

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 211

En definitiva, consideramos que la estructura sistémica del conjunto de tareas como un

todo organizado permite al alumno captar el significado estocástico. Si se intentan enseñar los

conceptos, métodos y diagramas estocásticos como hechos y técnicas matemáticas, el carácter

aleatorio y la naturaleza específica de la probabilidad se pierde. La fórmula matemática no

contiene en sí misma el carácter específico de lo estocástico. " Solamente, si es concebido como un

elemento del sistema total de tareas y medios de representación estocásticos, que establece la conexión entre el fenómeno

azaroso concreto y el modelo estocástico, es posible hacer de lo estocástico un saber útil y válido" (Steinbring, 1984;

p.82).

Pero, como ya indicábamos, no podemos olvidar, que en los niveles de Primaria, el

conocimiento debe ser presentado al alumno desde contextos globalizados, lo cual supone la no

existencia, a priori, de situaciones específicas de aprendizaje matemático y mucho menos

estocástico. La adquisición y comprensión de los conceptos estocásticos se realiza, por tanto, en

un desarrollo continuo, y mediante el uso progresivo de múltiples medios de representación y

actividades diferentes, pero integradas en situaciones didácticas o contextos de experiencia más

amplios, que den sentido al proceso. Situaciones que se pueden concretar de múltiples formas:

centros de interés, unidades didácticas, proyecto de investigación, etc; siempre en relación con la

realidad socio-natural, donde los aspectos aleatorios sean fácilmente localizables.

Evidentemente nos enfrentaremos con distintos tipos de situaciones y diferentes niveles

de implicación del conocimiento estocástico, en función de las necesidades y contextos de los

procesos desarrollados en el aula. Pero, en cualquier caso, los datos e informaciones sobre los

que debe actuar el niño, deben proceder de la situación didáctica, contexto original en donde el

problemas ha sido planteado y donde tenía sentido la exploración y búsqueda de información

(Azcárate y Cardeñoso, 1994). El desarrollo de los conceptos estocásticos en situaciones

didácticas es el medio específico a través del cual el concepto puede ser elaborado de forma

personal y comprensiva.

En principio, en estos niveles iniciales serían situaciones didácticas que permitan la

exploración y construcción de las nociones elementales; pero, en niveles superiores podríamos

extender las posibilidades a situaciones de otro tipo más complejas, que conlleven la necesaria

formalización del conocimiento.

El conocimiento estocástico escolar, evidentemente, ha de mostrar un estructura lógica,

pero como punto final del proceso (Steinbring, 1994). La instrucción matemática nos permite

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 212

establecer el puente entre el conocimiento cotidiano y el conocimiento estocástico escolar, siendo

la mediadora entre el proceso de elaboración individual del conocimiento y el proceso curricular

establecido (Steinbring, 1984). Como conclusión de todo lo dicho, podemos caracterizar la

instrucción estocástica como un proceso desarrollado a través de un conjunto variado de

actividades relacionadas entre sí, en las que se utilicen diferentes formas de representación

y que estén integradas en situaciones didácticas que reflejen las múltiples interrelaciones

que se dan en la realidad.

Otro aspecto que hemos de considerar en la elaboración del conocimiento estocástico es

el significado que se atribuye a los distintos conceptos elaborados. Como observamos en el

capítulo anterior, el significado del concepto de probabilidad ha provocado múltiples discusiones

a lo largo de su evolución histórica. El intento de fundamentación del conocimiento matemático

producido en este siglo se ha reflejado en diversas posturas filosóficas y epistemológicas sobre la

fundamentación de la probabilidad: clásica, frecuencialista, subjetiva, etc. Todas estas

controversias han promovido visiones diferentes del significado de la probabilidad y de su campo

de aplicación, que tienen claras implicaciones educativas.

Steinbring (1984) señala como posturas más conocidas y contrapuestas en la

caracterización de la probabilidad las siguientes:

"- La probabilidad es una característica del sujeto-materia de conocimiento que construye este concepto

mientras "rivaliza" con el ambiente. Como opuesto a esto: la probabilidad es una propiedad de ciertos mecanismos

objetivos generadores de azar.

- La probabilidad es un concepto de la realidad observable, es interpretado como el límite de la frecuencia

relativa. En oposición a esto: la probabilidad es un concepto ideal, está constituido por ciertas simetrías ideales.

- La probabilidad es un concepto auxiliar que el sujeto de conocimiento consulta cuando su conocimiento es

incompleto. Si hay suficiente conocimiento alrededor de la situación en cuestión , la probabilidad es superflua. Como

oposición a esto: todo conocimiento sobre la realidad es, en última instancia, materia de incertidumbre: por tanto, el

concepto de probabilidad es el concepto clave de la comprensión científica.

La probabilidad es un concepto relacionado con los fenómenos especiales de masas, no puede ser aplicado a

casos individuales. En oposición a ello: la probabilidad es un concepto del conocimiento cotidiano, el cual es de uso

inmediato y puede aplicarse en todo tipo de situaciones.

- La probabilidad es un concepto teórico, su significado no puede ser directamente inferido, será el resultado de

la construcción de un modelo estocástico y su aplicación. Como apuesto a esto: la probabilidad es un concepto empírico

resultado de desarrollar una valoración de un experimento estadístico." (p.68).

Si hacemos una lectura detenida de todas estas posibilidades, podemos observar en ellas

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 213

el reflejo de las distintas posturas filosóficas, con los variados matices que cada una de ellas

confiere al significado de la probabilidad. Desde esta visión tan compleja del significado del

concepto en su aplicación al mundo real es difícil justificar la introducción de una interpretación

homogénea y universal del concepto en el mundo educativo. Al contrario, la escuela debe

combinar ideas desde diferentes perspectivas, desde los primeros niveles:

" * Lo estocástico como la matemática de los fenómenos de masa.

* Lo estocástico como la lógica de la incertidumbre.

* Lo estocástico como la técnica que transforma los datos en indicadores.

* Lo estocástico como teoría de la decisión" (Dinges, 1981; p.51).

Una de las opciones más simplificadoras, como ya analizamos en la reflexión sobre las

diferentes interpretaciones filosóficas, es la defensa de la postura más dogmática: la axiomática,

planteada por algunos educadores matemáticos y basada en la idoneidad de centrarse

simplemente en el conocimiento de la estructura axiomática. Pero, como ya reconocíamos en el

análisis citado, es una forma de resolver el problema de la variedad de significados, negando

simplemente su existencia.

Como comentábamos en el apartado anterior, en nuestro sistema educativo actual, la

probabilidad y la estadística son introducidas en los niveles de secundaria y se pueden diferenciar

dos formas de acercamiento a estos saberes matemáticos. Una aproximación intuitiva a estos

conceptos está focalizada en experimentos, juegos de azar o situaciones reales, utilizando

conceptos como frecuencia, frecuencia relativa, proporciones numéricas o simetrías, para llegar a

definir la probabilidad como límite de la frecuencia relativa. Después de esta fase más

experimental e intuitiva de la enseñanza hay una progresión en la introducción de los métodos y

conceptos más elaborados. En muchos casos es una presentación operativizada del concepto que

puede tener ciertas consecuencias, puesto que los conceptos son simplemente caracterizados por

su utilización y sus posibles aplicaciones. Este planteamiento intuitivo está basado en la creencia

de que la comprensión y generalización de los conceptos matemáticos se realiza a través de un

abandono progresivo de los hechos específicos (un claro ejemplo de este supuesto es la

introducción del número desde el trabajo con los conjuntos), apoyado por actividades diversas

que permiten adquirir un nuevo conocimiento al establecer una conexión lógica con los hechos ya

conocidos directamente, sin necesidad de reflexiones globales o teóricas.

Alternativamente, quizás en niveles superiores de la educación, se introducen un número

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 214

de conceptos básicos como: suceso aleatorio, resultado, suceso elemental, suceso cierto o

imposible, espacio muestral, etc, que se consideran la base sobre la que se construye la estructura

matemática, como si "el sentido de un nuevo saber deba emanar enteramente de los conceptos fundamentales ya

conocidos" (Steinbring, 1988; p.312). Desde esta perspectiva se suele definir la probabilidad en

términos laplacianos. A veces hay una secuencia temporal entre estas dos formas de acercarse al

conocimiento estocástico, primero se realiza un trabajo experimental concreto para luego ir

desarrollando la teoría formal sobre esas "intuiciones" primarias construidas, cuando en realidad,

como hemos constatado en el análisis de sus significados filosóficos, son simplemente

perspectivas diferentes del mismo concepto: el de probabilidad.

3.6.3. CONCLUSIONES GENERALES

El tratamiento del conocimiento estocástico y la negociación de sus significados en el

aula, han de ser desarrollados desde una perspectiva dinámica que refleje, no sólo la interrelación

entre la modelización matemática y los hechos empíricos, sino también entre las distintas

interpretaciones de su significado. La organización sistémica del conjunto de tareas o actividades

permite la integración de interpretaciones variadas en su desarrollo, su reconocimiento y su

contraste.

La naturaleza del saber estocástico es tanto teórica como experimental, solo el contraste

de ambos aspectos, permitirá una verdadera comprensión de dicho conocimiento.

Como conclusión, podemos extrae las siguientes ideas:

- Todo proceso de enseñanza/aprendizaje donde este implicado el conocimiento

estocástico ha de partir de las concepciones y recursos previos de los sujetos y ha de

respetar en su desarrollo las peculiaridades de dicho saber y de su proceso de

elaboración.

- En este sentido, un elemento a considerar en la planificación y desarrollo de los

procesos de enseñanza/aprendizaje es la idea del "feedback" continuo entre el

modelo matemático y las situaciones empíricas; estableciendo relaciones que

permitan ampliar el campo de aplicación de las nociones exploradas y profundizar

en su significado.

- El punto de partida del proceso son "situaciones estocásticas" que muestren una

gran variedad de aspectos y elementos y en las que el instrumento fundamental para

la transmisión del conocimiento estocástico sea la utilización de ciertos medios de

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 215

representación, integrados en unas determinadas actividades interrelacionadas, que

responde a una aproximación al conocimiento no jerarquizada.

- La actividad desarrollada en dichas situaciones y tareas ha de permitir a los

sujetos investigar sobre sus propias ideas y contratarlas progresivamente,

analizando las condiciones y nociones que implícitamente o explícitamente se hayan

ido presentando a lo largo del proceso de enseñanza.

Para el desarrollo del saber estocástico, integrado definitivamente en las

matemáticas escolares, las situaciones didácticas junto con el sistema de medios de

representación y las actividades, son un cuerpo de referencia necesario para el profesor,

que expresa y recoge su significado específico. Por tanto, han de formar parte del

conocimiento práctico profesional deseable, que informa sobre el qué y cómo enseñar el

conocimiento estocástico en la Escuela Primaria. Su consideración tiene claras

implicaciones en los procesos de formación de profesores.

Como nos recuerda Steinbring (1988), "la relación compleja entre el saber y los modos de

representación y la actividad es de gran importancia, tanto para la enseñanza de esta materia, como para las

aplicaciones de los saberes teóricos en la formación de maestros" (p.313).

3.7. IMPLICACIONES PARA LA FORMACIÓN DE PROFESORES DE

PRIMARIA

En el caso de lo estocástico, como hemos podido ir detectando, no estamos solamente

ante una nueva materia curricular, es un tipo de matemática escolar diferente. Los problemas

didácticos en la enseñanza del conocimiento estocástico no vienen sólo de la comprensión de la

teoría matemática en sí misma, sus procedimientos y sus técnicas, sino fundamentalmente de la

utilización, aplicación e interpretación de los conceptos, métodos y representaciones. Facilitar la

elaboración y dominio de un pensamiento estocástico, es el gran reto de los profesores.

Garfield (1988), en un estudio sobre la enseñanza de la probabilidad y la estadística, cita

cuatro aspectos que impiden que la enseñanza de lo estocástico sea efectiva:

a) El confuso papel de la probabilidad y la estadística en el currículum escolar.

b) El débil vínculo entre la investigación y la instrucción.

c) La escasa preparación de los profesores de matemáticas en esta materia.

d) Y, por último, la poca información clara sobre el proceso de aprendizaje y sus claves

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 216

de desarrollo que, aún hoy, están siendo evaluadas.

Condiciones que se convierten en autenticas barreras que impiden una integración real y

total del conocimiento estocástico en las escuelas, incluso estando ya recogido en casi todos los

marcos curriculares de los diferentes países. Para superar dichas barreras, según Shaughnessy

(1992), es necesario conseguir:

a) Llegar a introducir la estocástica en la corriente principal del curriculum escolar

matemático.

b) Conseguir aumentar los fundamentos de los profesores y sus concepciones sobre la

probabilidad y la estadística.

c) Confrontar las creencias de los estudiantes y profesores sobre la probabilidad y

estadística.

Pero, para poder llevar a cabo la integración definitiva en nuestras escuelas, es necesario

acercarnos progresivamente a una formación adecuada de los profesores, como elemento clave

para dicho objetivo. Gran parte de los estudios revisados constatan una falta de preparación de

los profesores, y por tanto un tratamiento del tema frecuentemente inadecuado (Schools Council,

1980; Cockcroft, 1985; NCTM, 1991; Hawkins, 1990; Shaughnessy, 1992; etc).

Como hemos planteado al comienzo de nuestro trabajo, en un contexto de reforma

educativa como el que estamos viviendo, la formación y actualización de los profesores es un

factor esencial, por no decir el fundamental, para el desarrollo de dicho proyecto de reforma. Sin

un profesorado con conocimientos y actitudes suficientes que le permitan introducir en sus aulas

elementos innovadores ninguna reforma podrá ser llevada a buen término. Si focalizamos sobre

la temática del conocimiento estocástico, contamos con condicionantes añadidos, por un lado la

novedad del tópico dentro de los curricula escolares y por otro las peculiaridades propias de su

naturaleza. Prácticamente ninguno de los actuales profesores de Primaria han tenido una

formación específica, ni conceptual ni didácticamente, sobre el conocimiento estocástico.

En un reciente informe del estudio realizado por Greer y Ritson (1993) sobre la enseñanza

del conocimiento estocástico plantean que la estocástica, "para muchos profesores, no es sólo, algo sobre

lo que pueden tener dificultades a la hora de enseñar, es un área desconocida de la matemática" (p.5). La

probabilidad se corresponde con una línea de pensamiento esencialmente diferente del

razonamiento determinista y causal, desde el que han sido formados la mayoría de los profesores.

En general, los profesores de primaria y en algunos casos los profesores de Secundaria, "no han

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 217

tenido formación inicial alguna sobre la probabilidad, y mucho menos sobre su enseñanza, lo cual crea una inevitable

sensación de incertidumbre hacia ella, dada la ausencia general de información sobre el tema" (p. 6).

Sin embargo, de todo el estudio previo podemos concluir la necesidad del reconocimiento

de la incertidumbre como característica intrínseca de la realidad; aprender a manejarse en las

situaciones dominadas por ella, es parte fundamental del desarrollo intelectual de los individuos

del siglo XXI. El niño y, todo sujeto adulto, ha de poseer unas determinadas herramientas,

estrategias o instrumentos mentales para enfrentarse a dichas situaciones y tomar decisiones, si

fuera necesario, con el menor margen de riesgo posible. En el mundo educativo es el profesor

quien ha de facilitar al niño la adquisición de dichas estrategias e instrumentos, y es él quien ha

de ponerle ante este tipo de situaciones desde los primeros momentos de su escolarización,

guiándoles en su investigación de la realidad aleatoria. Pero, para ello, el profesor debe poseer un

determinado conocimiento profesional relacionado con dichas situaciones.

Para una aproximación efectiva a la enseñanza de la estocástica, todos los aspectos

tratados en las páginas anteriores son, potencialmente, componentes importantes del

conocimiento profesional de los profesores. En el análisis sobre su naturaleza, sobre su

aprendizaje y sobre sus implicaciones en la enseñanza hemos ido señalando aquellas ideas que

consideramos más relevantes: su carácter teórico y complejo; su evolución conceptual en espiral;

su relación complementaria entre el objeto y el modelo; las diferentes interpretaciones y

significados; las características del pensamiento probabilístico en contraste con el razonamiento

determinista; los diferentes estados de su desarrollo, estrategias y sesgos; el papel del conjunto de

medios de representación, del sistema de actividades y las situaciones didácticas; etc.

La interrelación de todos estos componentes configura una propuesta de conocimiento

profesional que, en muchos casos, entra en contradicción con las ideas que sobre la enseñanza de

las matemáticas tienen los profesores. La modificación de sus métodos de enseñanza,

derivándolos hacia procedimientos más abiertos, flexibles e interactivos constituye el gran reto de

la formación de profesores.

De todo lo referido en las páginas anteriores podemos suponer que "las demandas específicas

de esta asignatura requieren al profesor caminos especiales de planificación y enseñanza" (Steinbring, 1991;

p.153) y, por tanto, una formación específica para la enseñanza/aprendizaje de esta materia, ya

que: "ante la tradicional ausencia de lo estocástico en los curricula escolares, el curriculum escolar no ha requerido lo

estocástico y los profesores no han sido preparados para enseñarlo por ningún camino" (Shaughnessy, 1992;

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 218

p.467). Lo que nos hace suponer, en una transferencia a nuestro contexto, y dada su total ausencia

del currículum de las Escuelas de Magisterio, que los profesores en ejercicio y los futuros

profesores de Primaria tienen una débil comprensión de las ideas estocásticas. Al no haber

vivido un proceso, a nivel reflexivo, en el que el conocimiento estocástico haya estado implicado,

el fondo intuitivo primario de los sujetos no se ha sido modificado. Ello puede provocar claras

dificultades a los profesores a la hora de enfrentarse con la selección de estrategias idóneas para

el desarrollo de las intuiciones probabilísticas adecuadas en sus alumnos.

Para superar esta situación es necesario el diseño y puesta en marcha de programas de

formación que recojan el tratamiento conceptual y didáctico del conocimiento estocástico en las

aulas de Primaria. Pero ante dicha propuesta nos encontramos con un problema inicial: la

ausencia de estudios en nuestro entorno educativo sobre las ideas que tienen los profesores y

futuros profesores de Primaria, en lo referente a este nuevo contenido. Como hemos ido

repitiendo a lo largo de nuestro trabajo, todo desarrollo profesional debe partir necesariamente de

las condiciones iniciales de los profesores. Obtener información sobre cuales son sus

conocimientos, sus creencias, su nivel de desarrollo conceptual respecto a estos conceptos es un

paso fundamental y previo para diseñar procesos de formación que posibiliten un conocimiento

profesional significativo sobre esta temática.

Nuestro trabajo empírico se centrará en el estudio de las concepciones y creencias que

actualmente poseen un grupo de futuros profesores de Primaria sobre las nociones elementales

del conocimiento estocástico. Información imprescindible para nosotros al iniciar el diseño de

programas de formación que integren las particularidades de la enseñanza y aprendizaje esta

materia y que se propongan la evolución real en las ideas de los profesores. A dicho estudio

empírico dedicaremos la segunda parte de nuestro trabajo.

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 219

ELABORACIÓN DE UN DISEÑO DIDÁCTICO

El diseño de unidades didácticas es una actividad que se desarrolla paralela al propio

desarrollo de tema, dirigida a planificar un proyecto de acción con los alumnos de

Primaria. En dicho proyecto se proponen, entre otros muchos implicados en la situación

presentada, determinados objetivos y contenidos a trabajar en relación con el conocimiento

probabilístico y se diseñan determinadas secuencias de actividades con explicitación de

todos los elementos puestos en juego.

Los problemas que surgen en su desarrollo son los que orientan el propio estudio teórico y

su resolución debe reflejar las conclusiones elaboradas desde dicho estudio.

Durante su desarrollo se realizan tareas como:

* Detectar y diseñar situaciones/problemas, adecuados para el nivel de Primaria, en

las que, en su resolución, esté implicado el aprendizaje y/o la aplicación de ciertos

conocimientos probabilístico.

* Construir diferentes secuencias de actividades integradas en el desarrollo global

de la unidad didáctica, especificando el problema organizador, el significado para el

niño, el tipo de tareas que ha de realizar en relación con el conocimiento

probabilístico, el papel que como profesores van a desarrollar, los recursos que van

a utilizar, etc.

* Realizar el análisis didáctico-matemáticos de las situaciones de enseñanza-

aprendizaje diseñadas, determinando sobre qué objetivos puede incidir y qué tipo

de contenidos pueden ser trabajados en su desarrollo.

PRESENTACIÓN DE SITUACIONES INICIALES DE ANÁLISIS

Al comenzar su estudio y dadas las peculiaridades de este tema, se proponen a los

estudiantes-profesores, como actividad provocadora de conflicto, una serie cuestiones y

situaciones probabilísticas que han de interpretar, dar su opinión y, en su caso, resolver.

Las diferentes respuestas dadas por cada uno de ellos y por cada pequeño grupo, se

contrastan y debaten en gran grupo detectándose las controversias existentes entre las

posibles interpretaciones y planteando interrogantes sobre su explicación.

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 220

Como ejemplo de cuestiones y situaciones podemos presentar las siguientes:

* Reconocer y caracterizar la posible aleatoriedad de determinados fenómenos del

entorno próximo, como:

⋅ Contraer una determinada enfermedad.

⋅ Obtener un número específico al tirar un dado.

⋅ Sufrir un accidente de tráfico, etc.

* Pronunciarse sobre un conjunto de afirmaciones como, por ejemplo:

⋅ Hay una posibilidad entre dos de que mañana llueva.

⋅ En una urna donde hay bolas rojas y blancas la probabilidad de sacar una

bola roja depende de la proporción de bolas rojas que hay en la urna.

⋅ El azar influye en el porvenir/futuro de cada persona.

* Responder a cuestiones como:

⋅ Si lanzo dos monedas tengo una posibilidad entre tres de que salga una

cara y una cruz ¿estás de acuerdo?

⋅ Al lanzar dos dados la probabilidad de obtener un 5 y un 6 es la misma que

la de obtener dos 6 ¿estás de acuerdo?

⋅⋅⋅⋅ Si conozco los últimos resultados de una lotería ¿Qué utilidad tiene dicha

información para jugar la próxima vez?.

DEBATES EN PEQUEÑO GRUPO Y COLECTIVOS

Estas actividades son el núcleo central del proceso de enseñanza/aprendizaje desarrollado

en nuestras aulas y, ya sea en pequeño grupo, con la profesora o como debates colectivos,

está presente a lo largo de todo el proceso.

Permite la explicitación y contraste de las ideas iniciales, de las interpretaciones dadas a las

nuevas informaciones, de los conflictos surgidos, de las respuestas dadas a los problemas

planteados desde el diseño y de las conclusiones elaboradas desde la reflexión teórica. Es el

elemento que más influye en la evolución y modificación de las ideas de los estudiantes-

profesores en torno a los diferentes aspectos tratados.

Para poder confluir en los debates se les propone a los alumnos, unos puntos de análisis y

reflexión individual y grupal que se reproducen a lo largo de los distintos debates que

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 221

surgen en el aula. Estos puntos no son los únicos que se tratan, pero son un elemento

provocador del contraste y de la discusión que, ya en su desarrollo, se orienta hacia sus

propios conflictos e intereses.

Puntos de análisis como por ejemplo:

* ¿Cuál crees que es el origen del azar? ¿Cómo se puede definir?. Aportad alguna

definición del azar y de la aleatoriedad y aplicadla para caracterizar un fenómeno

concreto.

* ¿Qué tipo de información utilizas como referencia a la hora de tomar

determinadas decisiones en situaciones aleatorias? Poned ejemplos y comparad las

actitudes y estrategias intuitivas que se desarrollan.

* ¿Qué significado otorgamos a los diferentes términos probabilísticos cuando los

usamos en el lenguaje cotidiano?. Indicadlos y analizad su incidencia en la

enseñanza y aprendizaje.

* ¿Qué papel creéis que cumple en la formación del individuo y en su integración

en la sociedad? Reflexionad y comentad sobre su incidencia social y educativa.

LECTURAS SELECCIONADAS

Para acceder a nuevas informaciones es necesario que el estudiante-profesor realice

determinadas lecturas que le puedan aportar nuevos datos de naturaleza didáctica,

fundamentalmente. Para ello, seleccionamos una serie de lecturas relacionadas con algunos

de los tres ámbitos que hemos considerado como fundamentales: el propio conocimiento y

su naturaleza, su aprendizaje y su enseñanza. Ocasionalmente parte de dicha información

es facilitada a través de una exposición por nuestra parte.

Los alumnos realizan estas lecturas individualmente y posteriormente las discuten en el

pequeño grupo. Desde dicha discusión se analizan las nuevas informaciones, las posibles

interpretaciones y sus posibles reflejos en el diseño. Tras el contraste y discusión colectiva

sobre las informaciones que el pequeño grupo ha seleccionado como relevante, su

interpretación y su aportación al desarrollo del grupo, cada grupo elabora un informe o

documento teórico que recogerá, bajo su propia estructura, todos los conocimientos

construidos en los tres ámbitos considerados. Este documento está dirigido al desarrollo de

este conocimiento en el nivel de Primaria y recoge los diferentes aspectos que los

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 222

estudiantes-profesores han considerados significativos para tratar el tema en dichas aulas.

Si bien estas lecturas cambian en el tiempo, dadas las condiciones contextuales y la

información disponible, una selección actual de los documentos de trabajo podría ser :

AYER, A.J. (1974): “El azar”. En Matemáticas en el mundo moderno. Blume. Madrid.

AZCÁRATE, P. (1995): ”La enseñanza del conocimiento estocástico” (350-368). En El conocimiento profesional de los profesores sobre las nociones de aleatoriedad y probabilidad. Su estudio en el caso de la Educación Primaria. Tesis doctoral inédita. Universidad de Cádiz.

AZCÁRATE, P. y CARDEÑOSO, J.Mª (1996): “El lenguaje del azar. Una visión fenomenológica sobre los juicios probabilísticos”. Epsilón, 35, 12(2), (165-178).

BATANERO, C. y SERRANO, L. (1995): “La aleatoriedad, sus significados e implicaciones educativas”. UNO, Año III, 5, (15-28).

BORRÁS, E. (1995): “Procedimientos y recursos para trabajar la Estadística y la Probabilidad en la enseñanza”. UNO, Año II, 3, (61-71).

DIAZ GODINO, J.; BATANERO, C. y CAÑIZARES, MºJ. (1989): “Fundamentos didácticos” (11-46). “Propuestas curriculares” (65-78). “Teoría elemental de la probabilidad” (143-164). En Azar y Probabilidad. Síntesis. Madrid.

ENGEL, A. (1988): “Experiencias aleatorias de una prueba” (13-18). “Algunos ejemplos interesantes” (59-70). “Aplicaciones a la estadística” (71-86). En Probabilidad y estadística, Vol 1. Mestral. Valencia.

GREEN, D. (1989): “La comprensión de la aleatoriedad por los alumnos escolares”. En Morris (Ed.): Estudios en Educación Matemática: La enseñanza de la Estadística. Unesco. París.

HAWKINS, A. S. y KAPADIA, R. (1984): “Children’s concpetions of probability. A psychological and pedagogical review”. Educational Studies in Mathematics, 15, (349-377). (Extracto traducido)

HENRY, M. (1996): “Enfoque frecuentativo de probabilidades en los programas franceses dirigidos a alumnos entre 16 y 18 años”. En La enseñanza de las matemáticas: puntos de referencia entre los saberes, los programas y la práctica. Topiques éditions, Pont-Á-Mousson.

HOEMANN, H.W. y ROSS, B.M. (1982): “Children’s conceptions of chance and probability”. En Brainerd (Ed.): Children’s logical and mathematical cognition. Springer. Verlag. (Extracto traducido)

LIGTHTER, J.E. (1991): “A brief look at the history of probability and statistics”. Matehematics Teacher, November, (623-630).

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 223

NAGEL, E. (1979): “Significado de la probabilidad”. En Newman: Sigma. El mundo de las matemáticas. Vol 3. Grijalbo. Barcelona.

STEINBRING, H. (1991): “The Theoretical nature of probability in the classroom". En Kapadia y Borovcnick (Eds): Chance Encounters: Probability in Education. Kluwer. Dordrecht. (Extracto traducido de las ideas fundamentales)

STEINBRING, H. y von HARTEN, G. (1983): "Learning from experience- Bayes's theorem: a model for stochastic learning". En Green y otros (Eds): Proceedings of the First International Conference on Teaching Statistics. Universidad de Sheffield, Sheffield. (Extracto traducido)

OTRAS ACTIVIDADES A REALIZAR POR LOS GRUPOS

A lo largo del tratamiento del tema en el aula los diferentes grupos realizan diferentes

actividades teórico-prácticas que seleccionan del conjunto de actividades propuestas y que

les permiten poner en juego las informaciones procedentes de las lecturas teóricas y cuyo

análisis queda reflejado en el informe que presentan al final.

Entre dichas actividades podemos señalar:

* Confecionar una lista de situaciones didácticas, cercanas al contexto real, que, en

su desarrollo, puedan permitir el tratamiento del conocimiento probabilístico.

* Realizar un esquema con los diferentes significados de la probabilidad y sus

posibles aplicaciones en la interpretación de fenómenos del entorno.

* Definir y caracterizar la aleatoriedad y la probabilidad en relación con el proceso

de comprensión de una magnitud y su medida.

* Elaborar una propuesta de secuenciación de estos contenidos a lo largo de la

Primaria.Construir un mapa conceptual de los conceptos más significativos y sus

posibles relaciones.

* Realizar, durante el periodo de prácticas, algún estudio relacionado con la

enseñanza/aprendizaje del conocimiento probabilístico como, por ejemplo, el uso

del lenguaje probabilístico en la aulas.

Y como instrumento de análisis de su propio aprendizaje probabilístico se propone:

⋅ Resolver una situación probabilística. Organizar y representar los datos obtenidos

empíricamente en una determinada situación aleatoria y posteriormente hacer un

análisis e interpretación intuitiva de los resultados.

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 224

Para esta última actividad se proponen determinadas situaciones probabilísticas, para que

trabajen con ellas. Su resolución suele ser abordada en pequeño grupo y discutidas sus

soluciones en gran grupo. Y, a partir del análisis de la experiencia se les solicita:

⋅ Estableced los contenidos matemáticos que se tratan en dicha actividad.

⋅ Adaptad está situación para ser tratada en un aula de Primaria. Realizad un

análisis de las dificultades que pueden surgir en su tratamiento.

Son situaciones como por ejemplo:

* Analizar el lanzamiento de dos dados a través de un juego de carreras de fichas

numeradas del uno al doce. ¿Que ficha tiene más probabilidades de llegar la

primera?

* Analizar el lanzamiento de tres monedas ¿Cual es la probabilidad de obtener tres

cruces? ¿Podrías verificarlo empíricamente?

* En una urna hay 100 bolas, 60 negras y 40 blancas, analizar el resultado de tres

extraciones consecutivas ¿Qúe serie es más probable obtener “blanca, blanca,

blanca” o “negra, blanca, negra”?

* Estudiar el resultado de introducir 100 bolas en un Aparato de Galton, realizarlo

empíricamente. ¿Cuál es la probabiliad de que una bola caiga en el centro? ¿ y en

una esquina?

* Si cada año 1 de 10000 automovilistas sufren un accidente ¿Cual es la

probabilidad de que sufra un accidente un automovilista elegido al azar? ¿Y que sea

vuestra profesora?

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 225

BIBLIOGRAFÍA COMPLEMENTARIA

AZCÁRATE, P. y CARDEÑOSO, J.Mª (1996): “El tratamiento de la incertidumbre: un nuevo reto para los profesores de Primaria”. En Actas de las VII Jornadas Andaluzas de Educación Matemática “Thales”.Servicio de Publicaciones de la Universidad de Córdoba, Córdoba.

BLOMM, S. (1994): “Data Buddies: Primary-Grade Mathematicians Explore Data”. Teaching Children mathematics, 1, (2), (80-86) (Resumen traducido)

CANTERO, A. y BARRIO, J. (1996): “Estrategias iniciales en la medida del azar”. En Actas de las VII Jornadas Andaluzas de Educación Matemática “Thales”.Servicio de Publicaciones de la Universidad de Córdoba, Córdoba.

CARDEÑOSO, J. Mª y AZCÁRATE, P. (1995): “Tratamiento del conocimiento probabilístico en los proyectos y materiales curriculares”. Suma, 20, (41-52).

COLERA, J. (1990): “Visión didáctica de la estadística y el azar”. En Aspectos didácticos de la Matemática, 3. ICE de la Universidad de Zaragoza, Zaragoza.

CRAMER, K. (1995): “The importance of informal languaje in representing mathematical ideas”. Teaching Children Mathematics, 1, (6), (332-335).

DIAZ GODINO, J.; BATANERO, C. y CAÑIZARES, MªJ. (1989): Azar y Probabilidad. Síntesis. Madrid.

ENGEL, A. (1988): Probabilidad y Estadística. Mestral. Valencia.

EKELAND, I. (1992): EL AZAR. La suerte, la ciencia y el mundo. Gedisa. Barcelona.

FISCHBEIN, E. y GAZIT, A. (1984): “Does the teaching of probability improve probabilistics intuitions?”. Educational Studies in Mathematics, 15, (1-24).

FISCHBEIN, E.; BARBAT, I. y MÎNZAT, I. (1971): "Intuitions Primaires et Intuitions Secondaires dans l'Initiation aux Probabilités". Educational Studies in Mathematics, 4, (264-280).

FISCHBEIN, E.; NELLO M.S. y MARINO M.S. (1991): "Factors Affecting Probablistic Judgements in Children and Adolescents". Educational Studies in Mathematics, 22, (523-549).

FISCHBEIN, E.; PAMPU, I. y MÎNZAT, I. (1967): "The child's intuition of probability". Enfance, 2, (193-206).

FISCHBEIN, E.; PAMPU, I. y MÎNZAT, I. (1969): "Initiation aux Probabilités à l'École Élementaire". Educational Studies in Mathematics, 2, (16-31).

GADNER, J.M. (1984): ¡AJA! Paradojas. Paradojas que hacen pensar. Labor. Barcelona.

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 226

GRUPO CERO (1982): Estategias, conjeturas y demostraciones. ICE de la Universidad de Valencia, Valencia.

GRUPO CERO (1983): Es posible. ICE de la Universidad de Valencia, Valencia.

HACKING, I. (1995): La emergencia de la Probablidad. Gedisa. Barcelona.

HACKING, I. (1991): La domesticación del azar. Gedisa. Barcelona.

HARTE, S. y GLOVER, M. (1993): “Estimation is Mathematical Thinking”. Arithmetic Teacher, Octubre, (75-77).

HENRY, M. (1994): L’enseignement des probabilités. Irem de Besançon. Besançon.

KOLMOGOROV, A. (1974): “La teoría de probabilidades”. En Kolmogorov y otros : La matemática: su contenido, métodos y significado. Alianza Universidad. Madrid.

LINDGUIST, M.H. y otros (1992): Making sense of data. Serie Addenda. NCTM. Reston.

MORRIS, K. (1989) (Ed.): Estudios en Educación Matemática. Enseñanza de la Estadística. Unesco. París.

NEWMAN, J.R. (1976): Sigma: el mundo de las Matemáticas, Vol 3. Grijalbo. Barcelona.

NORTES, A. (1987): Encuestas y precios. Síntesis. Madrid.

NORTES, A. (1993): Matemáticas, Universidad, Sociedad. Secretariado de publicaciones. Universidad de Murcia, Murcia.

PACKEL, E. (1995): La Matemática de los juegos de apuestas. Euler. Madrid

PÉREZ CUENCA, P. (1995): “Juegos probabilísticos en Primaria”. En Actas de las VII J.A.E.M. Madrid.

RICO, L. y col. (1992): Prensa y Educación Matemática. Síntesis. Madrid.

SHULTE, A.P. (1987): “Learning Probability concepts in elementary school Mathematics”. Arithmetic Teacher, 34, 5, (32-33).

SHULTZ, H.S. y LEORNAD, B. (1989): “Probability and intuition”. Mathematics Teacher, 82, 1, (52-53).

STEINBRING, H. (1984): "Mathematical Concepts in Didactical Situations as Complex Systems: The Case of Probability". En Steiner y Balacheff (Eds): Theory of Mathematics Education. ICME 5. IDM de la U. de Bielefeld, Bielefeld.

STEINBRING, H. (1988): "Nature du savoir mathématiques dans la pratique de l'enseignant". En Laborde, C. (Ed): Actes du premier colloque Franco-Allemand de Didactiques des Mathématiques et de l'Informatique. La Pensée Sauvage, Grenoble.

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 227

STEINBRING, H. (1991): "The Theoretical nature of probability in the classroom". En Kapadia y Borovcnick (Eds): Chance Encounters: Probability in Education. Kluwer, Dordrecht.

STEINBRING, H. (1991a):"The concept chance in everyday teaching: aspects of a social epistemology of mathematical knowledge". En Educational Studies in Mathematics, 22, (503-522).

STEINBRING, H. (1991b): "Mathematics in teaching processes the disparity between teacher and student knowledge". En Recherches en Didactique des Mathématiques, 11 (1), (65-108).

TANUR, J.M. (1992): La estadística. Una guía de lo desconocido. Alianza Universidad. Madrid.

UNO (1995): Mongráfico “Probabilidad y Estadística”. Año II, 5.

UNO (1996): Monográfico“Laboratorio de matemáticas”. Año III, 7.

ZAWOJEWSKI, J. y otros (1991): Dealing with data and chance. Serie Addenda. NCTM. Reston.

REFERENCIAS

AZCÁRATE, P. (1995): El conocimiento profesional de los profesores sobre las nociones de

aleatoriedad y probabilidad. Su estudio en el caso de la Educación Primaria. Tesis doctoral

inédita. Universidad de Cádiz.

AZCÁRATE, P. y CARDEÑOSO, J.Mª (1996): “El lenguaje del azar. Una visión

fenomenológica sobre los juicios probabilísticos”. Epsilón, 35, 12(2), (165/178).

BACHELARD, G. (1948): La formación del espíritu científico.Buenos Aires: Argos. (Original

en 1938)

BAYES, T. (1987): “Essai en vue de résoudre un problème de la doctrine des chances”. Cahiers

d’Histoire et de Philosophie des Sciences, nº 18.

BENNETT, D.J. (1993): The Development of mathematical concept of randomness: educational

implications. New York University. U.M.I. Dissertation Abstracts, nº 9317657.

BLACK, M. (1984): Inducción y Probabilidad. Madrid: Cátedra.

BOYER, C. (1986): Historia de la Matemática. Madrid: Alianza Universidad.

BRIGGS, J. y PEAT, F.D. (1990): Espejo y Reflejo: del caos al orden. Barcelona: Gedisa.

BYRNE, E.F. (1968): Probability and Opinion. A study in the medieval presuppositions of post-

medieval theories of probability. The Hague: Matinus Nijhoff.

CARDEÑOSO, J. Mª y AZCÁRATE, P. (1996): “La integración del conocimiento

probabilístico en la Educación Primaria”. Comunicación breve presentada en VII Congreso

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 228

Internacional de Educación Matemática, ICME 8. Sevilla.

COLLETTE, J.P. (1985): Historia de las Matemáticas. 2 Vol. Madrid: Siglo XXI.

CONDORCET, A. (1990): Matemáticas y Sociedad .México: Fondo de Cultura Económica.

CORDIER, J. y LECOUTRE, M.P. (1990): "Effet du mode de présentation d'un problème

aléatoire sur les modèles développés par les élèves". Bulletin d'Association des Professeurs de

Mathématiques de L'Enseignement Public, 372, (9/22).

COURNOT, A.A. (1984): “Exposition de la théorie des chances et des probabilités”. En Obras

Completas, Vol. I. París: Vrin.

CROMBRIE, A.C. (1985): Historia de la Ciencia: de S. Agustín a Galileo. 2 Vol. Madrid:

Alianza. (Original en 1959)

DASTON, L. (1988): Classical Probability in the Englightenment. Princeton: Princeton

University Press.

DAVID, F.N. (1962): Games, gods and gambling: origins and history of probability and

statistical ideas from the earliest times to the newtonism era. New York: Hafner Publishing

Company.

EKELAND, I. (1992): El Azar. La suerte, la ciencia y el mundo. Barcelona: Gedisa.

FALK, R. Y KONOLD, C. (1992): "The Psychology of Learning Probablity". En Gordon y

Gordon (Eds): Statistics for the Twenty-First Century. Washington, DC: Mathematical

Association of America.

FIENBERG, S.E. (1992): "A Brief History of Statistics In Three and One-Half Chapters: A

Review Essay". Statistical Science, 7 (2), (208/225).

FINE, T.L. (1973): Theories of Probability. New York: Academic Press.

FISCHBEIN, E. (1975): The intuitive sources of probabilistic thinking in children. Dordrecht:

Reidel.

FISCHBEIN, E. (1990): "Training Teachers for Teaching Statistics". En Hawkins (Ed):

Training Teachers to Teach Statistics.Voorburg: International Statistical Institute.

GARCÍA, J.E. (1988): "Fundamentos para la construcción de un modelo sistémico del aula". En

Porlán, García y Cañal: Constructivismo y enseñanza de las Ciencias. Sevilla: Diada.

GARCÍA, J.E. y CUBERO, R. (1993): "Perspectiva constructivista y materiales curriculares de

Educación Ambiental". Investigación en la Escuela, 20, (9/22).

GIGERENZER, G. y otros (1989): The Empire of Chance. How Probability Change Science

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 229

and Everyday Life. Cambridge: Cambridge University Press.

GRIMAL, P. (1989): Diccionario de Mitología Griega y Romana. Barcelona: Paidos. (Original

en 1951)

GUIRAND, F. (1970): Mitología General. Barcelona: Labor.

HACKING, I. (1995): La emergencia de la probabilidad. Barcelona: Gedisa.

HACKING, I. (1991): La domesticación del azar. Barcelona: Gedisa.

HALD, A. (1990): A History of Probability and Statistics and their Aplications before 1750.

New York: Wiley.

HAWKINS, A. S. y KAPADIA, R. (1984): “Children’s concpetions of probability. A

psychological and pedagogical review”. Educational Studies in Mathematics, 15, (349/377).

HEISENBERG, W. (1959): Physics and Philosophy: the revolution of modern science. New

York: Harper y Row.

HENRY, M. (1994): L’enseignement des probabilités.. Besançon: Irem de Besançon.

HENRY, M. (1996): “Enfoque frecuentativo de probabilidades en los programas franceses

dirigidos a alumnos entre 16 y 18 años”. En La enseñanza de las matemáticas: puntos de

referencia entre los saberes, los programas y la práctica. Pont-Á-Mousson: Topiques éditions.

JUNTA DE ANDALUCÍA, (1992): Colección de materiales curriculares para la Educación

Primaria. Sevilla: Consejería de Educación y Ciencia.

KAHNEMAN, D. y TVERSKY, A. (1972): "Subjective probability: a judgment of

representativeness". Cognitive Psychology, 3, (430/454).

KAHNEMAN, D.; SLOVIC, P. y TVERSKY, A. (Eds.) (1982): Judgments under Uncertainty:

Heuristics and Biases. New York: Cambridge University Press.

KENDALL, M.G. (1978): "The Beginnings of a Probability Calculus". En Person y Kendall

(Eds): Studies in the history of statistics and probability, Vol I. Londres: Charles Griffin.

KLINE, M. (1992): El pensamiento matemático de la Antigüedad a nuestros días, 3 Vols.

Madrid: Alianza Universidad.

KOLMOGOROV, A.N. (1973): "La Teoría de Probabilidades". En Varios: La Matemática: su

contenido, método y significado. Madrid: Alianza.

LAPLACE, P.S. (1985): Ensayo Filosófico sobre las Probabilidades. Madrid: Alianza.

(Original en 1812).

LECOUTRE, M.P. y DURAND, J.L. (1988): "Jugements probabilistes et modèles cognitifs:

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 230

étude d'une situation aléatoire". Educational Studies in Mathematics, 19, (357/368).

MAISTROV, L.E. (1974): Probability theory: a historical sketch. New York: Academic Press.

MASON, S.F. (1985): Historia de las Ciencias, 5 Vols. Madrid: Alianza Editorial.

MORIN, E. (1986): El Método I: La Vida de la Vida. Madrid: Cátedra.

NAVARRETE, A. y otros (1992): Una estrategia de formación del profesorado vinculada a la

innovación curricular. Sevilla: Grupo de Investigación en la Escuela.

ORE, O. (1960): "Pascal and the Invention of Probability Theory". American Mathematical

Monthly, 67, (409/419).

PASCAL, B. (1983): OBRAS. Pensamientos, Provinciales, Escritos Cientificos, Opúsculos y

Cartas. Madrid: Alfaguara.

PIAGET, J. e INHELDER, B. (1951): La genése de l'idée de hasard chez l'enfant. París:

P.U.F..

POINCARÉ, H. (1963): "El Azar". En Varios: Ciencia y Método. Madrid: Austral- Espasa

Calpe.

POLYA, G. (1962): Mathematical discovery. New York: John Wiley and Sons.

PRIGOGINE, Y. (1986): La nouvelle alliance: metamorphose de la science. París: Gallimard.

ROSS, A. (1957): El azar en Aristóteles.Buenos Aires: Sudamericana.

SÁNCHEZ ALBORNOZ, C. (1976): España: Un enigma histórico. Barcelona: Edasa.

SHAFER, G. (1990): "The unity and diversity of probability (with discussion)". Statistical

Science, 5 (435/462).

SHAUGHNESSY, J.M. (1992): "Research in Probability and Statistics: Reflections and

Directions". En Grouws (Ed): The teaching and learning of the mathematics. New York:

Macmillam.

STEINBRING, H. (1980): Zur Entwicklung Des Wahrscheinlichkeitsbegriffs - Das

Anwendungsproblem In Der Wahrscheinlichkeitsthoerie Aus Didaktischer Sicht. Bielefeld:

Universidad de Bielefeld, Institut für Didaktik der Mathematik.

STEINBRING, H. (1984): "Mathematical Concepts in Didactical Situations as Complex

Systems: The Case of Probability". En Steiner y Balacheff (Eds): Theory of Mathematics

Education. ICME 5. Bielefeld: Institut für Didaktik der Mathematik, Universidad de Bielefeld.

STEINBRING, H. (1991): "The Theoretical nature of probability in the classroom". En Kapadia

y Borovcnick (Eds): Chance Encounters: Probability in Education. Dordrecht: Kluwer.

───────────────────────────────────────────────────────────── Aprendizaje y enseñanza del conocimiento probabilístico 231

STEINBRING, H. (1991a):"The concept chance in everyday teaching: aspects of a social

epistemology of mathematical knowledge". Educational Studies in Mathematics, 22, (503/522).

STEINBRING, H. y von HARTEN, G. (1983): "Learning from experience- Bayes's theorem: a

model for stochastic learning". En Green y otros (Eds): Proceedings of the First International

Conference on Teaching Statistics. Sheffield: Universidad de Sheffield.

STEINER, H-G (1983): "Some remarks on the symposium's impact on mathematical

education". En Scholz (Ed): Decision Making under Uncertainty. Amsterdan: Elsevier.

TATON, R. (Ed.) (1972): Historia General de las Ciencias, 5 Vols. Barcelona: Destino.

(Original en 1958).

TRILLAS, E. (1980): Conjuntos Borrosos. Barcelona: Vicens-Vives.

WAGENSBERG, J. (1981): "La necesidad del azar". Mundo Científico, 1, (11/26).

WAGENSBERG, J. (Ed) (1986): Proceso al Azar. Barcelona: Tusquets.

TRANSPARENCIAS:

I.- Nombre del tema y esquema del trabajo

II.- Relación de Objetivos

III-IV.- Esquemas sobre el contenido

V.- Relación de Actividades. Algún ejemplo

VI.- Instrumentos de evaluación