antecedentes teoria de errores

5
Antecedentes La teoría de errores es una ciencia fundamental para todas las materias donde se manejan y analizan grandes volúmenes de datos provenientes de observaciones directas o mediciones realizadas en laboratorio o trabajos de campo, tales como los que se desarrollan en topografía, geodesia, física, química y sobre todo estadística. Esta ciencia, parte de la estadística, fue desarrollada por el matemático alemán Karl Friedrich Gauss a partir de sus estudios algebraicos y complementada luego por el inglés Sir Isaac Newton quien aplica su teoría del análisis matemático a la estadística y mas tarde por el francés Pierre Simón Laplace quien con su teoría de las probabilidades le da a la estadística y la teoría de errores carácter de ciencia. La teoría de la medida de errores fue iniciada por Galileo y continuada por otros muchos científicos, en su mayoría astrónomos, como, por ejemplo, TichoBrahe (15461601), que encontró que cada medida tiene un posible error y que la precisión de la medida puede aumentar si se hacen varias medidas y se calcula la media aritmética. Los primeros intentos de construir matemáticamente la teoría de la medida de errores fueron hechos por R. Cotes (16821716), T. Simpson (17101761) y Daniel Bernoulli. Cada uno de ellos tenía una idea diferente sobre la medida de los errores. Cotes opinaba que los errores se distribuyen uniformemente a lo largo el intervalo (-a,a). Simpson creía que los errores pequeños ocurren más frecuentemente que los grandes, pero que están restringidos por un número a, de manera que el error es 0 en los intervalos (-∞,-a] y [a,+∞); así, la función de densidad es x-2a 2 y=-a en el intervalo (-a,0), y en (0,a) es x+2a 2 y=a. Daniel Bernoulli fue el primero en poner en duda que la media aritmética fuera la mejor estimación del error y propuso como función de densidad y = R 2 − (x − x) 2 , donde R es conocido y x se determina mediante repetidas observaciones. Bernoulli no se dio cuenta de que la integral de esta función no es 1, sino (π‚2) R 2 , por lo que sólo represente una verdadera función de densidad en casos particulares. El trabajo de Bernoulli, no obstante, es importante porque fue el primero en proponer estimar un parámetro desconocido mediante el método de ‘máxima verosimilitud’. Otro estudioso de la cuestión fue Laplace, que consideraba la teoría de probabilidad más como una disciplina dela ciencia natural que de las matemáticas. Muy dedicado a la astronomía, aplicó a sus investigaciones en teoría de medida de errores. Laplace afirmó los errores de medida observados eran la suma de una gran cantidad de pequeños errores; si estos errores tenían una distribución normal, su suma también debería tenerla. Como estimación del valor desconocido del error a, Laplace sugirió tomar el valor que minimiza la cantidad, que es igual a la media de las n observaciones realizadas. Sin embargo, el trabajo de Laplace no alcanzó mucha difusión porque quedó eclipsado por las nuevas ideas presentadas por K. Gauss (17771855) y A. Legendre (17521833), que propusieron y desarrollaron el método de mínimos cuadrados. Gauss demostró que, bajo ciertas condiciones generales. Otra gran contribución fue la realizada por SimeonPoisson (17811840). En particular, planteó la siguiente pregunta: ¿es cierto que la media aritmética es siempre mejor que una única observación? La respuesta es no.

Upload: berenice-reyes

Post on 10-Jul-2015

1.547 views

Category:

Documents


3 download

TRANSCRIPT

Page 1: Antecedentes teoria de errores

Antecedentes

La teoría de errores es una ciencia fundamental para todas las materias donde se

manejan y analizan grandes volúmenes de datos provenientes de observaciones directas

o mediciones realizadas en laboratorio o trabajos de campo, tales como los que se

desarrollan en topografía, geodesia, física, química y sobre todo estadística.

Esta ciencia, parte de la estadística, fue desarrollada por el matemático alemán Karl

Friedrich Gauss a partir de sus estudios algebraicos y complementada luego por el inglés

Sir Isaac Newton quien aplica su teoría del análisis matemático a la estadística y mas

tarde por el francés Pierre Simón Laplace quien con su teoría de las probabilidades le da

a la estadística y la teoría de errores carácter de ciencia.

La teoría de la medida de errores fue iniciada por Galileo y continuada por otros muchos

científicos, en su mayoría astrónomos, como, por ejemplo, TichoBrahe (1546–1601), que

encontró que cada medida tiene un posible error y que la precisión de la medida puede

aumentar si se hacen varias medidas y se calcula la media aritmética. Los primeros

intentos de construir matemáticamente la teoría de la medida de errores fueron hechos

por R. Cotes (1682–1716), T. Simpson (1710–1761) y Daniel Bernoulli. Cada uno de ellos

tenía una idea diferente sobre la medida de los errores. Cotes opinaba que los errores se

distribuyen uniformemente a lo largo el intervalo (-a,a). Simpson creía que los errores

pequeños ocurren más frecuentemente que los grandes, pero que están restringidos por

un número a, de manera que el error es 0 en los intervalos (-∞,-a] y [a,+∞); así, la función

de densidad es x-2a2y=-a en el intervalo (-a,0), y en (0,a) es x+2a2y=a. Daniel Bernoulli

fue el primero en poner en duda que la media aritmética fuera la mejor estimación del

error y propuso como función de densidad y = R2 − (x − x)2 , donde R es conocido y x se

determina mediante repetidas observaciones. Bernoulli no se dio cuenta de que la integral

de esta función no es 1, sino (π‚2) R2, por lo que sólo represente una verdadera función

de densidad en casos particulares. El trabajo de Bernoulli, no obstante, es importante

porque fue el primero en proponer estimar un parámetro desconocido mediante el método

de ‘máxima verosimilitud’. Otro estudioso de la cuestión fue Laplace, que consideraba la

teoría de probabilidad más como una disciplina dela ciencia natural que de las

matemáticas. Muy dedicado a la astronomía, aplicó a sus investigaciones en teoría de

medida de errores. Laplace afirmó los errores de medida observados eran la suma de una

gran cantidad de pequeños errores; si estos errores tenían una distribución normal, su

suma también debería tenerla. Como estimación del valor desconocido del error a,

Laplace sugirió tomar el valor que minimiza la cantidad, que es igual a la media de las n

observaciones realizadas. Sin embargo, el trabajo de Laplace no alcanzó mucha difusión

porque quedó eclipsado por las nuevas ideas presentadas por K. Gauss (1777–1855) y A.

Legendre (1752–1833), que propusieron y desarrollaron el método de mínimos

cuadrados. Gauss demostró que, bajo ciertas condiciones generales.

Otra gran contribución fue la realizada por SimeonPoisson (1781–1840). En particular,

planteó la siguiente pregunta: ¿es cierto que la media aritmética es siempre mejor que

una única observación? La respuesta es no.

Page 2: Antecedentes teoria de errores

Poisson demostró que la suma de dos variables aleatorias con esta distribución tiene la

misma distribución pero con otra escala y luego probó que la media aritmética de

variables aleatorias independientes de este tipo tiene exactamente la misma distribución

que cualquiera de ellas. 20 años después A. Cauchy (1789–1857) repitió este mismo

resultado y la distribución descubierta por Poisson recibió el nombre de Cauchy. Más

tarde, la teoría de errores atrajo la atención de muchos probabilistas rusos, como P.

Chebyshev (1821–1894) y A. Markov (1856–1922), que desarrollaron el método de

mínimos cuadrados.

Teoría de errores

La importancia de la estimación de los errores

Cuando se mide una cantidad física, no debe esperarse que el valor obtenido sea

exactamente igual al valor verdadero. Es importante dar alguna indicación de que tan

cerca está el resultado obtenido del valor verdadero; es decir alguna indicación de la

exactitud o confiabilidad de las mediciones. Esta se hace incluyendo en el resultado una

estimación de su error. Por ejemplo, puede medirse la distancia focal f de una lente y dar

el resultado final como

F= (256 2) mm.

Por esto se entiende que se cree que la distancia focal este en alguna parte dentro de la

variación de 254 a 258 mm. En realidad, la ecuación (2.1) es una afirmación de

probabilidad; no significa que se está seguro que el valor este entre los limites indicados,

si no que las mediciones indican que hay cierta probabilidad de que este ahí.

La estimación de los errores es importante, porque sin ella no se pueden obtener

conclusiones significativas de los resultados experimentales.

Por ejemplo, suponga que se desea determinar si la temperatura tiene efecto sobre la

resistencia de una bobina de alambre. Los valores de la resistencia que se mide son

200.025 Ω a 10

200.034 Ω a 20

¿Es significativa la diferencia entre estos dos valores? Si no se conocen los errores, no

puede contestarse la pregunta. Por ejemplo, si al error en cada valor de la resistencia es

0.001Ω la diferencia es significativa; en tanto si al error es o.010Ω, entonces no lo es. Una

vez obtenido el resultado de un experimento, se difunde por el mundo y se convierte en

propiedad pública; diferentes personas pueden hacer uso de el en formas diversas.

Page 3: Antecedentes teoria de errores

Algunas pueden utilizarlo en sus cálculos para fines prácticos; oros quizás deseen

compararlo con una predicción teórica.

Cualquier uso que una persona haga de un resultado experimental querrá si esta es

suficientemente preciso para sus propósitos; y si de este obtiene algunas conclusiones,

deseara saber cuánta confianza puede poner en ellas, para responder a tales preguntas

es necesario estimar el error del resultad, y es responsabilidad del experimentador

hacerlo.

Pudiera pensarse que se tendrá el propósito de que todo experimento se lleve a cabo con

tanta exactitud como sea posible, pero este punto de vista no es real; la vida es finita y los

recursos del experimentador también, igual que en capacidad de trabajo. Por lo tanto es

importante planear y efectuar el experimento de modo que la exactitud de la respuesta

final sea la apropiada para el objeto primordial del experimento.

Tal como debe obtenerse el resultado final de un experimento con un grado apropiado de

exactitud, los valores de las diferentes cantidades que se miden dentro del experimento,

deben obtenerse con el grado adecuado de exactitud.

Pocos experimentos son tan sencillos que la magnitud final se mida en forma directa, pero

por lo general se tienen que medir varias magnitudes primarias y combinar los resultados

a fin de obtener la magnitud requerida. Los errores en las magnitudes primarias

determinan el error en el resultado final. En general, los errores primarios contribuyen en

distinto grado al error final, y este llega a su mínima expresión si los recursos finitos

disponibles de tiempo, aparatos y paciencia se concentran para reducir los errores que

más contribuyen al error final.

Por lo tanto, la idea de error no es cosa de interés secundario o circunstancial en un

experimento; al contrario, está relacionada con el propósito del experimento, el método de

efectuarlo y el significado de los resultados.

-ERRORES SISTEMATICOS Y ERRORES ALEATORIOS

Los errores pueden dividirse en dos clases: sistemáticos y aleatorios. Un error

sistemático es aquel que es contante a través de un conjunto de lecturas. Un error

aleatorio, es el que varía y tiene igual posibilidad de ser positivo o negativo.

Los errores aleatorios siempre están presentes es un experimento, y en ausencia de

errores sistemáticos son causa de que las lecturas sucesivas se dispersen alrededor del

valor verdadero de la cantidad. Si además está presente el error sistemático las lecturas

se dispersan, no alrededor del valor verdadero, sino de algún valor desplazado

Supóngase que el periodo de un péndulo se mide con un cronometro y estas mediciones

se repiten muchas veces. Los errores al hacer andar y parar el reloj, leer la escala de

divisiones, y las pequeñas irregularidades en el movimiento del péndulo, causan

variaciones en los resultados de las mediciones sucesivas y pueden considerarse como

errores aleatorios. Si no hay otros errores presentes, algunos resultados serán demasiado

altos y otros demasiado bajos. Pero si, además, el reloj marcha lento, todos los resultados

serán demasiado bajos; este es un error sistemático.

Page 4: Antecedentes teoria de errores

Debe observarse que los errores sistemáticos y aleatorios se definen respecto a si

producen efectos sistemáticos o aleatorios. Por lo tanto no puede decirse que cierta

fuente de error sea inherentemente sistemática o aleatoria. Si se retrocede al ejemplo,

supóngase que en cada ocasión se mide el periodo usando un reloj diferente. Algunos

relojes pueden marchar rápido y otros lento. Tales inexactitudes producen un error

aleatorio.

Por otra parte, algunas fuentes de error pueden dar origen tanto a efectos sistemáticos

como aleatorios. Por ejemplo al operar el reloj, no solo se podría ponerlo en marcha y

pararlo en forma ligeramente irregular en relación al movimiento del péndulo, produciendo

así un error aleatorio, si no que podría tenerse la tendencia a ponerlo en marcha después

y a pararlo antes, lo que conduciría a un error sistemático.

Conviene establecer una distinción entre las palabras de exactitud y precisión en el

contexto de error. Así se dice que un resultado es exacto si está relativamente libre de

error sistemático, y preciso si el error aleatorio es pequeño

-ERRORES SISTEMATICOS

Los errores sistemáticos frecuentemente, surgen debido a que la disposición experimental

es diferente dela que se supuso en la teoría, y se ignora el factor de corrección que toma

en cuenta dicha diferencia. Es fácil dar ejemplos de los efectos que pueden conducir al

error sistemático: fuerzas electromotrices térmicas en un puente de resistencia, la

resistencia de los conductores en un termómetro de platino, el efecto de la exposición de

tubo capilar de un termómetro de mercurio, perdidas de calor en un experimento de

calorimetría, algunas perdidas en la cuenta, debido al tiempo muerto en un contador de

partículas, son solo unos pocos. Otra fuente común de error sistemático, antes

mencionada, es la inexactitud de los aparatos.

Pueden descubrirse los errores aleatorios repitiendo las mediciones; además, tomando

lectura se obtiene del promedio aritmético un valor que se aproxima más al valor

verdadero. Ninguno de estos puntos es verdadero para un error sistemático. Por esta

razón, los errores sistemáticos son potencialmente más peligrosos que los errores

aleatorios. Si en un experimento aparecen grandes errores aleatorios, estos se

manifiestan por si mismos en un valor grande del error final. Así, todo el mundo se

enterara de la inexactitud del resultado y no hay ningún perjuicio, excepto, posiblemente,

en el ego del experimentador, cuando nadie haga caso a su resultado. Sin embargo, la

presencia inadvertida de un error sistemático puede conducir a un resultado

aparentemente digno de confianza, expresado con un error calculado pequeño, y que de

hecho está muy equivocado.

Un ejemplo clásico lo proporciono el experimento de la gota de aceite hecho por Millikan,

para medir e, la carga elemental. En este experimento es necesario conocer la viscosidad

del aire. El valor utilizado por Millikan fue demasiado bajo y como resultado, el valor que

obtuvo para e era

e = (1.591 0.002) × C.

Este valor puede compararse con el valor actual (cohen y Dumond, 1965)

e = (1.60210 0.00002) × C.

Page 5: Antecedentes teoria de errores

hasta después de 1939, los valores de otras constantes atómicas, tales como la constante

de Planck y el número de Avogadro, estaban basados en el valor de Millikan para e y,

consecuentemente, tenían un error de más 0.5% los errores aleatorios pueden

determinarse por métodos estadísticos.

Los errores sistemáticos no se presentan para ningún tratamiento tan definido. Para

seguridad, usted los deberá considerar como efectos que deben descubrirse y eliminarse.

No hay una regla general para efectuar esto; en todo caso, debe pensarse acerca del

método particular para efectuar el experimento y siempre sospechar del aparato. En este

libre se tratara de indicar las fuentes comunes de errores sistemáticos.

A la par con los mencionados existen otros tipos de errores como son por ejemplo los

errores estáticos y los errores dinámicos. Los errores estáticos se originan debido a las

limitaciones de los instrumentos de medida o por las leyes físicas que gobiernan su

comportamiento. En un micrómetro se introduce un error estático cuando se aplica al eje

una fuerza excesiva. Los errores dinámicos se originan debido a que el instrumento de

medida no responde lo suficientemente rápido para seguir los cambios de la variable

medida. Pero cualquier tipo adicional de error se puede clasificar en uno de los grupos

mencionados anteriormente.

Física práctica.

squieres

McGraw-Hill de México, S.A. de C.V.