4.1 determina la energía eléctrica producida en los materiales a partir del análisis de la...

32
Colegio nacional de educación profesional técnica de Tabasco plantel, Paraíso #100 MÓDULO: Análisis de fenómenos eléctricos, electromagnéticos y ópticos. PROFESORA: Ing. Nory Angulo Zapata INTEGRANTES: Miguel Ángel Barrera Rodríguez A.- Determinación de la naturaleza Ondulatoria de la materia • Postulados de la relatividad. • Longitud, masa y tiempo relativista. Jesús Eduardo Córdova Pérez. • Relación relativista de masa y energía. • Teoría cuántica y el efecto Fotoeléctrico. Néstor Francisco Parsons Collado B. Identificación de la estructura atómica. • Modelos atómicos. - Dalton. - Thompson. José Manuel de la Cruz Flores - Rutherford. - Bhor. Eder Alejandro Córdova Soler • Modelo cuántico - Números cuánticos y orbitales - Principio de exclusión de Pauli - Principio de máxima multiplicidad - Principio de indeterminación de Heisenberg

Upload: miguel-angel-barrera-rodriguez

Post on 28-Jul-2015

682 views

Category:

Documents


7 download

TRANSCRIPT

Page 1: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

Colegio nacional de educación profesional técnica de Tabasco plantel, Paraíso #100

MÓDULO:Análisis de fenómenos eléctricos, electromagnéticos y ópticos.

PROFESORA:Ing. Nory Angulo Zapata

INTEGRANTES:Miguel Ángel Barrera Rodríguez

A.- Determinación de la naturalezaOndulatoria de la materia

• Postulados de la relatividad.• Longitud, masa y tiempo relativista.

Jesús Eduardo Córdova Pérez.• Relación relativista de masa y energía.

• Teoría cuántica y el efectoFotoeléctrico.

Néstor Francisco Parsons ColladoB. Identificación de la estructura atómica.

• Modelos atómicos.- Dalton.

- Thompson.José Manuel de la Cruz Flores

- Rutherford.- Bhor.

Eder Alejandro Córdova Soler• Modelo cuántico

- Números cuánticos y orbitales- Principio de exclusión de Pauli

- Principio de máxima multiplicidad- Principio de indeterminación de

Heisenberg

CARRERA:P.T.B. En Mantenimiento en Sistemas Automáticos

GRUPO: 407

Page 2: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

A.- Determinación de la naturalezaOndulatoria de la materia

LA NATURALEZA ONDULATORIA DE LA MATERIA.-

Se trata de una larga historia. Yo diría que empieza con Newton, alrededor del año 1700. Newton, aparte de su insigne aportación sobre el comportamiento de la gravedad, fue también un investigador del fenómeno luminoso, y llegó a la conclusión de que la luz se transmite a base de partículas o corpúsculos. Examinó meticulosamente sus propiedades, especialmente: propagación en línea recta, reflexión y refracción, y consideró que indicaban una naturaleza inequívocamente corpuscular. En su misma época, el holandés Huygens opinaba de una forma muy distinta. Huygens, que era un sabio sobre el tema ondulatorio que había vivido desde su infancia, al tener ocasión de contemplar las ondas en los canales de La Haya, entendía que la luz era de naturaleza ondulatoria. Aunque prevaleció la opinión de Newton, ya vemos que desde el principio la controversia estaba servida.

Teoría de la relatividad

La teoría especial de la relatividad, también llamada teoría de la relatividad restringida, es una teoría física publicada en 1905 por Albert Einstein. Surge de la observación de que la velocidad de la luz en el vacío es igual en todos los sistemas de referencia inerciales y de sacar todas las consecuencias del principio de relatividad de Galileo, según el cual cualquier experiencia hecha en un sistema de referencia inercial se desarrollará de manera idéntica en cualquier otro sistema inercial.

La teoría especial de la relatividad estableció nuevas ecuaciones que permitían pasar de un sistema de referencia inercial a otro. Las ecuaciones correspondientes conducen a fenómenos que chocan con el sentido común, siendo uno de los más asombrosos y más famosos la llamada paradoja de los gemelos.

La relatividad especial tuvo también un impacto en la filosofía, eliminando toda posibilidad de existencia de un tiempo y de un espacio absoluto en el conjunto del universo.

Postulados de la Relatividad

Primer postulado - Principio especial de relatividad - Las leyes de la física son las mismas en todos los sistemas de referencia inerciales. En otras palabras, no existe un sistema inercial de referencia privilegiado, que se pueda considerar como absoluto.

Segundo postulado - Invariancia de c - La velocidad de la luz en el vacío es una constante universal, c, que es independiente del movimiento de la fuente de luz.

1. Primer postulado (principio de relatividad)

Page 3: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

La observación de un fenómeno físico por más de un observador inercial debe resultar en un acuerdo entre los observadores sobre la naturaleza de la realidad.O, la naturaleza del universo no debe cambiar para un observador si su estado inercial cambia.O, toda teoría física debe ser matemáticamente similar para cada observador inercial, presentando a lo sumo Variaciones dentro del rango de las condiciones iniciales de la misma.O, las leyes del universo son las mismas sin que importe el marco de referencia inercial.2. Segundo postulado (invariabilidad de c)La Luz siempre se propaga en el vacío con una velocidad constante c que es independiente del estado de movimiento del cuerpo emisor.Derivaciones alternativas de la Relatividad EspecialLos dos postulados base para la relatividad especial que se esbozaron en el apartado anterior son, históricamente, los utilizados por Einstein, y hoy en día siguen siendo los más utilizados. Sin embargo, desde la publicación del trabajo original de Einstein se han descubierto un conjunto pequeño de postulados suficientes para derivar la teoría. En particular, varios autores han mostrado que es posible derivar la estructura de la teoría de la relatividad especial a partir del principio de relatividad por si solo junto con algunas suposiciones sobre la simetría y homogeneidad del espacio-tiempo. [1] [2] Tales derivaciones dan paso a una teoría libre de una velocidad constante universal, y en su lugar existe una velocidad constante, que debe determinarse experimentalmente. Por ejemplo, un infinito correspondería a la relatividad Galileana. Sin embargo, una vez que el experimento asigna, la teoría corresponde exactamente a la teoría de la relatividad especial. Consecuentemente, los resultados de tal aproximación de un solo postulado satisfacen la relatividad especial mientras resaltan la importancia del principio de relatividad.Ellos cambian el rol de la velocidad constante universal, pasando de causa a una consecuencia.

Longitud, masa y tiempo relativista.

La longitud es considerada habitualmente como una de las magnitudes físicas fundamentales, en tanto que no puede ser definida en términos de otras magnitudes que se pueden medir. Sin embargo, la longitud no es una propiedad intrínseca de ningún objeto dado que, según la teoría especial de la relatividad (Albert Einstein, 1905), dos observadores podrían medir el mismo objeto y obtener resultados diferentes.

Dilatación del tiempo y contracción de la longitud

Como se dijo previamente, el tiempo en esta teoría deja de ser absoluto como se proponía en la mecánica clásica. O sea, el tiempo para todos los observadores del fenómeno deja de ser el mismo. Si tenemos un observador inmóvil haciendo una medición del tiempo de un acontecimiento y otro que se mueva a velocidades relativistas, los dos relojes no tendrán la misma medición de tiempo.

Mediante la transformación de Lorentz nuevamente llegamos a comprobar esto. Se coloca un reloj ligado al sistema S y otro al S', lo que nos indica que x = 0. Se tiene las transformaciones y sus inversas en términos de la diferencia de coordenadas:

Page 4: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

Y

Teoría cuántica

La Teoría Cuántica es uno de los pilares fundamentales de la Física actual. Se trata de una teoría que reúne un formalismo matemático y conceptual, y recoge un conjunto de nuevas ideas introducidas a lo largo del primer tercio del siglo XX, para dar explicación a procesos cuya comprensión se hallaba en conflicto con las concepciones físicas vigentes.

Las ideas que sustentan la Teoría Cuántica surgieron, pues, como alternativa al tratar de explicar el comportamiento de sistemas en los que el aparato conceptual de la Física Clásica se mostraba insuficiente. Es decir, una serie de observaciones empíricas cuya explicación no era abordable a través de los métodos existentes, propició la aparición de las nuevas ideas.

Hay que destacar el fuerte enfrentamiento que surgió entre las ideas de la Física Cuántica, y aquéllas válidas hasta entonces, digamos de la Física Clásica. Lo cual se agudiza aún más si se tiene en cuenta el notable éxito experimental que éstas habían mostrado a lo largo del siglo XIX, apoyándose básicamente en la mecánica de Newton y la teoría electromagnética de Maxwell (1865).

“Dos nubecillas”

Era tal el grado de satisfacción de la comunidad científica que algunos físicos, entre ellos uno de los más ilustres del siglo XIX, William Thompson (Lord Kelvin), llegó a afirmar:

Hoy día la Física forma, esencialmente, un conjunto perfectamente armonioso, ¡un

Page 5: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

conjunto prácticamente acabado! ... Aun quedan “dos nubecillas” que oscurecen el esplendor de este conjunto. La primera es el resultado negativo del experimento de Michelson-Morley. La segunda, las profundas discrepancias entre la experiencia y la Ley de Rayleigh-Jeans.

La disipación de la primera de esas “dos nubecillas” condujo a la creación de la Teoría Especial de la Relatividad por Einstein (1905), es decir, al hundimiento de los conceptos absolutos de espacio y tiempo, propios de la mecánica de Newton, y a la introducción del “relativismo” en la descripción física de la realidad. La segunda “nubecilla” descargó la tormenta de las primeras ideas cuánticas, debidas al físico alemán Max Planck (1900).

El origen de la Teoría Cuántica

¿Qué pretendía explicar, de manera tan poco afortunada, la Ley de Rayleigh-Jeans (1899)? Un fenómeno físico denominado radiación del cuerpo negro, es decir, el proceso que describe la interacción entre la materia y la radiación, el modo en que la materia intercambia energía, emitiéndola o absorbiéndola, con una fuente de radiación. Pero además de la Ley de Rayleigh-Jeans había otra ley, la Ley de Wien (1893), que pretendía también explicar el mismo fenómeno.

La Ley de Wien daba una explicación experimental correcta si la frecuencia de la radiación es alta, pero fallaba para frecuencias bajas. Por su parte, la Ley de Rayleigh-Jeans daba una explicación experimental correcta si la frecuencia de la radiación es baja, pero fallaba para frecuencias altas.

La frecuencia es una de las características que definen la radiación, y en general cualquier fenómeno en el que intervengan ondas. Puede interpretarse la frecuencia como el número de oscilaciones por unidad de tiempo. Toda la gama de posibles frecuencias para una radiación en la Naturaleza se hallan contenidas en el espectro electromagnético, el cual, según el valor de la frecuencia elegida determina un tipo u otro de radiación.

En 1900, Max Planck puso la primera piedra del edificio de la Teoría Cuántica. Postuló una ley (la Ley de Planck que explicaba de manera unificada la radiación del cuerpo negro, a través de todo el espectro de frecuencias.

La hipótesis de Planck

¿Qué aportaba la ley de Planck que no se hallase ya implícito en las leyes de Wien y de Rayleigh-Jeans? Un ingrediente tan importante como novedoso. Tanto que es el responsable de la primera gran crisis provocada por la Teoría Cuántica sobre el marco conceptual de la Física Clásica. Ésta suponía que el intercambio de energía entre la radiación y la materia ocurría a través de un proceso continuo, es decir, una radiación de frecuencia f podía ceder cualquier cantidad de energía al ser absorbida por la materia.

Lo que postuló Planck al introducir su ley es que la única manera de obtener una fórmula experimentalmente correcta exigía la novedosa y atrevida suposición de que dicho intercambio de energía debía suceder de una manera discontinua, es decir, a través de la emisión y absorción de cantidades discretas de energía, que hoy denominamos “quantums” de radiación. La cantidad de energía E propia de un quantum de radiación de frecuencia f se obtiene mediante la relación de Planck: E = h x f, siendo h la constante universal de Planck = 6’62 x 10 (expo-34) (unidades de “acción”).

Puede entenderse la relación de Planck diciendo que cualquier radiación de frecuencia f se comporta como una corriente de partículas, los quantums, cada una de ellas

Page 6: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

transportando una energía E = h x f, que pueden ser emitidas o absorbidas por la materia.

La hipótesis de Planck otorga un carácter corpuscular, material, a un fenómeno tradicionalmente ondulatorio, como la radiación. Pero lo que será más importante, supone el paso de una concepción continuista de la Naturaleza a una discontinuista, que se pone especialmente de manifiesto en el estudio de la estructura de los átomos, en los que los electrones sólo pueden tener un conjunto discreto y discontinuo de valores de energía.

La hipótesis de Planck quedó confirmada experimentalmente, no sólo en el proceso de radiación del cuerpo negro, a raíz de cuya explicación surgió, sino también en las explicaciones del efecto fotoeléctrico, debida a Einstein (1905), y del efecto Compton, debida a Arthur Compton (1923).

Marco de aplicación de la Teoría Cuántica

El marco de aplicación de la Teoría Cuántica se limita, casi exclusivamente, a los niveles atómico, subatómico y nuclear, donde resulta totalmente imprescindible. Pero también lo es en otros ámbitos, como la electrónica (en el diseño de transistores, microprocesadores y todo tipo de componentes electrónicos), en la física de nuevos materiales, (semiconductores y superconductores), en la física de altas energías, en el diseño de instrumentación médica (láseres, tomógrafos, etc.), en la criptografía y la computación cuánticas, y en la Cosmología teórica del Universo temprano. De manera que la Teoría Cuántica se extiende con éxito a contextos muy diferentes, lo que refuerza su validez.

Pero, ¿por qué falla la teoría clásica en su intento de explicar los fenómenos del micro mundo? ¿No se trata al fin y al cabo de una simple diferencia de escalas entre lo grande y lo pequeño, relativa al tamaño de los sistemas? La respuesta es negativa. Pensemos que no siempre resulta posible modelar un mismo sistema a diferentes escalas para estudiar sus propiedades.

Para ver que la variación de escalas es un proceso con ciertas limitaciones intrínsecas, supongamos que queremos realizar estudios hidrodinámicos relativos al movimiento de corrientes marinas. En determinadas condiciones, podríamos realizar un modelo a escala lo suficientemente completo, que no dejase fuera factores esenciales del fenómeno. A efectos prácticos una reducción de escala puede resultar lo suficientemente descriptiva.

Pero si reducimos la escala de manera reiterada pasaremos sucesivamente por situaciones que se corresponderán en menor medida con el caso real. Hasta llegar finalmente a la propia esencia de la materia sometida a estudio, la molécula de agua, que obviamente no admite un tratamiento hidrodinámico, y habremos de acudir a otro tipo de teoría, una teoría de tipo molecular. Es decir, en las sucesivas reducciones de escala se han ido perdiendo efectos y procesos generados por el aglutinamiento de las moléculas.

De manera similar, puede pensarse que una de las razones por las que la Física Clásica no es aplicable a los fenómenos atómicos, es que hemos reducido la escala hasta llegar a un ámbito de la realidad “demasiado esencial” y se hace necesario, al igual que en el ejemplo anterior, un cambio de teoría. Y de hecho, así sucede: la Teoría Cuántica estudia los aspectos últimos de la substancia, los constituyentes más esenciales de la materia (las denominadas “partículas elementales”) y la propia naturaleza de la radiación.

Page 7: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

Albert Einstein Cuándo entra en juego la Teoría Cuántica

Debemos asumir, pues, el carácter absoluto de la pequeñez de los sistemas a los que se aplica la Teoría Cuántica. Es decir, la cualidad “pequeño” o “cuántico” deja de ser relativa al tamaño del sistema, y adquiere un carácter absoluto. Y ¿qué nos indica si un sistema debe ser considerado “pequeño”, y estudiado por medio de la Teoría Cuántica? Hay una “regla”, un “patrón de medida” que se encarga de esto, pero no se trata de una regla calibrada en unidades de longitud, sino en unidades de otra magnitud física importante denominada “acción”.

La acción es una magnitud física, al igual que lo son la longitud, el tiempo, la velocidad, la energía, la temperatura, la potencia, la corriente eléctrica, la fuerza, etc., aunque menos conocida. Y al igual que la temperatura indica la cualidad de frío o caliente del sistema, y la velocidad su cualidad de reposo o movimiento, la acción indica la cualidad de pequeño (cuántico) o grande (clásico) del sistema. Como la energía, o una longitud, todo sistema posee también una acción que lo caracteriza.

Esta acción característica, A, se obtiene de la siguiente multiplicación de magnitudes: A = P x L, donde P representa la cantidad de movimiento característica del sistema (el producto de su masa por su velocidad) y L su “longitud” característica. La unidad de esa “regla” que mencionábamos, con la que medimos la acción de los sistemas, es la constante de Planck, h. Si el valor de la acción característica del sistema es del orden de la constante de Planck deberemos utilizar necesariamente la Teoría Cuántica a la hora de estudiarlo.

Al contrario, si h es muy pequeña comparada con la acción típica del sistema podremos estudiarlo a través de los métodos de la teoría clásica. Es decir: Si A es del orden de h debemos estudiar el sistema según la Teoría Cuántica. Si A es mucho mayor que h, podemos estudiarlo por medio de la Física Clásica.

Dos ejemplos: partículas y planetas

Veamos dos ejemplos de acción característica en dos sistemas diferentes, aunque análogos:

1. El electrón orbitando en torno al núcleo en el nivel más bajo de energía del átomo de hidrógeno.

Vamos a calcular el orden de magnitud del producto P x L. P representa el producto de la masa del electrón por su velocidad orbital, esto es P = 10 (exp-31) (masa) x 10 (expo 6) (velocidad) = 10 (exp-25) (cantidad de movimiento). El valor característico de L

Page 8: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

corresponde al radio de la órbita, esto es, L = 10 (expo-10) (longitud). Realizamos ahora el producto P x L para hallar la magnitud de la “acción” característica asociada a este proceso: A1 = Px L = 10 (expo-25) x 10 (expo-10) = 10 (expo-35) (acción).

2. El planeta Júpiter orbitando en torno al Sol (consideramos la órbita circular, para simplificar).

Para este segundo ejemplo, realizamos cálculos análogos a los anteriores. Primeramente la cantidad de movimiento P, multiplicando la masa de Júpiter por su velocidad orbital: P = 10 (expo 26) (masa) x 10 (expo 4) (velocidad) = 10 (expo 30) (cantidad de movimiento). Igualmente, la longitud característica será la distancia orbital media: L = 10 (expo 11) (longitud). La magnitud de la acción característica en este segundo caso será: A2 = 10 (expo 30) x 10 (expo 11) = 10 (expo 41) (acción).

Si comparamos estos dos resultados con el orden de magnitud de la constante de Planck tenemos:

h = 10 (expo-34) A1 = 10 (expo -35) A2 = 10 (expo 41)

Vemos que para el caso 1 (electrón orbitando en un átomo de hidrógeno) la proximidad en los órdenes de magnitud sugiere un tratamiento cuántico del sistema, que debe estimarse como “pequeño” en el sentido que indicábamos anteriormente, en términos de la constante de Planck, considerada como “patrón” de medida. Al contrario, entre el caso 2 (Júpiter en órbita en torno al Sol) y la constante de Planck hay una diferencia de 75 órdenes de magnitud, lo que indica que el sistema es manifiestamente “grande”, medido en unidades de h, y no requiere un estudio basado en la Teoría Cuántica.

La constante de Planck tiene un valor muy, muy pequeño. Veámoslo explícitamente:

h = 0’ 000000000000000000000000000000000662 (unidades de acción)

El primer dígito diferente de cero aparece en la trigésimo cuarta cifra decimal. La pequeñez extrema de h provoca que no resulte fácil descubrir los aspectos cuánticos de la realidad, que permanecieron ocultos a la Física hasta el siglo XX. Allá donde no sea necesaria la Teoría Cuántica, la teoría clásica ofrece descripciones suficientemente exactas de los procesos, como en el caso del movimiento de los planetas, según acabamos de ver.

http://www.tendencias21.net/La-Teoria-Cuantica-una-aproximacion-al-universo-probable_a992.html

Efecto fotoeléctrico

El efecto fotoeléctrico consiste en la emisión de electrones por un material cuando se hace incidir sobre él una radiación electromagnética (luz visible o ultravioleta, en general). A veces se incluyen en el término otros tipos de interacción entre la luz y la materia:

Efecto fotoeléctrico

Page 9: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

Fotoconductividad: es el aumento de la conductividad eléctrica de la materia o en diodos provocada por la luz. Descubierta por Willoughby Smith en el selenio hacia la mitad del siglo XIX.

Efecto fotovoltaico: transformación parcial de la energía luminosa en energía eléctrica. La primera célula solar fue fabricada por Charles Fritts en 1884. Estaba formada por selenio recubierto de una fina capa de oro.

El efecto fotoeléctrico fue descubierto y descrito por Heinrich Hertz en 1887, al observar que el arco que salta entre dos electrodos conectados a alta tensión alcanza distancias mayores cuando se ilumina con luz ultravioleta que cuando se deja en la oscuridad. La explicación teórica fue hecha por Albert Einstein, quien publicó en 1905 el revolucionario artículo “Heurística de la generación y conversión de la luz”, basando su formulación de la fotoelectricidad en una extensión del trabajo sobre los cuantos de Max Planck. Más tarde Robert Andrews Millikan pasó diez años experimentando para demostrar que la teoría de Einstein no era correcta, para finalmente concluir que sí lo era. Eso permitió que Einstein y Millikan fueran condecorados con premios Nobel en 1921 y 1923, respectivamente.

Introducción

Célula fotoeléctrica donde "1" es la fuente lumínica, "2" es el cátodo y "3", el ánodo.

Los fotones tienen una energía característica determinada por la frecuencia de onda de la luz. Si un átomo absorbe energía de un fotón que tiene mayor energía que la necesaria para expulsar un electrón del material y que además posee una velocidad bien dirigida hacia la superficie, entonces el electrón puede ser extraído del material. Si la energía del fotón es demasiado pequeña, el electrón es incapaz de escapar de la superficie del material. Los cambios en la intensidad de la luz no modifican la energía de sus fotones, tan sólo el número de electrones que pueden escapar de la superficie sobre la que incide y por lo tanto la energía de los electrones emitidos no depende de la intensidad de la radiación que le llega, sino de su frecuencia. Si el fotón es absorbido parte de la energía se utiliza para liberarlo del átomo y el resto contribuye a dotar de energía cinética a la partícula libre.

En principio, todos los electrones son susceptibles de ser emitidos por efecto fotoeléctrico. En realidad los que más salen son los que necesitan menos energía para salir y, de ellos, los más numerosos.

En un aislante (dieléctrico), los electrones más energéticos se encuentran en la banda de valencia. En un metal, los electrones más energéticos están en la banda de conducción. En un semiconductor de tipo N, son los electrones de la banda de conducción que son los más energéticos. En un semiconductor de tipo P también, pero hay muy pocos en la banda de conducción. Así que en ese tipo de semiconductor hay que ir a buscar los electrones de la banda de valencia.

Page 10: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

A la temperatura ambiente, los electrones más energéticos se encuentran cerca del nivel de Fermi (salvo en los semiconductores intrínsecos en los cuales no hay electrones cerca del nivel de Fermi). La energía que hay que dar a un electrón para llevarlo desde el nivel de Fermi hasta el exterior del material se llama función trabajo, y la frecuencia mínima necesaria para que un electrón escape del metal recibe el nombre de frecuencia umbral. El valor de esa energía es muy variable y depende del material, estado cristalino y, sobre todo de las últimas capas atómicas que recubren la superficie del material. Los metales alcalinos (sodio, calcio, cesio, etc.) presentan las más bajas funciones de trabajo. Aún es necesario que las superficies estén limpias al nivel atómico. Una de la más grandes dificultades de las experiencias de Millikan era que había que fabricar las superficies de metal en el vacío.

Explicación

Los fotones del rayo de luz tienen una energía característica determinada por la frecuencia de la luz. En el proceso de fotoemisión, si un electrón absorbe la energía de un fotón y éste último tiene más energía que la función trabajo, el electrón es arrancado del material. Si la energía del fotón es demasiado baja, el electrón no puede escapar de la superficie del material. Aumentar la intensidad del haz no cambia la energía de los fotones constituyentes, solo cambia el número de fotones. En consecuencia, la energía de los electrones emitidos no depende de la intensidad de la luz, sino de la energía de los fotones individuales.

Los electrones pueden absorber energía de los fotones cuando son irradiados, pero siguiendo un principio de "todo o nada". Toda la energía de un fotón debe ser absorbida y utilizada para liberar un electrón de un enlace atómico, o si no la energía es re-emitida. Si la energía del fotón es absorbida, una parte libera al electrón del átomo y el resto contribuye a la energía cinética del electrón como una partícula libre.

Einstein no se proponía estudiar las causas del efecto en el que los electrones de ciertos metales, debido a una radiación luminosa, podían abandonar el metal con energía cinética. Intentaba explicar el comportamiento de la radiación, que obedecía a la intensidad de la radiación incidente, al conocerse la cantidad de electrones que abandonaba el metal, y a la frecuencia de la misma, que era proporcional a la energía que impulsaba a dichas partículas.

Leyes de la emisión fotoeléctrica

1. Para un metal y una frecuencia de radiación incidente dado, la cantidad de fotoelectrones emitidos es directamente proporcional a la intensidad de luz incidente.

2. Para cada metal dado, existe una cierta frecuencia mínima de radiación incidente debajo de la cual ningún fotoelectrón puede ser emitido. Esta frecuencia se llama frecuencia de corte, también conocida como "Frecuencia Umbral".

3. Por encima de la frecuencia de corte, la energía cinética máxima del fotoelectrón emitido es independiente de la intensidad de la luz incidente, pero depende de la frecuencia de la luz incidente.

4. La emisión del fotoelectrón se realiza instantáneamente, independientemente de la intensidad de la luz incidente. Este hecho se contrapone a la teoría Clásica: la Física Clásica esperaría que existiese un cierto retraso entre la absorción de energía y la emisión del electrón, inferior a un nanosegundo.

Page 11: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

Formulación matemática

Para analizar el efecto fotoeléctrico cuantitativamente utilizando el método derivado por Einstein es necesario plantear las siguientes ecuaciones:

Energía de un fotón absorbido = Energía necesaria para liberar 1 electrón + energía cinética del electrón emitido.

Algebraicamente:

,

Que puede también escribirse como

.

donde h es la constante de Planck, f0 es la frecuencia de corte o frecuencia mínima de los fotones para que tenga lugar el efecto fotoeléctrico, Φ es la función trabajo, o mínima energía necesaria para llevar un electrón del nivel de Fermi al exterior del material y Ex es la máxima energía cinética de los electrones que se observa experimentalmente.

Nota: Si la energía del fotón (hf) no es mayor que la función de trabajo (Φ), ningún electrón será emitido.

En algunos materiales esta ecuación describe el comportamiento del efecto fotoeléctrico de manera tan sólo aproximada. Esto es así porque el estado de las superficies no es perfecto (contaminación no uniforme de la superficie externa).

Heinrich Hertz

Las primeras observaciones del efecto fotoeléctrico fueron llevadas a cabo por Heinrich Hertz en 1887 en sus experimentos sobre la producción y recepción de ondas electromagnéticas. Su receptor consistía en una bobina en la que se podía producir una chispa como producto de la recepción de ondas electromagnéticas. Para observar mejor la chispa Hertz encerró su receptor en una caja negra. Sin embargo la longitud máxima de la chispa se reducía en este caso comparada con las observaciones de chispas anteriores. En efecto la absorción de luz ultravioleta facilitaba el salto de los electrones y la intensidad de la chispa eléctrica producida en el receptor. Hertz publicó un artículo con sus resultados sin intentar explicar el fenómeno observado.

J.J. Thompson

En 1897, el físico británico Joseph John Thompson investigaba los rayos catódicos. Influenciado por los trabajos de James Clerk Maxwell, Thompson dedujo que los rayos catódicos consistían de un flujo de partículas cargadas negativamente a los que llamó corpúsculos y ahora conocemos como electrones.

Page 12: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

Thompson utilizaba una placa metálica encerrada en un tubo de vacío como cátodo exponiendo este a luz de diferente longitud de onda. Thompson pensaba que el campo electromagnético de frecuencia variable producía resonancias con el campo eléctrico atómico y que si estas alcanzaban una amplitud suficiente podía producirse la emisión de un "corpúsculo" subatómico de carga eléctrica y por lo tanto el paso de la corriente eléctrica.

La intensidad de esta corriente eléctrica variaba con la intensidad de la luz. Incrementos mayores de la intensidad de la luz producían incrementos mayores de la corriente. La radiación de mayor frecuencia producía la emisión de partículas con mayor energía cinética.

Von Lenard

En 1902 Philips von Lenard realizó observaciones del efecto fotoeléctrico en las que se ponía de manifiesto la variación de energía de los electrones con la frecuencia de la luz incidente.

La energía cinética de los electrones podía medirse a partir de la diferencia de potencial necesaria para frenarlos en un tubo de rayos catódicos. La radiación ultravioleta requería por ejemplo potenciales de frenado mayores que la radiación de mayor longitud de onda. Los experimentos de Lenard arrojaban datos únicamente cualitativos, dadas las dificultades del equipo instrumental con el cual trabajaba.

Cuantos de luz de Einstein

En 1905 Albert Einstein propuso una descripción matemática de este fenómeno que parecía funcionar correctamente y en la que la emisión de electrones era producida por la absorción de cuantos de luz que más tarde serían llamados fotones. En un artículo titulado "Un punto de vista heurístico sobre la producción y transformación de la luz" mostró como la idea de partículas discretas de luz podía explicar el efecto fotoeléctrico y la presencia de una frecuencia característica para cada material por debajo de la cual no se producía ningún efecto. Por esta explicación del efecto fotoeléctrico Einstein recibiría el Premio Nobel de Física en 1921.

El trabajo de Einstein predecía que la energía con la que los electrones escapaban del material aumentaba linealmente con la frecuencia de la luz incidente. Sorprendentemente este aspecto no había sido observado en experiencias anteriores sobre el efecto fotoeléctrico. La demostración experimental de este aspecto fue llevada a cabo en 1915 por el físico estadounidense Robert Andrews Millikan.

Dualidad onda-corpúsculoArtículo principal: Dualidad onda-corpúsculo

El efecto fotoeléctrico fue uno de los primeros efectos físicos que puso de manifiesto la dualidad onda-corpúsculo característica de la mecánica cuántica. La luz se comporta como ondas pudiendo producir interferencias y difracción como en el experimento de la doble rendija de Thomas Young, pero intercambia energía de forma discreta en paquetes de energía, fotones, cuya energía depende de la frecuencia de la radiación electromagnética. Las ideas clásicas sobre la absorción de radiación electromagnética por un electrón sugerían que la energía es absorbida de manera continua. Este tipo de explicaciones se encontraban en libros clásicos como el libro de Millikan sobre los

Page 13: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

Electrones o el escrito por Compton y Allison sobre la teoría y experimentación con rayos X. Estas ideas fueron rápidamente reemplazadas tras la explicación cuántica de Albert Einstein.

Efecto fotoeléctrico en la actualidad

El efecto fotoeléctrico es la base de la producción de energía eléctrica por radiación solar y del aprovechamiento energético de la energía solar. El efecto fotoeléctrico se utiliza también para la fabricación de células utilizadas en los detectores de llama de las calderas de las grandes centrales termoeléctricas. Este efecto es también el principio de funcionamiento de los sensores utilizados en las cámaras digitales. También se utiliza en diodos fotosensibles tales como los que se utilizan en las células fotovoltaicas y en electroscopios o electrómetros. En la actualidad los materiales fotosensibles más utilizados son, aparte de los derivados del cobre (ahora en menor uso), el silicio, que produce corrientes eléctricas mayores.

El efecto fotoeléctrico también se manifiesta en cuerpos expuestos a la luz solar de forma prolongada. Por ejemplo, las partículas de polvo de la superficie lunar adquieren carga positiva debido al impacto de fotones. Las partículas cargadas se repelen mutuamente elevándose de la superficie y formando una tenue atmósfera. Los satélites espaciales también adquieren carga eléctrica positiva en sus superficies iluminadas y negativa en las regiones oscurecidas, por lo que es necesario tener en cuenta estos efectos de acumulación de carga en su diseño.

http://es.wikipedia.org/wiki/Efecto_fotoel%C3%A9ctrico

Relación de Equivalencia entre Masa y Energía

Por lo que respecta al principio de conservación de la masa, ésta se define como la

resistencia que un cuerpo opone a su aceleración (masa inerte), aunque ésta también se

puede medir por el peso del cuerpo (masa pesante). Para Einstein, el que estas dos

definiciones tan diferentes dieran lugar a un mismo valor de masa corporal era un hecho

asombroso, ya que según el principio anterior la masa representa la cualidad esencial de

la materia y ningún cambio físico o químico podía alterar la masa total.

Page 14: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

Los físicos habían aceptado este principio hasta hace unas pocas décadas, pero frente a

la Teoría de la Relatividad Especial este principio resultaba poco satisfactorio, por

consiguiente fue fusionado con el principio de la energía, tal y como el principio de la

conservación de la energía mecánica también había sido fusionado con el principio de la

conservación del calor.

E muy corriente expresar la equivalencia entre masa y energía (aunque un tanto

inexactamente) mediante la fórmula E=mc2, donde c representa la velocidad de la luz

(unos 300000 km/s), E es la energía contenida en un cuerpo fijo y m la masa de dicho

cuerpo. Esto equivale a decir que a cada

Unidad de masa le corresponde una enorme cantidad de energía. Pero, si cada gramo de

materia contiene esa tremenda energía, ¿por qué no ha sido advertida durante tanto

tiempo? la respuesta es que en la medida en que la energía no se pierde externamente,

es imposible que sea observada; es como si un hombre muy rico jamás pudiera gastar ni

un céntimo y nadie sabría lo rico que es.

Para que un aumento de masa sea detectable, el cambio de energía por unidad de masa

tiene que ser enorme mente grande; así, solamente sabemos de una esfera en la que

tales cantidades de energía por unidad de masa son liberadas: la desintegración

radiactiva. Para describir el proceso podemos decir que un átomo de masa M se divide en

dos átomos de masas M1 y M2 que se separan con una tremenda energía cinética; de

acuerdo con el principio de equivalencia (en contradicción con el principio de la

conservación de la masa), la suma de las masas M1 y M2 de los productos de

desintegración tiene que ser más pequeña que la masa original M del átomo original; la

diferencia relativa de los dos átomos está dentro del orden de un 0,1%)

En realidad no estamos en condiciones de pesar los átomos aunque hay métodos

indirectos para medir sus pesos con exactitud y determinar las energías cinéticas que son

transferidas a los productos de la desintegración radiactiva (M1 y M2). La ley de

equivalencia también permite calcular con anticipación, a partir de pesos atómicos

determinados de forma precisa, qué cantidad exacta de energía va a ser liberada con

cualquier rango de desintegración atómica. Desde luego, las leyes no dicen nada acerca

de si se producirá la reacción de desintegración o de cómo se producirá.

http://termodinaamik.blogspot.com/

Page 15: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

Modelo atómico de Dalton

Introduce la idea de la discontinuidad de la materia, es decir, esta es la primera teoría científica que considera que la materia está dividida en átomos (dejando aparte a precursores de la Antigüedad como Demócrito y Leu cipo, cuyas afirmaciones no se apoyaban en ningún experimento riguroso).

Los postulados básicos de esta teoría atómica son:

La materia está dividida en unas partículas indivisibles e inalterables, que se denominan átomos.

Actualmente, se sabe que los átomos sí pueden dividirse y alterarse.

Todos los átomos de un mismo elemento son idénticos entre sí (presentan igual masa e iguales propiedades).

Actualmente, es necesario introducir el concepto de isótopos: átomos de un mismo elemento, que tienen distinta masa, y esa es justamente la característica que los diferencia entre sí.

Los átomos de distintos elementos tienen distinta masa y distintas propiedades.

Los compuestos se forman cuando los átomos se unen entre sí, en una relación constante y sencilla.

Al suponer que la relación numérica entre los átomos era la más sencilla posible, Dalton asignó al agua la formula HO, al amoníaco la formula NH, etc.

Modelo atómico de Thompson

Introduce la idea de que el átomo puede dividirse en las llamadas partículas fundamentales:

Electrones, con carga eléctrica negativa

Protones, con carga eléctrica positiva

Neutrones, sin carga eléctrica y con una masa mucho mayor que la de electrones y protones.

Page 16: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

Thompson considera al átomo como una gran esfera con carga eléctrica positiva, en la cual se distribuyen los electrones como pequeños granitos (de forma similar a las pepitas de una sandía).

Modelo atómico de Rutherford.

En 1911, Rutherford introduce el modelo planetario, que es el más utilizado aún hoy en día. Considera que el átomo se divide en:

un núcleo central, que contiene los protones y neutrones (y por tanto allí se concentra toda la carga positiva y casi toda la masa del átomo)

una corteza, formada por los electrones, que giran alrededor del núcleo en órbitas circulares, de forma similar a como los planetas giran alrededor del Sol.

Los experimentos de Rutherford demostraron que el núcleo es muy pequeño comparado con el tamaño de todo el átomo: el átomo está prácticamente hueco.

Experimento de Rutherford.

Consistió en bombardear una lámina muy fina de oro (10-3 cm de espesor) con un haz de partículas a. (Las partículas a son iones He2+; son uno de los tipos de partículas que se producen cuando se descompone una sustancia radiactiva.)

Según el modelo de Thompson, lo que cabía esperar es que el haz de partículas atravesase la lámina, separándose algo más unas partículas de otras. Sin embargo, Rutherford obtuvo unos resultados sorprendentes: algunas partículas sufrían desviaciones considerables y una mínima parte incluso rebotaba en la lámina y volvía hacia atrás.

El mismo Rutherford describe su asombro ante tal resultado con estas palabras: "...Esto era lo más increíble que me había ocurrido en mi vida. Tan increíble como si un proyectil de 15 pulgadas, disparado contra una hoja de papel de seda, se volviera y le golpeara a uno..."

Las grandes desviaciones de algunas partículas a sólo se podían explicar por choque contra una partícula de gran masa y elevada carga positiva. Esto hizo suponer a Rutherford que toda la carga positiva del átomo estaba concentrada en un pequeño gránulo donde residía además la casi totalidad de su masa. Los datos experimentales indicaban que el radio del núcleo era más de diez mil veces menor que el del átomo.

Page 17: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

Como el peso atómico de los elementos tenía un valor mucho mayor que el calculado a base de los protones del núcleo, Rutherford sugirió que en los núcleos de los átomos tenían que existir otras partículas de masa casi igual a la del protón, pero sin carga eléctrica, por lo que las llamó neutrones. El neutrón fue descubierto experimentalmente en 1932 por Chadwick, quien, al bombardear el berilio con partículas ha, observó que se producían unas partículas que identificó con los neutrones predichos por Rutherford.

PartículaCarga eléctrica (Coulomb)

Masa (kg)

electrón - 1,6021 · 10-19 9,1091 · 10-31

protón + 1,6021 · 10-19 1,6725 · 10-27

neutrón — 1,6748 · 10-27

Fallos del modelo de Rutherford.

Se contradecía con las leyes del electromagnetismo de Maxwell, las cuales estaban ampliamente comprobadas mediante numerosos datos experimentales. Según las leyes de Maxwell, una carga eléctrica en movimiento (como es el electrón) debería emitir energía continuamente en forma de radiación, con lo que llegaría un momento en que el electrón caería sobre el núcleo y la materia se destruiría; esto debería ocurrir en un tiempo muy breve.

No explicaba los espectros atómicos.

Modelo Atómico de Bohr

El modelo atómico de Rutherford llevaba a unas conclusiones que se contradecían claramente con los datos experimentales. Para evitar esto, Bohr planteó unos postulados que no estaban demostrados en principio, pero que después llevaban a unas conclusiones que sí eran coherentes con los datos experimentales; es decir, la justificación experimental de este modelo es a posteriori.

Primer postulado

El electrón gira alrededor del núcleo en órbitas circulares sin emitir energía radiante.

La idea de que "el electrón gira alrededor del núcleo en órbitas circulares" existía ya en el modelo de Rutherford, pero Bohr supone que, por alguna razón desconocida por el momento, el electrón está incumpliendo las leyes del electromagnetismo y no emite energía radiante, pese a que se trata de una carga eléctrica en movimiento, que debería emitirla continuamente.

Page 18: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

Segundo postulado

Sólo son posibles aquellas órbitas en las que el electrón tiene un momento angular que es múltiplo entero de h/ (2 · ð.)

.

Puesto que el momento angular se define como L = mar, tendremos:

M: masa del electrón = 9.1 · 10-31 kgv: velocidad del electrón

r: radio de la órbita que realiza el electrón alrededor del núcleoh: constante de Planck

n: número cuántico = 1, 2, 3...a0: constante = 0,529 Å

Así, el Segundo Postulado nos indica que el electrón no puede estar a cualquier distancia del núcleo, sino que sólo hay unas pocas órbitas posibles, las cuales vienen definidas por los valores permitidos para un parámetro que se denomina número cuántico, n.

Tercer Postulado

La energía liberada al caer el electrón desde una órbita a otra de menor energía se emite en forma de fotón, cuya frecuencia viene dada por la ecuación de Planck:

Ea - Eb = h · n

Así, cuando el átomo absorbe (o emite) una radiación, el electrón pasa a una órbita de mayor (o menor) energía, y la diferencia entre ambas órbitas se corresponderá con una línea del espectro de absorción (o de emisión).

Correcciones al modelo de Bohr: números cuánticos.

En el modelo original de Bohr, se precisa un único parámetro (el número cuántico principal, n), que se relaciona con el radio de la órbita circular que el electrón realiza alrededor del núcleo, y también con la energía total del electrón. Los valores que puede tomar este número cuántico son los enteros positivos: 1, 2, 3...

Sin embargo, pronto fue necesario modificar el modelo para adaptarlo a los nuevos datos experimentales, con lo que se introdujeron otros tres números cuánticos para caracterizar al electrón:

Número cuántico secundario o azimutal (l)

Número cuántico magnético (m)

Número cuántico de espín (s)

Número cuántico secundario o azimutal (l).

Page 19: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

En 1916, Sommerfeld modificó el modelo de Bohr considerando que las órbitas del electrón no eran necesariamente circulares, sino que también eran posibles órbitas elípticas; esta modificación exige disponer de dos parámetros para caracterizar al electrón.

Una elipse viene definida por dos parámetros, que son los valores de sus semiejes mayor y menor. En el caso de que ambos semiejes sean iguales, la elipse se convierte en una circunferencia.

Así, introducimos el número cuántico secundario o azimutal (l), cuyos valores permitidos son: l = 0, 1, 2,..., n - 1

Por ejemplo, si n = 3, los valores que puede tomar l serán: 0, 1, 2

Número cuántico magnético (m).

Indica las posibles orientaciones en el espacio que puede adoptar la órbita del electrón cuando éste es sometido a un campo magnético externo (efecto Zemin).

Valores permitidos: - l,..., 0,..., + l

Por ejemplo, si el número cuántico secundario vale l = 2, los valores permitidos para m serán: -2, -1, 0, 1, 2

El efecto Zeemann se debe a que cualquier carga eléctrica en movimiento crea un campo magnético; por lo tanto, también el electrón lo crea, así que deberá sufrir la influencia de cualquier campo magnético externo que se le aplique.

Número cuántico de espín (s).

Indica el sentido de giro del electrón en torno a su propio eje. Puede tomar sólo dos valores: +1/2, -1/2.

Fallos del modelo de Bohr.

El modelo de Bohr permitió explicar adecuadamente el espectro del átomo de hidrógeno, pero fallaba al intentar aplicarlo a átomos poli electrónicos y al intentar justificar el enlace químico.

Además, los postulados de Bohr suponían una mezcla un tanto confusa de mecánica clásica y mecánica cuántica...

http://html.rincondelvago.com/modelo-atomico-de-dalton.html

Page 20: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

MODELO CUANTICO

Orbital atómico

Un orbital atómico es una

determinada solución particular, espacial e independiente del tiempo a la ecuación de Schrödinger para

el caso de un electrón sometido a un potencial coulombiano. La elección de tres números cuánticos en

la solución general señala unívocamente a un estado mono electrónico posible.

Estos tres números cuánticos hacen referencia a la energía total del electrón, el momento angular

orbital y la proyección del mismo sobre el eje z del sistema del laboratorio y se denotan por

El nombre de orbital también atiende a la función de onda en representación de posición

independiente del tiempo de un electrón en una molécula. En este caso se utiliza el nombre orbital

molecular.

La combinación de todos los orbitales atómicos dan lugar a la corteza electrónica representado por

el modelo de capas electrónico. Este último se ajusta a los elemento según la configuración

electrónica correspondiente.

Referencia:

( http://es.wikipedia.org/wiki/Orbital_at%C3%B3mico)

Page 21: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

Número cuánticoRepresentación clásica de un átomo en los modelos de Rutherford y Bohr.

Los números cuánticos son unos números que se conservan en los sistemas cuánticos. Corresponden

con aquellos observables que conmutan con él Ha miltoniano del sistema. Así, los números cuánticos

permiten caracterizar los estados estacionarios, es decir los estados propios del sistema.

En física atómica, los números cuánticos son valores numéricos discretos que nos indican las

características de los electrones en los átomos, esto está basado en la teoría atómica de Niels Bohr que

es el modelo atómico más aceptado y utilizado en los últimos tiempos por su simplicidad.

En física de partículas también se emplea el término números cuánticos para designar a los posibles

valores de ciertos observables o magnitud física que poseen un espectro o rango posible de valores

discreto.

Referencia:

http://es.wikipedia.org/wiki/N%C3%BAmero_cu%C3%A1ntico

PRINCIPIO DE EXCLUCÍON DE PAULIPrincipio que establece que dos partículas similares no pueden existir en el mismo estado, es decir, que no pueden tener ambas la misma posición y la misma velocidad, dentro de los límites fijados por el principio de incertidumbre.

Por otra parte, a través del principio de exclusión se puede explicar por qué las partículas materiales no colapsan en un estado de casi extrema densidad, bajo la influencia de las fuerzas producidas por las partículas de espín 1, 1½ y 2 : si las partículas materiales están casi en la misma posición, deben tener entonces velocidades diferentes, lo que significa que no estarán en la misma posición durante mucho tiempo.

GENERALMENTE, ESTE PRINCIPIO ESTABLECE QUE Dos electrones de un mismo átomo no pueden tener sus cuatro números cuánticos respectivamente iguales.

Referencia:

http://www.mitecnologico.com/Main/PrincipioDeExclusionDePauliPRINCIPIO DE MAXIMA MULTIPLICIDAD

Si dos o más electrones de un mismo átomo tienen los mismos valores en sus números cuánticos principales ( n ) y en sus números cuánticos secundarios ( l ) , entonces tendrán iguales valores de spin ( s ) siempre y cuando no se trasgreda el principio de exclusión (de Pauli).

Page 22: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

Para aquellos que no pueden entender tanta palabrería pueden tomarlo así:

El principio del microbús (guagua, micro, bus o algún otro nombre que tenga el transporte colectivo en tu país)

Las personas (electrones) que se suban a un microbús (nº cuántico principal) tienden a sentarse en los asientos desocupados (nº cuántico magnético) de la fila más cercana a la puerta (nº cuántico secundario) antes que sentarse más al final, compartir un asiento (nº cuántico spin = +1/2), o subirse a otro microbús.

Referencia:

http://www.mitecnologico.com/Main/PrincipioMaximaMultiplicidadDeHund

Principio de indeterminación de Heisenberg

En mecánica cuántica el principio de indeterminación de Heisenberg afirma que no se puede determinar, simultáneamente y con precisión arbitraria, ciertos pares de variables físicas, como son, por ejemplo, la posición y el momento lineal (cantidad de movimiento) de un objeto dado. En palabras sencillas, cuanta mayor certeza se busca en determinar la posición de una partícula, menos se conoce su cantidad de movimiento lineal. Este principio fue enunciado por Werner Heisenberg en 1927.

Definición formal

Si se preparan varias copias idénticas de un sistema en un estado determinado las medidas de la posición y el momento variarán de acuerdo con una cierta distribución de probabilidad característica del estado cuántico del sistema. Las medidas del objeto observable sufrirá desviación estándar Δx de la posición y el momento Δp verifican entonces el principio de incertidumbre que se expresa matemáticamente como

Donde h es la constante de Planck (para simplificar, suele escribirse como )

En la física de sistemas clásicos esta incertidumbre de la posición-momento no se manifiesta puesto que se aplica a estados cuánticos y h es extremadamente pequeño. Una de las formas alternativas del principio de incertidumbre más conocida es la incertidumbre tiempo-energía que puede escribirse como:

Esta forma es la que se utiliza en mecánica cuántica para explorar las consecuencias de la formación de partícula virtual partículas virtuales, utilizadas para estudiar los estados intermedios de una interacción. Esta forma del principio de incertidumbre es también la utilizada para estudiar el concepto de energía del vacío.

Page 23: 4.1 Determina la energía eléctrica producida en los materiales a partir del análisis de la interacción

Explicación cualitativa

Podemos entender mejor este principio si pensamos en lo que sería la medida de la posición y velocidad de un electrón: para realizar la medida (para poder "ver" de algún modo el electrón) es necesario que un fotón de luz choque con el electrón, con lo cual está modificando su posición y velocidad; es decir, por el mismo hecho de realizar la medida, el experimentador modifica los datos de algún modo, introduciendo un error que es imposible de reducir a cero, por muy perfectos que sean nuestros instrumentos.

No obstante hay que recordar que el principio de incertidumbre es inherente al universo, no al experimento ni a la sensibilidad del instrumento de medida. Surge como necesidad al desarrollar la teoría cuántica y se corrobora experimentalmente. No perdamos de vista que lo dicho en el párrafo anterior es un símil pero no se puede tomar como explicación del principio de incertidumbre.

Consecuencias del principio

Este Principio supone un cambio básico en nuestra forma de estudiar la Naturaleza, ya que se pasa de un conocimiento teóricamente exacto (o al menos, que en teoría podría llegar a ser exacto con el tiempo) a un conocimiento basado sólo en probabilidades y en la imposibilidad teórica de superar nunca un cierto nivel de error.

El principio de indeterminación es un resultado teórico entre magnitudes conjugadas (posición - momento, energía-tiempo, etcétera). Un error muy común es decir que el principio de incertidumbre impide conocer con infinita precisión la posición de una partícula o su cantidad de movimiento. Esto es falso. El principio de incertidumbre nos dice que no podemos medir simultáneamente y con infinita precisión un par de magnitudes conjugadas.

Es decir, nada impide que midamos con precisión infinita la posición de una partícula, pero al hacerlo tenemos infinita incertidumbre sobre su momento. Por ejemplo, podemos hacer un montaje como el del experimento de Young y justo a la salida de las rendijas colocamos una pantalla fosforescente de modo que al impactar la partícula se marca su posición con un puntito. Esto se puede hacer, pero hemos perdido toda la información relativa a la velocidad de dicha partícula.

Por otra parte, las partículas en física cuántica no siguen trayectorias bien definidas. No es posible conocer el valor de las magnitudes físicas que describen a la partícula antes de ser medidas. Por lo tanto es falso asignarle una trayectoria a una partícula. Todo lo más que podemos es decir que hay una determinada probabilidad de que la partícula se encuentre en una posición más o menos determinada.

Incertidumbre

Los términos "indeterminación" e "incertidumbre" son equivalentes en este contexto, podemos referirnos al "principio de indeterminación de Heisenberg" o "principio de incertidumbre de Heisenberg" indistintamente.