apuntes señales y sistemas (uab)
DESCRIPTION
Apuntes Señales y Sistemas (UAB)TRANSCRIPT
Fundamentos de Senales y Sistemas
Notas de Clase
Antoni Morell y Rosana Rodrıguez
Universitat Autonoma de Barcelona (UAB)Escola d’Enginyeria
Indice general
1. Introduccion a Senales y Sistemas 1
2. La Transformada de Laplace 18
3. Funcion de Transferencia de un Sistema 41
4. La Transformada de Fourier 57
5. Correlacion y Espectro de Senales Deterministas 85
ii
Tema 1: Introduccion a Senales y Sistemas
Antoni Morell y Rosana Rodrıguez
24 de febrero de 2014
1. Senales
Definicion de senal: Imagen o representacion de algo. Para nosotros sera casi siempre la repre-
sentacion de una magnitud fısica (tension, voltaje, etc.) y normalmente llevara un mensaje asociado
(entendiendo mensaje como la manifestacion fısica de la informacion tal y como la produce la fuente).
En un sistema de comunicaciones esto esta claro.
1.1. Clasificacion de senales
Encontramos diferentes clasificaciones. Las mas relevantes son:
Determinista/aleatoria
Determinista: conocida para ∀t. P. ej.: x(t) = A cos(w0t).
Aleatoria: No es posible determinar su valor para un instante t = t0. No obstante, sı sabemos algo
sobre dicho valor, aunque se trata de un conocimiento probabilıstico. P. ej.:A cos(w0t+φ), φ[0, π4 ].
En la figura vemos una realizacion de la senal para φ = 0 (trazo continuo) y otra para φ = π4
(trazo discontinuo). Nuestra senal puede ser cualquiera de entre estas dos con igual probabilidad,
pero nunca con otro desfase φ ∈ (π4 , 2π).
0 2 4 6 8 10 12 14 16 18 20−A
0
A
Figura 1: Ejemplo de senal aleatoria.
1
Periodica/No periodica
Periodica: x(t) = x(t+mT0) para m = 0,±1,±2, . . .. T0 es el menor periodo de repeticion posible.
P.ej., en la figura anterior T0 = 2π y no 4π aunque este ultimo tambien cumpla la condicion.
No periodica: no se repite periodicamente.
Contınua/Discreta
Contınua: definida para ∀t.
Discreta: definida solo para los instantes de tiempo nT con n entero. Ej.: el ındice de la bolsa.
Analogica/Digital
Analogica: la amplitud de la senal puede tomar cualquier valor. P. ej.: musica grabada en un
disco LP.
Digital: la amplitud de la senal no puede ser cualquiera sino un valor dentro de un conjunto de
valores posibles. Por lo tanto, conocemos algo de la estructura de la senal antes de recibirla. P.
ej.: musica grabada en un disco CD.
1.2. Transformaciones de la variable independiente
Partiendo de una senal x(t) conocida, vemos como se modifica esta cuando se aplica alguna trans-
formacion sobre la variable independiente t. Las mas habituales son:
Reflexion: x(−t). La senal sufre un giro respecto al eje de ordenadas. En una cinta de vıdeo,
serıa reproducirla camara atras.
t t
x(−t)x(t)
Escalado: x(at). Siempre con a > 0, la senal se contrae respecto al eje de ordenadas en un factor a
si se cumple a > 1 y se expande por un factor b > 1 si a = 1b . En el primer caso, reproducirıamos
a veces mas rapido y en el segundo b veces mas lento.
t tt
x(2t)x( t2 )x(t)
Traslacion: x(t− t0) o bien x(t+ t0). En el primer caso, la senal se retasa t0 segundos mientras
que en el segundo se adelanta t0 segundos.
2
t
x(t)
t t
x(t− 1) x(t+ 1)
1 -1
Muy importante. A menudo nos encontraremos con una combinacion de transformaciones, como
por ejemplo en x(− t2 − 2). Para no equivocarse, es aconsejable seguir siempre los siguientes pasos:
Expresar la transformacion como x(k(t− t0)). En el caso de ejemplo serıa x(−12 (t+ 4)).
Hacer primero reflexion y escalado. En el ejemplo, girar y ensanchar por un factor 2.
t
x(t)
t
x(−t2 )
Finalmente, hacer la traslacion. En el ejemplo, avanzar la senal 4 unidades.
t
x(−t2 )
t
x(−t2 )
-4
Si queremos asegurarnos que la transformacion es correcta, cogemos 2 puntos faciles de reconocer
y los comprobamos. Por ejemplo, en el caso anterior, sustituimos t = −4 en x(− t2 − 2), lo que nos da
x(0). Es decir, el valor correspondiente al punto t = −4 en la senal transformada tiene que coincidir
con el valor en el origen de la senal sin transformar. En este caso es cierto, pero faltarıa mirar otro
punto para estar del todo seguros.
Relacionado con esto, vemos la definicion de la senal par e impar:
Senal par: si cumple x(t) = x(−t).
Senal impar: si cumple x(t) = −x(−t).
Toda senal se puede descomponer en parte par e impar de tal forma que x(t) = parx(t) +
imparx(t). Parte par e impar se hallan segun:
3
parx(t) =1
2(x(t) + x(−t)) (1)
imparx(t) =1
2(x(t)− x(−t)) (2)
Ejemplo:
t
1 2-1-2
t
1 2-1-2
t
1 2-1
x(t) parx(t) imparx(t)
1.3. Senales continuas basicas
Tenemos:
Funcion exponencial: x(t) = Ceat
En el caso que tanto a como C sean reales, tenemos:
Ca>0
a<0
Si ambos son complejos, es decir C = |C|ejθ y a = r + jw0, entonces x(t) = |C|ertej(w0t+θ) =
|C|ert[cos(w0t + θ) + j sin(w0t + θ)]. Se trata pues, de una senal compleja. Para representarla
graficamente, debemos dibujar parte real e imaginaria por separado (en funcion de t) o bien
modulo y fase. A continuacion vemos solo una parte de la senal, Rex(t) = |C|ert[cos(w0t+ θ)]:
r>0 r=0 r<0
Pulso rectangular: x(t) = Π(tT
)=
1 |t| < T
2
0 resto
4
Π(
tT
)
−T2
1
T2
Pulso triangular: x(t) = ∆(tT
)=
1− |t|T |t| < T
0 resto
1
T-T
∆( tT )
Funcion signo: sgn(t) =
1 t > 0
−1 t < 0
1
sgn(t)
Funcion escalon: u(t) =
1 t > 0
0 t < 0
= 1
2(1 + sgn(t))
1
u(t)
5
Funcion sinc: sinc(t) = sinπtπt
−6 −4 −2 0 2 4 6−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Importante recordar: sinc(0) = 1 y sinc(Tt) = 0 para los multiplos de 1/T , es decir,
t = ±k/T con k ∈ N+.
Funcion delta: δ(t) =
0 t 6= 0
∞ t = 0
Podemos entender la funcion delta (de Dirac), que no es propiamente un funcion ya que δ(0)
tiene varias imagenes, como la caracterizacion matematica de un impulso. Por ejemplo, esto es
lo que sucede cuando se de un golpe con un martillo: se produce una fuerza elevada durante
un intervalo de tiempo muy pequeno. Bajo ese punto de vista, lo que realmente nos interesa es
la suma (integral) de dicha fuerza y de ahı sale la definicion formal de la funcion delta. En la
siguiente figura vemos un impulso de duracion 1/A y amplitud A, que por tanto tiene area 1. Si
reducimos progresivamente su duracion y aumentamos la amplitud con el objetivo de mantener
el area a la unidad, obtendremos la funcion delta.
1/A
A
A −→ ∞
Dicha interpretacion justifica la definicion formal de la delta, que toma forma integral. Pero
mas que la propia definicion, consideraremos una propiedad que se deriva de ella y que es∫∞−∞ δ(t)dt = 1. Hay que interpretarla como que la integral de una delta valdra 1 siempre y
cuando la delta este dentro de los lımites de integracion.
1.3.1. Propiedades de δ(t)
Son las siguientes:
1. δ(at) = 1|a|δ(t). Intuitivamente, esta claro que ensanchar o estrechar la delta no tiene ningun
efecto ya que esta tiene“ancho 0” y seguira con el mismo ancho despues de cualquier escalado.
Si hacemos la integral de δ(at) (hacer cambio de variable para ponerla en funcion de la integral
de δ(t)) veremos que se debe cumplir esta propiedad para conseguir que∫∞−∞ δ(t)dt = 1.
6
2. δ(t) = δ(−t). Se trata, por tanto, de una funcion par.
3. x(t)(δt) = x(0)δ(t). Si una funcion se multiplica por δ(t), solo nos importa el valor de la funcion
en el origen ya que el resto vale 0. Lo mismo sucede si desplazamos la delta, es decir: x(t)δ(t−t0) =
x(t0)δ(t− t0).
4. x(t) =∫∞−∞ x(τ)δ(τ− t)dτ . Multiplicamos primero x(τ) por una delta centrada en t e integramos
para todo τ , o sea∫∞−∞ x(t)δ(τ − t)dτ . Como la integral de la delta debe ser 1 y x(t) no depende
de τ , el resultado final es x(t).
De la misma manera, x(t) =∫∞−∞ x(τ)δ(t−τ)dτ . Solo hay que fijarse que δ(t−τ) (τ es la variable
independiente) se puede expresar como δ(−1(τ − t)). Segun hemos visto, esto es girar la delta
y desplazarla t unidades a la derecha. Dado que la delta es par, δ(t − τ) = δ(τ − t), y por lo
tanto estamos en la misma situacion que antes. Tambien podemos interpretar la integral como
una suma infinita de deltas, algo como “x(t) =∑∞
k=−∞ xkδ(t − tk)” (ver figura). En el lımite,
cuando la distancia entre dos deltas sea 0, tendrıamos la senal x(t).
t
t0
t1 t2t−1
x1x2
5. u(t) =∫ t−∞ δ(τ)dτ =
∫∞0 δ(τ − t)dτ .
6. δ(τ) = du(t)dt . La funcion escalon es plana para todo t (derivada 0) excepto para t = 0, donde hay
un salto abrupto de 0 a 1 con pendiente ∞. Esto se corresponde con la funcion δ(t).
7
2. Sistemas
Un sistema es una combinacion de objetos o componentes que actuan conjuntamente para cumplir
un determinado objetivo. Existen sistemas de distinta naturaleza: mecanicos, fısicos, biologicos, socia-
les, polıticos, etc. Por ejemplo, los frenos de un coche constituyen un sistema mecanico cuyo objetivo
es detener el vehıculo.
Un sistema puede ser, a su vez, subsistema de otro mayor, ası como los frenos son un subsistema
del sistema coche. A nosotros nos interesara modelar matematicamente el sistema y desde este punto
de vista, lo veremos como el proceso que transforma la senal de entrada para obtener una senal de
salida, o lo que es lo mismo: y(t) = T [x(t)].
Sistema T[ ]
x(t) y(t)
2.1. Propiedades de los sistemas
2.1.1. Linealidad
Un sistema es lineal si cumple las propiedades de superposicion y homogeneidad :
Superposicion: supongamos que y1(t) es la salida del sistema cuando la entrada es x1(t), es
decir, y1(t) = T [x1(t)]. Del mismo modo, y2(t) = T [x2(t)]. Entonces, en el caso que exista
superposicion, la salida del sistema a la suma de entradas, x1(t) + x2(t), es tambien la suma de
salidas y1(t) + y2(t). En otras palabras: T [x1(t) + x2(t)] = y1(t) + y2(t).
Homogeneidad: cuando un escalado a la entrada se traduce en el mismo escalado a la salida. Es
decir, si y1(t) = T [x1(t)], entonces T [αx1(t)] = αy1(t).
Ambas propiedades se puede resumir diciendo que un sistema es lineal si y solo si:
T [α1x1(t) + α2x2(t)] = α1y1(t) + α2y2(t) (3)
Ejemplos:
1. Un derivador, T [ ] = d ( )dt , es un sistema lineal.
Comprobacion:
T [α1x1(t) + α2x2(t)] =d
dt(α1x1(t) + α2x2(t)) = α1
dx1(t)
dt+ α2
dx2(t)
dt= α1y1(t) + α2y2(t)
2. Un sistema que saque el cuadrado de la salida, T [ ] = ( )2, no es lineal.
Comprobacion: (T [x1(t)] = y1(t) = x21(t))
T [α1x1(t) + α2x2(t)] = (α1x1(t) + α2x2(t))2 = α2
1x21(t) + α2
2x22(t) + α1α2x1(t)x2(t)
= α21y1(t) + α2
2y2(t) + α1α2x1(t)x2(t) 6= α1y1(t) + α2y2(t)
8
No cumple ni superposicion ni homogeneidad.
3. El sistema T [ ] = a( ) + b no es lineal.
Comprobacion: (T [x1(t)] = y1(t) = ax1(t) + b)
T [α1x1(t)+α2x2(t)] = α1a x1(t)+α2a x2(t)+b = α1y1(t)+α2y2(t)+(1−α1−α2)b 6= α1y1(t)+α2y2(t)
No cumple superposicion ni homogeneidad.
2.1.2. Invarianza
Un sistema es invariante cuando un retraso en la senal de entrada se traduce en el mismo retraso
en la senal de salida. Es decir, si T [x(t)] = y(t), entonces T [x(t− t0)] = y(t− t0).
Ejemplos:
1. T [ ] = cos( ), es un sistema invariante.
Compobacion: (y(t) = cos(x(t)))
y(t− t0) = cos(x1(t− t0)) = T [x(t− t0)]
2. T [ ] = ( ) cos(w0t), es un sistema variante.
Comprobacion: (T [x(t)] = y(t) = x(t) cos(w0t))
En primer lugar, transformamos x(t−t0): T [x(t−t0)] = x(t−t0) cos(w0t). Vemos que el resultado
depende por un lado de t y por otro de t− t0.
Ahora desplazamos y(t) sustituyendo t por t− t0, es decir, y(t− t0) = x(t− t0) cos (w0(t− t0)).Ahora el resultado solo depende de t− t0. No coinciden y por lo tanto es variante.
2.1.3. Causalidad
Un sistema es causal cuando la salida no se anticipa a la entrada, lo que significa que en un sistema
causal, la salida en un determinado instante no depende de instantes futuros de la entrada. Matemati-
camente, si x(t) = 0 para t < t0, entonces se debe cumplir y(t) = 0 para t < t0.
Ejemplos:
1. y(t) = x(t− 1) es causal ya que produce un retardo.
2. y(t) = x(t+ 1) no es causal ya que la salida se anticipa a la entrada. Por ejemplo, en el instante
t = 0, para obtener la salida y(0) necesitamos conocer x(1), o sea, un valor futuro de la entrada.
9
2.1.4. Estabilidad
Un sistema es estable cuando, para cualquier entrada acotada, la salida tambien lo es, es decir, si
|x(t)| <∞, entonces |y(t)| <∞.
Ejemplo:
Consideremos el sistema integrador T [x(t)] =∫ t−∞ x(τ)dτ . Si x(t) = Π
(t−T/2T
), tenemos:
t tT T
Por lo tanto, la salida es acotada y podrıamos pensar que es estable. No obstante, hay que com-
probarlo para cualquier entrada. Si ahora cogemos x(t) = u(t), tenemos:
t t
Entonces vemos que la salida crece indefinidamente, con lo cual el sistema es inestable.
2.2. Caracterizacion matematica de los sistemas
Ahora buscamos una forma simple y generica de obtener y(t) a partir de x(t) para cualquier
sistema. Usaremos dos caracterizaciones distintas:
A traves de ecuaciones diferenciales:
∑
i
aidxi(t)
dti=∑
j
bjdyj(t)
dtj(4)
Es la que usaremos por ejemplo en circuitos y la respuesta del sistema dependera de las condicio-
nes en que este se encuentre al aplicar la entrada, lo que denominamos condiciones iniciales. Por
ejemplo, la respuesta de un circuito donde haya un condensador no sera la misma si, en aplicar la
entrada, este tiene cierta carga o esta totalmente descargado. Para obtener esta caracterizacion
hace falta conocer el sistema componente a componente y por lo tanto, puede ser compleja si el
sistema es grande.
A traves de la respuesta impulsional, que se define como la salida del sistema a una delta. La
denominamos h(t) = T [δ(t)]. Esta aproximacion toma el sistema como una caja negra y “solo”
necesitamos conocer cual es la salida a una determinada entrada, o sea, hacer un “experimento”
sin necesidad de abrir la caja. A partir de h(t) se puede encontrar la salida a cualquier entrada
segun:
10
y(t) = T [x(t)] = T
[∫ ∞
−∞x(τ)δ(t− τ)dτ
]=
(si el sistema
es lineal
)=
∫ ∞
−∞x(τ)T [δ(t− τ)]dτ (5)
En el mejor de los casos, cuando el sistema es invariante, tendremos T [δ(t − τ)] = h(t − τ), es
decir, simplemente h(t) (que ya conocemos) desplazada. En cambio, si el sistema es variante, la
salida a una delta desplazada dependera de cuanto vale el desplazamiento τ pero tambien de
cual es el instante t en que la delta entra en el sistema. En este ultimo caso, decimos que tenemos
una respuesta impulsional variante en tiempo y escribimos h(t, τ). El sistema es mas difıcil de
caracterizar ya que habrıa que hacer un experimento para cada instante de tiempo t.
De aquı sacamos:
• Sistema variante: y(t) =∫∞−∞ x(τ)h(t, τ)dτ .
• Sistema invariante: y(t) =∫∞−∞ x(τ)h(t − τ)dτ . Esta ecuacion es la ecuacion o integral
de convolucion de sistemas LTI (Linear and Time Invariant), que escribiremos:
y(t) = x(t) ∗ h(t) =
∫ ∞
−∞x(τ)h(t− τ)dτ (6)
Ejemplo 1: Amplificador.
Kx(t) y(t) = Kx(t)
En este caso h(t) = Kδ(t) independientemente de cuando hagamos el experimento. Por tanto, es
invariante.
Ejemplo 2: Retardador.
Tx(t) y(t) = x(t− T )
En este caso h(t) = δ(t−T ), tambien independientemente de cuando hagamos el experimento. Por
tanto, tambien es un sistema invariante.
11
Ejemplo 3: Integrador.
∫ t
−∞ y(t)x(t)
En este caso h(t) =∫ t−∞ δ(τ)dτ = u(t), tambien independientemente de cuando hagamos el expe-
rimento. Por tanto, tambien es un sistema invariante.
Ejemplo 4: Modulador.
x(t) X y(t) = x(t) cosw0t
cosw0t
En este caso, si entramos una delta al sistema tenemos T [δ(t)] = δ(t) cosw0t = δ(t). Esta claro que
esto no caracteriza bien el sistema ya que en realidad no nos devuelve la entrada. Aquı sı que la respues-
ta del sistema depende del momento en que se hace el experimento, ya que el coseno va evolucionando
con el tiempo. En este caso el sistema es variante y tenemos que usar T [δ(t − τ)] = δ(t − τ) cosw0t.
Entonces y(t) =∫∞−∞ x(τ)h(t, τ)dτ =
∫∞−∞ x(τ)δ(t − τ) cosw0tdτ = cosw0t
∫∞−∞ x(τ)δ(t − τ)dτ =
x(t) cosw0t, lo cual es correcto (mirar el siguiente apartado para ver como funciona la integral de
convolucion).
A partir de ahora, nos centraremos en el estudio de sistemas LTI.
3. Sistemas lineales invariantes
3.1. Obtencion semi-grafica de y(t) = x(t) ∗ h(t)
Consideremos el siguiente sistema:
t
x(t)
t
h(t)
y(t)
Para calcular la integral, que es respecto a τ , vemos que necesitamos los terminos x(τ) y h(t− τ).
El primero ya esta claro, y el segundo lo reescribimos como h(−1(τ − t)). O sea, que para encontrar
12
la salida en el instante t debemos primero multiplicar x(τ) con h(τ) girada y desplazada t y luego
integrar para todo τ , tal y como vemos en la siguiente figura para t = 5:
tt=5
x(τ)h(5− τ)
∫∞−∞ x(τ)h(5− τ)
ty(t)
t=5
Ası hemos obtenido y(5). La senal entera se obtiene con este mismo procedimiento barriendo des-
de t = −∞.
Ejemplo 1: calcular la convolucion de x1(t) = Π(t−TB/2TB
)y x2(t) = Π
(t−TA/2TA
)con TA > TB.
En este caso vamos a calcular x2(t) ∗ x1(t) como∫∞−∞ x2(τ)x1(t− τ)dτ , aunque tambien lo podrıamos
haber hecho al reves. Graficamente, queremos hacer:
TATB
t− TB t
x2(τ)x1(t− τ)
τ
En primer lugar, vemos que las senales no se solapan hasta t = 0, con lo que y(t) = 0 para
t < 0. Si seguimos avanzando en t, los dos pulsos se solapan. Entre t = 0 y t = TB el producto
de funciones sera un pulso que va de τ = 0 a τ = t. La integral de convolucion en este intervalo
sera y(t) =∫∞−∞ x2(t)x1(t − τ)dτ =
∫ t0 1dτ = t. Luego, x1(t − τ) se solapa por completo hasta que
t = tA. La integral sera y(t) =∫∞−∞ x1(t − τ)dτ =
∫ tt−TB 1dτ = TB. Finalmente, el pulso x1(t − τ)
sale de x2(τ), desde t = TA hasta t = TA + TB. En este ultimo intervalo, el solape entre pulsos, y
por lo tanto el valor de la integral, es cada vez menor. El producto de funciones es un pulso que va
de τ = t− TB hasta τ = TA. Matematicamente tenemos: y(t) =∫∞−∞ x2(τ)x1(t− τ)dτ =
∫ TAt−TB 1dτ =
TA − t+ TB = (TA + TB)− t. A partir de este punto ya no existe solape y la salida se mantiene a 0.
Si agrupamos los resultados de las distintas partes obtenemos la siguiente salida y(t):
13
TB TA TA + TB
y(t)
De este ejemplo, podemos sacar dos observaciones importantes:
La duracion de la salida es la suma de las duraciones de las senales. Esto es ası en general.
Si TA = TB la salida pasa a ser un triangulo. Por lo tanto, la convolucion de dos pulsos de
duracion T , Π( tT ), da lugar a un triangulo de duracion 2T que expresamos como ∆( tT ).
Ejemplo 2: queremos obtener la senal y(t) que oyen los espectadores de un auditorio cuando los
musicos tocan una melodıa x(t).
Auditoriox(t) y(t)
Supondremos que el auditorio es un sistema LTI, lo cual parece razonable, ya que se espera que
se comporte de la misma manera independientemente del momento en que es usado. El paso siguiente
es ver cual es la respuesta a una delta para obtener la respuesta impulsional del auditorio. Para ello,
generamos un impulso de sonido en el escenario y medimos en el patio de butacas. En particular vemos
que recibimos el mismo impulso generado con un retardo despreciable mas un eco del impulso, que
llega 200ms mas tarde y con un nivel per debajo del primero. Determinamos entonces que la respuesta
impulsional de la sala es:
h(τ)
τ200ms
Si hacemos la convolucion para cualquier x(t) como antes, tenemos:
14
τ
h(t− τ)
t
x(τ)
t
Como h(t) son dos deltas y sabemos que la convolucion cumple la propiedad distributiva, vamos a
convolucionar cada delta por separado y luego sumar. Fijemonos en la delta de mayor nivel. Cuando
se solape con la senal, el producto x(τ)h(t − τ) sera x(t)δ(τ − t), con lo que despues de integrar en
todo τ , nos quedamos con x(t). Comprobamos, pues, la propiedad x(t) ∗ δ(t) = x(t). Para la segunda
delta tendremos mas o menos lo mismo, pero con un retardo adicional y una reduccion de nivel. A
continuacion vemos la senal de salida como suma de las dos convoluciones:
convolución delta
sin retardoconvolución delta
del eco
convolución
entera
y(t)
t
Ası pues, comprobamos que el operador convolucion da como resultado lo que esperarıamos de
este sistema. Podemos usar este ejemplo para interpretar la convolucion segun (5) como sigue: si
descomponemos h(τ) como una suma (quiza infinita) de deltas con su valor correspondiente, entonces
la salida del sistema sera la suma de replicas (quiza infinitas) de x(t) adecuadamente escaladas y
retardadas.
3.2. Propiedades de la convolucion
Son las siguientes:
1. Conmuntativa: x(t) ∗ h(t) = h(t) ∗ x(t) −→∫∞−∞ x(τ)h(t− τ)dτ =
∫∞−∞ h(τ)x(t− τ)dτ
En el ejemplo 1 anterior, podemos comprobar que si giramos y desplazamos x(τ) en vez de h(τ)
para obtener y(5), el area resultante es exactamente la misma.
2. Asociativa: x(t) ∗ (y(t) ∗ z(t)) = (x(t) ∗ y(t)) ∗ z(t) = x(t) ∗ y(t) ∗ z(t)En sistemas en cascada, no importa el orden en que se encuentren. Los siguientes sistemas son
todos equivalentes:
15
h1(t) h2(t)x(t) y(t)
h1(t)h2(t)x(t) y(t)
y(t)x(t)
y(t)x(t)
h1(t) ∗ h2(t)
h2(t) ∗ h1(t)
3. Distributiva: x(t) ∗ (h1(t) + h2(t)) = (x(t) ∗ h1(t)) + (x(t) ∗ h2(t))Esto equivale a decir que dos sistemas en paralelo equivalen a uno cuya respuesta impulsional
es suma de la respuestas.
y(t)x(t)
h1(t)
h2(t)
x(t) y(t) h1(t) + h2(t)
4. Identidad con δ(t): x(t) ∗ δ(t) = x(t), δ(t) ∗ δ(t) = δ(t)
Ejemplo: Calcular la respuesta impulsional del siguiente sistema:
T
∫ t
−∞+x(t) y(t)+
-
h1(t)
h2(t)
h3(t)
Simplemente hay que expresar h(t) en funcion de las respuestas de los subsistemas individuales,
es decir, h(t) = (h1(t)− h2(t)) ∗ h3(t) = (δ(t)− δ(t− T )) ∗ u(t) = u(t)− u(t− T ) = Π(t−T/2T
).
3.3. Propiedades de los sistemas LTI a partir de h(t)
Conociendo h(t) es posible determinar si un sistema LTI es causal y/o estable de la siguiente forma:
Causalidad: el sistema sera causal si h(t) = 0 para t < 0.
Recordemos la definicion de un sistema causal, es decir, si x(t) = 0 para t < t0 entonces
y(t) = 0 para t < t0. Calculemos ahora la salida del sistema como y(t) =∫∞−∞ x(τ)h(t − τ)dτ .
16
Si la respuesta impulsional debe ser 0 para t < 0, entonces h(t − τ) = 0 para t − τ < 0, o lo
que es lo mismo, para τ > t. En la integral de convolucion, esto se traduce en que solo hace
falta integrar hasta t, ya que h(t − τ) es 0 para valores mayores. Por lo tanto, en este caso,
y(t) =∫ t−∞ x(τ)h(t− τ)dτ . En la integral solo intervienen valores de x(τ) anteriores a t y por lo
tanto, se comprueba que el sistema es causal.
Estabilidad: se requiere que∫∞−∞ |h(τ)|dτ <∞.
Miremos si ante estas condiciones y para una entrada acotada |x(t)| < B, la salida se mantiene
acotada:
|y(t)| =
∣∣∣∣∫ ∞
−∞x(t− τ)h(τ)dτ
∣∣∣∣ ≤∫ ∞
−∞|x(t− τ)h(τ)|dτ
≤∫ ∞
−∞|x(t− τ)||h(τ)|dτ ≤ B
∫ ∞
−∞|h(τ)|dτ ≤ ∞ (7)
Notese que en la primera desigualdad se interpreta la integral como una suma y luego se hace uso
de la desigualdad triangular, que dice que dados dos complejos a y b, entonces |a+ b| ≤ |a|+ |b|.En la segunda desigualdad se tiene en cuenta tambien que para dos complejos a y b, se cumple
|a · b| = |a| · |b|.
17
Tema 2: La Transformada de Laplace
Antoni Morell y Rosana Rodrıguez
3 de marzo de 2014
1. La transformada de Laplace. Definicion y propiedades.
Antes de empezar con la definicion formal de la transformada, comencemos viendo cual es su
utilidad. Desde ese punto de vista, la transformada de Laplace es una operacion o transformacion
matematica muy util para la resolucion de ecuaciones diferenciales ordinarias (en particular, las lineales
y de coeficientes constantes). Pero... ¿que es una ecuacion diferencial? Es una ecuacion donde aparecen
funciones de una o varias variables y tambien sus derivadas. Si nos centramos en las ecuaciones
diferenciales ordinarias de orden n con coeficientes reales, estas tomaran la siguiente forma:
dn
dtny(t) + a
n1dn1
dtn1y(t) + . . .+ a1
d
dty(t) + a0 y(t) = f(t) (1)
donde ai
son los coeficientes constantes, y(t) es la variable dependiente y f(t) se conoce como funcion
excitadora.
Consideremos un ejemplo practico. Supongamos que, en el circuito de la Figura 1, se quiere ver
cual es la tension del condensador en todo momento vc
(t).
+
+ -
+
-
R
vC(t)V C
i(t)
Figura 1: Circuito RC.
Aplicando la ley de Kircho↵ de tensiones, vemos que:
V = R i(t) + vC
(t) (2)
donde ya se ha considerado que la tensıon en la resistencia vale vR
(t) = R i(t). Finalmente, si tenemos
en cuenta la ley tension-corriente del condensador, es decir, iC
(t) = C d
dt
vC
(t), llegamos a la ecuacion
V = RCd
dtvC
(t) + vC
(t) (3)
18
Comprobamos que se trata de una ecuacion en la que intervienen tanto la funcion incognita vC
(t)
como su derivada. Pues bien, la transformada de Laplace es una herramienta que, entre otras cosas,
nos permitira resolver ecuaciones diferenciales de forma sencilla.
¿Como es eso posible? Como veremos, gracias a la transformada de Laplace podremos pasar de una
ecuacion diferencial en el dominio del tiempo a una ecuacion algebraica en el dominio s o dominio
transformado (se llama dominio s porque esta es la variable que usaremos en el otro dominio al igual
que en tiempo usamos la variable t y que, dicho sea de paso, se trata de una variable compleja que
descompondremos segun s = + j!). Trabajar con la ecuacion algebraica va a ser en general mucho
mas sencillo que hacerlo con la ecuacion en el dominio temporal (hemos resuelto muchas veces este tipo
de ecuaciones) y una vez encontrada la solucion en el dominio s, la clave sera poder antitransformar
para volver al dominio temporal que es el que nos interesa.
1.1. Definicion de la Transformada de Laplace Unilateral
La trasformada de Laplace unilateral de una funcion temporal f(t) es una funcion de variable
compleja s que se define segun
F (s) = Lf(t) =
Z 1
0f(t) estdt (4)
donde f(t) es una funcion que depende del tiempo t y que esta definida para t > 0 (supondremos
siempre que f(t) = 0 para t < 0), F (s) es la version transformada en el dominio s de f(t) y L es el
sımbolo que distingue al operador de Laplace, lo cual indica que lo que haya dentro de dicho operador
sera transformado. Cuando tratamos con la transformada unilateral de Laplace (veanse los lımites de
integracion, que tienen en cuenta solo el lado positivo del eje real) nos importan los valores que toma
la funcion para t > 0. A menudo trataremos con funciones f(t) definidas para todo t pero a la luz de
la transformada unilateral de Laplace, estamos suponiendo que multiplicamos implıcitamente dicha
funcion por u(t) (esto serıa lo mas correcto aunque no siempre lo explicitemos).
Veamos a continuacion algunos ejemplos:
f(t) = 1. Como hemos comentado, en la transformada unilateral de Laplace consideraremos
indistintamente f(t) = 1 y f(t) = u(t) puesto que para t 0 son “la misma” funcion, aunque lo
correcto es siempre anadir el termino u(t). En el caso que estamos tratando tenemos:
F (s) =
Z 1
01 estdt = 1
s
1
0
=1
s(5)
f(t) = t (o bien f(t) = t u(t)). En este caso calculamos la transformada de Laplace como:
F (s) =
Z 1
0t estdt =
integracion
por partes
!= t est
s
1
0
+
Z 1
0
est
sdt = 1
s2est
1
0
=1
s2(6)
f(t) = et. Este caso es algo mas especial que los anteriores ya que dependiendo del valor
que tome s existe o no transformada. Notese que cuando Res > , entonces la exponencial
19
etest = e(s)t tiene parte real negativa o, lo que es lo mismo, el complejo resultante tiene
un modulo que decae exponencialmente con el tiempo. En esta situacion la integral converge y
podemos calcular su transformada de Laplace como
Z 1
0etestdt =
Z 1
0e(s)tdt =
Z 1
0e(s)tdt =
1
s e(s)t
1
0
=1
s (7)
Ası pues, asociada a la transformada de Laplace esta la region de convergencia o ROC, que
nos dice para que valores de s existe transformada. El concepto de ROC es muy importante
aunque no lo veamos de forma explıcita a la largo de esta asignatura per el hecho de tratar con
la transformada unilateral de Laplace, pero para mostrar su importancia diremos que, en caso
de considerar la transformada bilateral, entonces una misma transformada puede corresponder a
dos senales temporales distintas y solo la ROC nos delimitara cual es la buena. La transformada
bilateral se puede ver como una extension de la unilateral en la que los lımites de integracion
van de 1 a +1 y por lo tanto, elimina la condicion f(t) = 0 para t < 0. A nivel de sistema, la
transformada unilateral tiene sentido ya que todos los sistemas implementables seran causales y
por lo tanto su respuesta impulsional estara definida unicamente para t 0. Volviendo al ejemplo
anterior y considerando ahora la transformada bilateral, la funcion transformada F (s) = 1s
tendrıa como transformada:
• f(t) = etu(t) si la ROC fuese Res >
• f(t) = etu(t) si la ROC fuese Res <
Por lo tanto, vemos en este ejemplo que la ROC para un sistema causal es siempre el semiplano
a la derecha de un cierto umbral como indica la siguiente figura:
j!
sistema anti-causal
sistema causal
1.2. Existencia de la Transformada de Laplace
Con el objetivo de determinar la existencia de la Transformada de Laplace debemos asegurarnos
basicamente que la integral de la definicion exista y resulte en algo finito. Ası pues, podemos decir
que:
1. Si una funcion no es integrable, entonces seguro que no tiene transformada.
2. Si una funcion es integrable pero su integral no converge (se va a infinto), entonces tampoco
puede tener transformada.
20
Si consideramos una funcion f(t) definida en [0,1) y ademas continua a trozos, conseguimos so-
lucionar el primer problema, pues sera integrable aunque no necesariamente va a converger (es decir,
podremos hacer la suma pero esta puede ser infinita). Para solucionar tambien el segundo problema
requeriremos que ademas la funcion sea de orden exponencial.
Una funcion es de orden exponencial si en valor absoluto esta acotada por una exponencial del tipo
Mect con M, c 2 R, es decir|f(t)| Mect (8)
como muestra la figura. En este caso, podemos asegurar que la integral converge para todo s con
t
Mect
M
|f(t)|
Res > c ya que el producto Mectest sera una exponencial con modulo decreciente en el tiempo.
Notese que si este producto es decreciente, aun con mas razon lo sera el producto f(t)est.
Teorema de exixtencia de la Transformada de Laplace
Dada f(t) para 0 t <1, si se cumple: i) f(t) es continua a trozos y ii) f(t) es de orden exponencial,
entonces su transformada de Laplace F (s) existe para Res > c.
Nota: Las condiciones son suficientes pero no necesarias, con lo que una funcion f(t) no contınua a
trozos y que no sea de orden exponencial puede tener tambien (o no) transformada de Laplace.
Comprobacion
lımA!1
Z
A
0f(t)estdt
lımA!1
ZA
0
f(t)est
dt = lımA!1
ZA
0|f(t)|
est
dt (9)
M lımA!1
ZA
0e(c)tdt =
M
c(si > c)
Aquı vemos claramente que la transformacion (de Laplace) resulta en algo finito bajo las condiciones
expuestas.
1.3. Propiedades de la Transformada de Laplace
Son las siguientes:
21
1. Correspondencia biunıvoca: f(t) ! F (s).
Nota: En la transformada de Laplace bilateral es necesario tambien definir la ROC correspon-
diente. En la unilateral (la que usaremos nosotros) no hace falta.
2. Linealidad: Lc1f1(t) + c2f2(t) = c1Lf1(t)+ c2Lf2(t)
Comprobacion: a traves de la linealidad del operador integracionZ 1
0[c1f1(t) + c2f2(t)]e
stdt = c1
Z 1
0f1(t)e
stdt+ c2
Z 1
0f2(t)e
stdt (10)
= c1 Lf1(t)+ c2 Lf2(t)
Ejemplo de aplicacion: encontrar las transformadas del seno y del coseno. Si consideramos f(t) =
cos(!t) y g(t) = sin(!t) y aplicamos la formula de Euler, vemos que ej!t = f(t) + jg(t). Desde
el punto de vista transformado y aplicando la propiedad de linealidad tenemos:
Lej!t = Lf(t)+ jLg(t) = F (s) + jG(s) (11)
Por suerte, ya sabemos calcular la transformada de ej!t, que vale Lej!t = 1sj!
= s+j!
s
2+!
2 .
Ahora ya simplemente identificando partes llegamos a la conclusion deseada, es decir
F (s) = Lcos(!t) =s
s2 + !2(12)
G(s) = Lsin(!t) =!
s2 + !2(13)
3. Derivacion: Lf 0(t) = Ldf(t)dt
= sF (s) f(0).
Comprobacion:
Z 1
0f 0(t)estdt =
u = est f 0(t)dt = dv
du = sestdt f(t) = v
!(14)
= estf(t)
1
0
+ s
Z 1
0f(t)estdt = f(0) + sF (s) (15)
Generalizacion:
Esta propiedad se puede generalizar siempre que la derivada n-esima tenga transformada de
Laplace, que se relacionara con F (s) segun
Ldnf(t)
dtn = snF (s) sn1f(0) sn2f 0(0) sn3f 00(0) . . . sf (n2)(0) f (n1)(0) (16)
Ejemplo de aplicacion:
Gracias a la propiedad de derivacion obtenemos una de las aplicaciones mas importantes de
la transformada de Laplace, pues es lo que nos permite transformar una ecuacion diferencial
ordinaria en algebraica. Por ejemplo, supongamos un sistema cuya respuesta y(t) evoluciona a
lo largo del tiempo segun la ecuacion
y00(t) + 4y0(t) + 3y(t) = t (17)
22
con condiciones iniciales y(0) = 2 y y0(0) = 3. Notese que, al fin y al cabo, una ecuacion
diferencial nos da informacion sobre variaciones del sistema pero en ningun caso nos da una
medida absoluta de su estado. Por eso son necesarias las condiciones iniciales si se pretende dar
una caracterizacion completa del sistema.
Usando la propiedad de derivacion, vemos que
Ly(t) = Y (s)
Ly0(t) = sY (s) 2
Ly00(t) = s2Y (s) sy(0) y0(0) = s2Y (s) sy(0) y0(0)
Ademas, sabemos que Lt = 1s
2 , por lo que sustituyendo terminos, la ecuacion temporal se
transforma en
s2Y (s) 2s+ 3 + 4sY (s) 8 + 3Y (s) =1
s2(18)
que es una ecuacion algebraica. Ahora es posible aislar Y (s), con lo que llegamos a la solucion
Y (s) =1 + s2(2s+ 5)
(s2 + 4s+ 3)s2(19)
y unicamente nos faltarıa anti-transformar para encontrar y(t), que es lo que realmente nos
interesa.
4. Integracion: LRt
0 f()d = F (s)s
Comprobacion:
Para verificar esta propiedad, emplearemos el primer teorema fundamental del calculo, que nos
diced
dx
Zb(x)
a(x)f(t)dt = f(b(x))b0(x) f(a(x))a0(x) (20)
Aplicado a nuestro caso tenemos
g(t) =
Zt
0f(u)du ! d
dtg(t) = f(t) (21)
Ahora, aplicando la anterior propiedad de derivacion obtenemos
F (s) = Lg0(t) = sLg(t) g(0) = sLZ
t
0f(u)du
(22)
ya que g(0) =R 00 f(u)du = 0. Ası pues concluimos que
LZ
t
0f(u)du
=
F (s)
s(23)
5. Multiplicacion por t: Lt f(t) = d
ds
F (s)
Comprobacion:
23
d
dsF (s) =
d
ds
Z 1
0estf(t)dt =
Z 1
0
d
dsestf(t)dt =
Z 1
0t estf(t)dt = Lt f(t) (24)
Generalizacion:
Ltn f(t) = (1)n dn
dsnF (s) (25)
6. Division por t: Lf(t)t
=R +1s
F (u)du
Comprobacion:
Partiendo de la definicion de F (s) =R10 f(t)estdt, vemos que
Z 1
s
F (u)du =
Z 1
s
Z 1
0f(t)eutdt du =
cambio del orden
de integracion
!(26)
=
Z 1
0f(t)
Z 1
s
eutdu
dt =
Z 1
0f(t)
est
tdt = L
f(t)
t
7. Multiplicacion por e↵t: Le↵tf(t)
= F (s ↵)
Comprobacion:
Le↵tf(t) =
Z 1
0e↵tf(t) estdt =
Z 1
0f(t) e(s↵)tdt = F (s ↵) (27)
Analogamente, podemos afirmar que Le↵tf(t)
= F (s+ ↵).
Pongamos un ejemplo: si sabemos que Lcos(!t) = s
s
2+!
2 , entonces
Le↵t cos(!t) =s+ ↵
(s+ ↵)2 + !2(28)
8. Traslacion en el tiempo: si F (s) = Lf(t) y desplazamos f(t) un cierto tiempo a obteniendo
ası f(t) =
(f(t a) t a
0 t < a(ver figura), entonces Lf(t) = easF (s).
Comprobacion:
Lf(t) =
Z 1
0estf(t)dt =
Z 1
a
estf(t a)dt =
t a = u
dt = du
!(29)
=
Z 1
0esuesaf(u)du = easF (s)
Ejemplo de aplicacion: encontrar la transformada de Laplace del pulso rectangular f(t) =
tt0/2
t0
.
24
ta
f(t)
f(t)
Sabemos que podemos expresar el pulso rectangular como: tt0/2
t0
= u(t)u(tt0). Teniendo
esto en cuenta y conociendo la transformada del pulso unitario Lu(t) = 1s
, encontramos
L
t t0/2
t0
= Lu(t) Lu(t t0) =
1
s est0
s=
1 est0
s(30)
9. Cambio de escala: Lf(at) = 1a
Fs
a
Comprobacion:
Z 1
0estf(at)dt =
t =
a
dt = d
a
!=
Z 1
0es
a f()
d
a=
1
a
Z 1
0es
a f()d =
1
aFsa
(31)
10. Funciones periodicas: si f(t) es una funcion periodica, es decir, f(t+rt) = f(t), r 2 N+, entonces
podemos encontrar su transformada de Laplace como
Lf(t) =
RT
0 estf(t)dt
1 esT
(32)
Comprobacion:
F (s) = Lf(t) =
Z 1
0estf(t)dt =
ZT
0estf(t)dt+
Z 1
T
estf(t)dt (33)
Hacemos el cambio de variable t = T + u en la segunda de las integrales y nos queda
F (s) =
ZT
0estf(t)dt+
Z 1
0es(T+u)f(T + u)du =
f(u) = f(T + u)
por ser periodica
!(34)
=
ZT
0estf(t)dt+ esT
Z 1
0esuf(u)du =
ZT
0estf(t)dt+ esTF (s)
Finalmente, aislando F (s) llegamos al resultado deseado.
25
11. Teorema del valor inicial: nos permite encontrar f(t) para t! 0 a partir de F (s) sin necesidad
de calcular la transformada inversa para obtener f(t) y luego calcular el lımite correspondiente.
Gracias al teorema del valor inicial podremos, por ejemplo, verificar las condiciones iniciales del
sistema.
Sean f(t) y df(t)dt
transformables, entonces lımt!0 f(t) = lım
s!1 s F (s).
Comprobacion:
Empezamos usando la propiedad de derivacion para establecer la siguiente relacionZ 1
0
d f(t)
dtestdt = s F (s) f(0) (35)
y tomamos el lımite s !1 en la parte izquierda de la igualdad, lo que resulta en
lıms!1
Z 1
0
d f(t)
dtestdt =
Z 1
0
d f(t)
dtlıms!1
estdt =
Z 1
0
d f(t)
dt0 dt = 0 (36)
Por lo tanto, teniendo en cuenta la relacion inicial llegamos a
lıms!1
Z 1
0
d f(t)
dtestdt = lım
s!1s F (s) f(0) = 0 (37)
Finalmente, identificando f(0) = lımt!0 f(t) llegamos al resultado deseado.
Ejemplo de aplicacion: Nos dan la funcion I1(s) =2s+5
(s+1)(s+2) en el domino transformado y nos
piden i1(0).
Aplicando el teorema del valor inicial, podemos encontrarlo sin necesidad de anti-transformar
haciendo
i1(0) = lıms!1
2s2 + 5s
s2 + 3s+ 2= 2 (38)
Si hubieramos anti-transformado (veremos como mas adelante), obtendrıamos i1(t) = 3ete2t
y tomando el lımite t! 0, hubieramos llegado al mismo resultado.
12. Teorema del valor final: analogamente al teorema del valor inicial, nos permiten encontrar f(t)
para t!1 a partir de F (s) sin necesidad de calcular la transformada inversa para obtener f(t)
y luego calcular el lımite correspondiente. Gracias al teorema del valor final podremos saber, por
ejemplo, hacia donde tiende el sistema (a muy largo plazo).
Sean f(t) y df(t)dt
ttransformables tal que exista f(1), entonces lımt!1 f(t) = lım
s!0 s F (s).
Comprobacion:
De manera semejante al caso anterior pero tomando el lımite s! 0 obtenemos
lıms!0
Z 1
0
d f(t)
dtestdt =
Z 1
0
d f(t)
dtlıms!0
estdt =
Z 1
0
d f(t)
dt1 dt = f(1) f(0) (39)
Usando de nuevo la propiedad de derivacion y anadiendo los lımites obtenemos
f(1) f(0) = lıms!0
[s F (s) f(0)] (40)
Finalmente, cancelando f(0) a ambos lados de la igualdad e identificando f(1) = lımt!1 f(t)
llegamos al resultado descrito.
26
13. Evaluacion de integrales: si F (s) = Lf(t), entonces
lıms!0
F (s) = lıms!0
Z 1
0estf(t)dt =
Z 1
0f(t)dt = F (0) (41)
14. Transformada de la integral de convolucion: Lf1(t) f2(t) = F1(s) · F2(s)
Ası pues, una operacion mas bien compleja a nivel temporal como es la convolucion se simplifica
enormemente bajo el prisma de la transformada de Laplace. Como en el caso de la resolucion de
ecuaciones diferenciales ordinarias, a menudo nos resultara mucho mas interesante transformar
las senales a convolucionar, hacer el producto en el dominio s y luego anti-transformar que
intentar abordar la convolucion directamente a nivel temporal.
Comprobacion:
Lf1(t) f2(t) =
Z 1
0
Z 1
0f1(t )f2()d
estdt (42)
=
Z 1
0
Z 1
0f1(t )estdt
f2()d
Notese que en la primera igualdad la integral de convolucion empieza en 0 y no en 1 dado que
las senales a convolucionar valen 0 para t < 0. En la segunda igualdad cambiamos el orden de
integracion y nos damos cuenta que la integral interior es justamente la transformada de Laplace
de f1(t) con un cierto desplazamiento . Aplicando la propiedad de desplazamiento temporal
podemos ver que dicha integral vale esF1(s). EntoncesZ 1
0
Z 1
0f1(t )estdt
f2()d =
Z 1
0esF1(s)f2()d (43)
= F1(s)
Z 1
0esf2()d = F1(s) · F2(s)
Transformada de Laplace de u(t) y (t):
Ambas funciones tienen especial relevancia en terminos de convolucion y transformada de Lapla-
ce. En cuanto a la funcion (t), ya sabemos que la salida de un sistema cuando a la entrada hay
una delta nos proporciona su respuesta impulsional h(t). En el dominio transformado, definiremos
H(s) = Lh(t) como la funcion de transferencia del sistema y para encontrarla necesitaremos la
transformada de Laplace de (t). Otras veces, con el mismo fin de encontrar H(s), nos sera mas
practico considerar como entrada al sistema el pulso unitario u(t) (a la practica es conectarlo)
y medir su respuesta.
La transformada de u(t) ya la hemos visto, pero la recordamos,
Lu(t) =
Z 1
0u(t)estdt =
Z 1
0estdt =
1
s(44)
La transformada de (t) es
L(t) =
Z 1
0(t)estdt = es0 = 1 (45)
27
Comprobacion mediante ejemplo:
Consideremos las funciones f1(t) = u(t) y f2(t) = u(t)et. La convolucion de ambas funciones
resulta
f(t) = f1(t) f2(t) =Z 1
1u(t )u()ed =
Z 1
0u(t )ed =
Zt
0ed = 1 et (46)
Si lo miramos en el dominio transformado tenemos
F1(s) = Lf1(t) =1
s
F2(s) = Lf2(t) =1
s+ 1(47)
F (s) = Lf(t) = L1 et = L1 Let =1
s 1
s+ 1=
1
s(s+ 1)
donde claramente comprobamos que se cumple F (s) = F1(s) · F2(s).
2. La Transformada Inversa de Laplace
Hasta el momento hemos visto cual es la puerta de entrada al dominio s (la propia transformada de
Laplace), una serie de herramientas que nos permiten relacionar ambos dominios de forma mas sencilla
que a fuerza bruta (las propiedades de la transformada) y nos falta ver cual es el camino de regreso
del dominio s al dominio temporal, es decir, la transformada inversa o anti-transformada de Laplace,
que denotaremos como L1.
Para encontrar la transformada inversa de Lapace tenemos basicamente dos opciones:
Aplicar directamente la anti-transformada de Laplace como sigue
L1F (s) = f(t) = lımT!1
1
2j
Zc+jT
cjT
F (s)estds (48)
donde c se debe escoger con el fin de integrar unicamente puntos dentro de la ROC y t 0. Se
trata de un metodo generico pero a su vez complicado ya que implica el calculo de una integral
sobre variable compleja y lo evitaremos en la practica.
Por descomposicion de F (s) en terminos cuya anti-transformada sea conocida. En ese caso,
aplicando la propiedad de linialidad de la transformada, podremos expresar f(t) como suma de
anti-transformadas.
Anti-transformada de Laplace por descomposicion en fracciones simples
Centremonos pues en la segunda opcion y busquemos una manera sistematica de hacer la descom-
posicion de F (s) en terminos conocidos. En concreto, este metodo nos sera util cuando podamos
expresar F (s) como fraccion de polinomios en s con el grado del numerador menor o igual que el del
denominador. Ası pues, tenemos
F (s) =N(s)
D(s)(49)
28
donde m = gradoN(s) y n = gradoD(s) con m n. Gracias al teorema fundamental del algebra,
sabemos que es posible descomponer N(s) y D(s) en m y n raıces complejas contando multiplicidades,
respectivamente. Ası pues, podemos expresar F (s) como
F (s) = K(s z1)(s z2) . . . (s z
m
)
(s p1)(s p2) . . . (s pn
)(50)
donde zk
son las raıces de N(s), a las que llamaremos los ceros de F (s), y pk
son las raıces de D(s),
a las que llamaremos polos de F (s).
A continuacion veremos como obtener la transformada inversa en cuatro casos distintos, que son
1. Polos simples reales y n > m.
2. Polos simples reales y complejos conugados con n > m.
3. Polos reales multiples y n > m.
4. La funcion F (s) cumple n = m.
Caso 1: Polos reales simples
En este caso es posible hacer la siguiente descomposicion
F (s) =N(s)
(s p1)(s p2) . . . (s pn
)=
A1
s p1+
A2
s p2+ . . .
An
s pn
(51)
donde Ak
son valores constantes. Una vez conseguida la descomposicion y sabiendo que Le↵t = 1s↵
,
encontramos la transformada inversa como
f(t) =A1 e
p1t +A2 ep2t + . . .+A
n
epntu(t) (52)
La cuestion ahora es como encontrar los valores Ak
. Fijemonos que, dado que m < n y que disponemos
de n valores Ak
, tenemos suficientes grados de libertad para poder fijar los m + 1 coeficientes que
tendra a lo sumo el polinomio N(s), por lo que la descomposicion es posible. Pongamos un ejemplo
sencillo.
F (s) =4s 3
s2 + 4s+ 3=
A1
s+ 1+
A2
s+ 3=
A2(s+ 1) +A1(s+ 3)
(s+ 1)(s+ 3)=
(A1 +A2)s+ (3A1 +A2)
s2 + 4s+ 3(53)
con lo que debemos cumplir A1 +A2 = 4 junto con 3A1 +A2 = 3, lo cual es factible.
No obstante, este modo de proceder resultarıa algo tedioso, por lo que intentaremos encontrar una
alternativa mas simple. Veamos que sucede si multiplicamos F (s) en su forma descompuesta por
(s pk
). Tendremos
F (s)(s pk
) =A1
s p1(s p
k
) +A2
s p2(s p
k
) + . . .+A
k
s pk
(s pk
) + . . .A
n
s pn
(s pk
) (54)
29
y cancelando (s pk
) en el k-esimo termino tenemos
F (s)(s pk
) =A1(s p
k
)
s p1+
A2(s pk
)
s p2+ . . .+A
k
+ . . .A
n
(s pk
)
s pn
(55)
Finalmente, si evaluamos F (s)(s pk
) en s = pk
obtenemos directamente Ak
ya que el resto de
sumandos valen 0. Ası pues, el metodo para determinar los coeficientes es multiplicar F (s) por el
monomio correspondiente y evaluar todo en el valor del polo. En resumen,
Ak
= F (s)(s pk
)
s=pk
(56)
Ejemplo: anti-transformar F (s) = s
2+2s+2(s+1)(s+2)(s+3)
En primer lugar expresamos F (s) como
F (s) =s2 + 2s+ 2
(s+ 1)(s+ 2)(s+ 3)=
A1
s+ 1+
A2
s+ 2+
A3
s+ 3(57)
Acto seguido calculamos las constantes haciendo
A1 =(s2 + 2s+ 2)(s+ 1)
(s+ 2)(s+ 3)(s+ 1)
s=1
=1 2 + 2
1 · 2 = 0, 5
A2 =(s2 + 2s+ 2)(s+ 2)
(s+ 1)(s+ 3)(s+ 2)
s=2
=4 4 + 2
(1) · 1 = 2 (58)
A3 =(s2 + 2s+ 2)(s+ 3)
(s+ 1)(s+ 2)(s+ 3)
s=3
=9 6 + 2
(2) · (1) = 2, 5
con lo que nos queda F (s) = 0,5s+1
2s+2 + 2,5
s+3 . Ahora ya podemos anti-transformar cada una de las
fracciones para llegar al resultado deseado, que es
f(t) =0, 5et 2e2t + 2, 5e3t
u(t) (59)
Caso 2: Polos complejos
En este segundo caso supondremos que ademas de raıces reales tenemos raıces complejas y hay que
tener en cuenta que cuando aparece una raız compleja debe haber tambien su compleja conjugada.
A continuacion vemos que sucede cuando hay una raız y su compleja conjugada, pero el siguiente
desarrollo sirve para cuantas raıces existan. Supongamos pues que F (s) es de la forma
F (s) =N(s)
D0(s) ((s ↵)2 + 2)(60)
En este caso esta claro que no existe ningun numero real tal que(s ↵)2 + 2
= 0 y debemos recorrer
a los numeros complejos para hallar sus dos raices, que son ↵± j. De esta forma la descomposicion
en fracciones simples quedarıa
F (s) =N(s)
D0(s) [s (↵+ j)] [s (↵ j)]=
A
s ↵ j+
A
s ↵+ j+ . . . (61)
30
donde los puntos suspensivos indican la descomposicion en fracciones simples de las raıces reales (caso
1). Notese que las constantes A y A que acompanan a las fracciones complejas y que se calculan
del mismo modo que en el caso anterior son tambien complejas conjugadas, por lo que no hace falta
calcular ambas.
En cuanto a la transformacion inversa, este caso es muy parecido al anterior aunque ahora nos apare-
ceran exponenciales con argumento complejo con los que podremos elaborar algo mas. Tenemos dos
posibilidades:
1. Expresar A en modulo y fase como A = |A|ej, con lo que A = |A|ej.
En este caso la anti-transformada seria:
f(t) = u(t)|A|eje(↵+j)t + |A|eje(↵+j)t + . . .
(62)
= u(t)|A|e↵t(ej(t+) + ej(t+)) + . . .
= u(t)
2|A|e↵t cos (t+ ) + . . .
2. Expresar A en parte real e imaginaria como A = a+ jb, con lo que A = a jb.
En este caso la anti-transformada seria:
f(t) = u(t)(a+ j)e(↵+j)t + (a jb)e(↵j)t + . . .
= u(t)e↵t(aejt + jbejt + aejt jbejt) + . . .
(63)
= u(t)e↵t(2a cost+ 2b sint) + . . .
Aunque no llegamos a la misma expresion, evidentemente ambas son la misma funcion. Quiza la pri-
mera nos sea mas util para visualizar el resultado final, pues se trata de una senoide de amplitud
inicial |A| y fase que se atenua (↵ < 0) o amplifica (↵ > 0) de forma exponencial segun el termino
e↵t (si ↵ = 0 la amplitud se mantiene constante a |A|).
Ejemplo: anti-transformar F (s) = 2s+3s
3+5s2+9s+5
En primer lugar buscamos las raıces del denominador y encontramos
F (s) =2s+ 3
(s+ 1)[s2 + 4s+ 5](64)
Si buscamos las raıces de s2 +4s+5 utilizando la formula para resolver ecuaciones de segundo grado,
encontramos que estas se encuentran en s = 2± j. Ası pues, expresamos F (s) como
F (s) =2s+ 3
(s+ 1)(s+ 2 + j)(s+ 2 j)=
A1
s+ 1+
A2
s+ 2 + j+
A3
s+ 2 j(65)
Ahora calculamos A1 y A2 igual que en el caso 1, es decir
A1 =(2s+ 3)(s+ 1)
(s+ 2 + j)(s+ 2 j)(s+ 1)
s=1
= 0, 5 (66)
A2 =(2s+ 3)
(s+ 2 + j)
(s+ 1)(s+ 2 j)(s+ 2 + j)
s=2j
=1 2j
(2j 2)=2 + 6j
8= 0, 25 + 0, 75j
31
Notese que no hace falta calcular A3 ya que A3 = A2 = 0, 25 0, 75j. De esta forma podemos
expresar F (s) como
F (s) =0, 5
s+ 1+0, 25 + 0, 75j
s+ 2 + j+0, 25 0, 75j
s+ 2 j(67)
y anti-transformar segun lo explicado, cuyo resultado sera
f(t) = u(t)0, 5et + (0, 25 + 0, 75j)e2tejt + (0, 25 0, 75j)e2tejt
= u(t)0, 5et + e2t
0, 25(ejt + ejt)
+ e2t
0, 75j(ejt + ejt)
(68)
= u(t)0, 5et + e2t(0, 5 cos t+ 1, 5 sin t)
Caso 3: Polos multiples
En este tercer caso exploramos la existencia de raıces multiples. Ası pues, supongamos que F (s) tiene
una raız de multiplicidad l y veamos como pasar al dominio temporal. Supongamos primero
F (s) =N(s)
(s p1)l(s p2) . . . (s pn
)(69)
En este caso el polo en p1 debe considerar tantas constantes en la descomposicion como su multipli-
cidad. En nuestro caso, la descomposicion deberıa ser
F (s) =A11
(s p1)l+
A12
(s p1)l1+ . . .+
A1l
s p1+
A2
s p2+ . . .+
An
s pn
(70)
Nos preocupamos primero del calculo de los coeficientes A1k. Siguiendo la logica del primer caso
encontramos facilmente el coeficiente A11 como
A11 = F (s)(s p1)l
s=p1
(71)
No obstante, no sabemos como calcular el resto de los coeficientes. Consideremos ahora la funcion
(s p1)lF (s) simplificada
F (s)(s p1)l = A11 +A12(s p1) + . . .+A1l(s p1)
l1 +A2(s p1)l
s p2+ . . .+
An
(s p1)l
s pn
(72)
y tomemos la derivada respecto a s. Llegamos a
d
dsF (s)(sp1)l = A12+ . . .+A1l(l1)(sp1)l2+
A2 l (s p1)l1(s p2)A2(s p1)l
(s p2)2+ . . . (73)
y nos damos cuenta que evaluando en s = p1 obtendremos el valor de A12 ya que el proceso de
derivacion ha anulado los terminos de orden inferior mientras que el resto de terminos valen cero una
vez evaluamos en s = p1. Vemos tambien que este mecanismo se puede repetir tomando derivadas
sucesivas para conseguir todos los valores requeridos. De forma generica, calcularemos el termino A1k
como
A1k =1
(k 1)!lıms!p1
dk1
dsk1(s p1)
nF (s) (74)
Notese que el lımite s ! p1 es equivalente a evaluar la funcion resultante en s = p1. No obstante,
formalmente ponemos el lımite ya que si no simplificamos la funcion cancelando terminos como hemos
32
hecho hasta el momento y evaluamos directamente, obtendremos una indeterminacion. Con el lımite
evitamos ese error de d definicion y en los casos anteriores hubiera sido mas correcto tambien expre-
sarlo ası.
Finalmente, para pasar al dominio temporal la expresion de F (s) descompuesta en fracciones simples
resultante de (70) y en particular los terminos con denominador (sp1)k, haremos uso de la propiedad
de multiplicacion por t (propiedad 5), que de forma generica nos decıa
Ltnf(t) = (1)ndn F (s)
dsn(75)
Partimos de la relacion ya vista en los casos anteriores
ep1t ! 1
s p1(76)
y aplicamos dicha propiedad. Para n = 1, obtendrıamos
tep1t ! (1) dds
1
s p1
=
1
(s p1)2(77)
De la misma forma, para n = 2 obtendrıamos
t2ep1t ! d2
ds2
1
s p1
=
2
(s p1)3(78)
Vemos que a traves de sucesivas multiplicaciones por t vamos consiguiendo los terminos 1(sp1)k
. Sim-
plemente hay que tener en cuenta los factores adicionales que van apareciendo para finalmente llegar
a la relacion que nos interesa y que es
tnep1t ! n!
(s p1)n+1=) tn
n!ep1t ! 1
(s p1)n+1(79)
Con todo esto ya somos capaces de trabajar con raıces multiples. Veamos a continuacion un ejemplo.
Ejemplo: anti-transformar F (s) = s+2(s+1)2(s+3)
En primer lugar hacemos la descomposicion en fracciones simples segun lo que hemos dicho, resultando
F (s) =A11
(s+ 1)2+
A12
s+ 1+
A2
s+ 3(80)
y calculamos los coeficientes haciendo
A11 =s+ 2
(s+ 1)2(s+ 3)(s+ 1)2 =
1 + 2
1 + 3= 0, 5
A12 = lıms!1
d
ds
(s+ 1)2
s+ 2
(s+ 1)2(s+ 3)
= lım
s!1
1 · (s+ 3) (s+ 2) · 1
(s+ 3)2
= 0, 25 (81)
A2 =(s+ 2)(s+ 3)
(s+ 1)2(s+ 3)
s=3
= 0, 25 (82)
33
con lo que nos queda
F (s) =0, 5
(s+ 1)2+
0, 25
s+ 1 0, 25
s+ 3(83)
Ahora ya podemos anti-transformar y nos queda
f(t) = u(t)0, 5 t et + 0, 25 et 0, 25 e3t
(84)
Caso 4: Grados numerador y denominador iguales
Por ultimo, supongamos que F (s) tiene la forma
F (s) =pn
sn + pn1s
n1 + . . .+ p0qn
sn + qn1sn1 + . . .+ q0
(85)
En este caso, podemos hacer la division de polinomios y nos quedarıa:
F (s) =pn
qn
+
pn1 pn
qnqn1
sn1 + . . .+
p0 pn
qnq0
qn
sn + qn1sn1 + . . .+ q0
(86)
La segunda parte ya sabemos solucionarla con los casos 1-3 y la primera parte tendrıa como transfor-
mada pnqn(t), ası que f(t) serıa
f(t) = u(t)
pn
qn
(t) + . . .
(87)
Con esto acabamos la transformacion inversa de Laplace y a continuacion veremos dos aplicaciones
importantes de la transformada de Laplace.
3. Aplicaciones de la Transformada de Laplace
Dos de las aplicaciones mas importantes de la transformada de Laplace para un ingeniero de telecomu-
nicacion o electronico son la resolucion de ecuaciones diferenciales ordinarias y el analisis de circuitos
con elementos capacitivos y reactivos. A continuacion emplearemos las herramientas desarrolladas
hasta el momento en estas dos aplicaciones concretas.
3.1. Resolucion de ecuaciones diferenciales ordinarias
Veremos esta aplicacion a traves de un ejemplo y para ello vamos a rescatar el circuito RC del principio
del tema dando valores a los elementos como vemos en la figura. Vimos que el circuito debıa responder
a la siguiente ecuacion diferencial (ya sustituyendo los valores)
6 = 3dv
c
(t)
dt+ v
c
(t) (88)
34
+
+ -
+
-vC(t)
i(t)
R = 1M
C = 3µFV = 6V
A partir de la ecuacion diferencial, debemos sustituir cada uno de los terminos por su transformada
de Laplace. En este caso tendrıamos
L6 =6
sLv
c
(t) = Vc
(s) (89)
L3dv
c
(t)
dt
= 3(s V
c
(s) vc
(0)) = 3 s Vc
(s) 3 vc
(0)
Suponiendo que la tension inicial del circuito es nula (vc
(0) = 0), la ecuacion diferencial se transfor-
marıa en el dominio s en6
s= 3 s V
c
(s) + Vc
(s) = (3s+ 1)Vc
(s) (90)
que es una ecuacion algebraica facil de resolver. Aislando Vc
(s) llegamos a la solucion en el dominio
de Laplace, que es
Vc
(s) =6
s(3s+ 1)(91)
No obstante, nos interesa la solucion en el dominio temporal. Como ya sabemos anti-transformar,
empezamos por descomponer Vc
(s) en fracciones simples segun
Vc
(s) =6
s(3s+ 1)=
6/3
s(s+ 1/3)=
A1
s+
A2
s+ 1/3(92)
y calculamos los coeficientes como
A1 =6/3
s(s+ 1/3)s
s=0
=6/3
1/3= 6 (93)
A2 =6/3
s(s+ 1/3)(s+ 1/3)
s=1/3
=6/3
1/3 = 6
Ası nos queda
Vc
(s) =6
s(3s+ 1)=
6
s 6
s+ 1/3(94)
Finalmente ya podemos pasar al dominio temporal y nos queda
vc
(t) = 6(1 e13 t) (95)
35
donde comprobamos que la tension en el condensador es 0 inicialmente y este se va cargando de forma
exponencial hasta igualar la tension de la fuente.
Aunque aquı hemos visto la resolucion de ecuaciones diferenciales en base a un ejemplo, la forma de
proceder sirve para todos los casos. En este ejemplo en particular hemos visto, ademas, que la resolucion
de circuitos con condensadores requiere tratar de algun modo con ecuaciones diferenciales. Desde el
punto de vista de transformada de Laplace, existe un metodo mas sistematico para tratar circuitos
que tengan bobinas y condensadores. Es lo que estudiaremos a continuacion y con eso cerramos el
tema de transformada de Laplace.
3.2. Analisis de circuitos
El analisis de circuitos usando transformada de Laplace se podrıa plantear de la siguiente manera.
Primero podrıamos extraer las ecuaciones diferenciales por las que se rigen las tensiones o corrientes
en el circuito, luego las podrıamos transformar para resolver en el dominio s y una vez encontrada
la solucion pasar al dominio temporal. No obstante, esta manera de proceder podrıa ser complicada
y existe un metodo mas sencillo de llevar a cabo el analisis de circuitos. Lo que haremos es analizar
el circuito directamente en el dominio s aprovechandonos de que es posible interpretar bobinas y
condensadores como si fueran resistencias especiales (a las que llamaremos impedancias). Como ya
sabemos analizar un circuito que tenga unicamente resistencias, lo unico que nos quedara sera anti-
transformar la solucion alcanzada, pero tambien es algo que ya sabemos hacer.
Transformacion de los elementos
Una resistencia es un elemento o dispositivo que establece una relacion proporcional entre la corriente
que circula por ella y la tension que hay en sus bornes. Sabemos que la relacion tension-corriente en
bobinas y condensadores es algo mas complicada, pues es diferencial. No obstante, esta relacion se
puede simplificar en el dominio s y lo que pretendemos es que se parezca lo mas posible a algo pro-
porcional. Empecemos viendo que sucede cuando las condiciones iniciales son nulas y luego veremos
el caso general.
Condiciones iniciales nulas
Estudiemos primero la relacion V-I en el condensador cuando vc
(0) = 0 (ver la figura). Sabemos que
ic(t)
vc(t)C+ -
36
la relacion temporal es ic
(t) = C d vc(t)dt
. Si transformamos esta relacion al dominio s obtenemos
Ic
(s) = C sVc
(s) (96)
y si lo expresamos en forma de tension-corriente nos queda
Vc
(s)
Ic
(s)=
1
C s(97)
Precisamente esta relacion es la impedancia y se puede entender como una generalizacion del concepto
de resistencia. Dicho de otra forma, en el dominio transformado podrıamos ver al condensador como
una “resistencia” cuyo valor es 1/C s y por lo tanto, los mismos metodos de analisis que usabamos en
circuitos con resistencias en el dominio temporal serviran en circuitos con condensadores en el dominio
transformado. De forma grafica representaremos al condensador como en la figura.
1/Cs
+ -Vc(s)
Ic(s)
Analicemos ahora que sucede con una bobina, cuya ecuacion V-I es vL
(t) = Ld iL(t)dt
. Si transformamos
esta ecuacion al dominio s suponiendo iL
(0) = 0 obtendremos
VL
(s) = Ls IL
(s) ! VL
(s)
IL
(s)= Ls (98)
Ahora la impedancia en el dominio transformado vale Ls y por lo tanto podremos tratar una bobi-
na como si fuera una “resistencia” de valor Ls. Graficamente representaremos la bobina en ambos
dominios como en la figura.
iL(t)
+ -vL(t)
+ -VL(s)
IL(s)
Ls
Condiciones iniciales NO nulas
Si consideramos que las condiciones iniciales pueden ser no nulas, entonces no basta con representar
el condensador y la bobina como una impedancia. Hace falta hacer algo mas. Empezemos viendo
que sucede con el condensador. Si vc
(0) 6= 0, entonces (96) pasa a ser
Ic
(s) = C sVc
(s) Cvc
(0) (99)
37
y la relacion de proporcionalidad anterior deja de existir. Reescribimos la relacion anterior como
Vc
(s) =Ic
(s)
C s+
vc
(0)
s(100)
e identificamos la parte de proporcionalidad como antes a la que se le suma un “o↵set”. Este ultimo
termino lo podemos ver como un generador de las condiciones iniciales y circuitalmente podemos
representar al condensador con condiciones iniciales no nulas segun se ve en la figura (impedancia +
fuente).
1/Cs
+ -Vc(s)
Ic(s)
vc(0)/s
Otra posibilidad es representar al condensador como una impedancia en paralelo a una fuente de
corriente. Para ello empleamos el equivalente Thevenin-Norton y sabemos que la fuente de corriente
debe valer la tension de fuente inicial dividida por la impedancia, es decir, vc(0)/s1/C s
= C vc
(0). De esta
forma, conseguimos la representacion de la figura.
C vc(0)1
C s Vc(s)
+
-
En el caso de la bobina partimos de la relacion VL
(s) = LsIL
(s) LiL
(0) y vemos que ahora el
generador de tension toma el valor LiL
(0). Aplicando el teorema de Thevenin-Norton podemos
pasar a una configuracion compuesta por una fuente de corriente de valor iL(0)s
con la impedancia en
paralelo. Vemos ambas posibilidades en la siguiente figura.
+
-
+
-VL(s)
+
LiL(0)
IL(s)
Ls L siL(0)s
VL(s)
Por ultimo, cabe comentar que las resistencias se mantienen como impedancias de valor R puesto que
la relacion vR
(t) = R iR
(t) no cambia en el dominio transformado, donde tenemos VR
(s) = RIR
(s).
38
Ejemplos de aplicacion
Ejemplo1:
Supongamos que queremos analizar el circuito de la siguiente figura y, por ejemplo, nos interesa calcular
la evolucion de la tension en el condensador.
i(t)+
-vC(t)
10
110F
vc(0) = 20V
Para poder analizarlo directamente en el dominio s como si se tratase de un circuito con resistencias
y generadores, debemos transformar primero los elementos. En este caso solo hay que transformar el
condensador (puesto que la resistencia se mantiene como impedancia de valor 10). Dado que existe
una condicion inicial no nula, el condensador se convierte en una impedancia mas un generador. El
circuito transformado resulta ser el de la figura siguiente.
+
-
+Vc(s)I(s)
10
1C s = 10
s
vc(0)s = 20
s
Dado que el objetivo era encontrar la tension en el condensador, la identificamos primero en el dominio
transformado como
Vc
(s) =vc
(0)
s I(s)
C s(101)
y una vez hallada la corriente I(s) en el circuito transformado, solo nos quedara anti-transformar para
encontrar el resultado buscado.
Ejemplo 2:
Supongamos ahora que queremos analizar el siguiente circuito, donde las condiciones iniciales de la
bobina y condensador son no nulas.
39
+ +
-vC(t)C L iL(t)vs(t)
R1 R2
Como en el caso anterior, transformamos los elementos para obtener el circuito transformado (ver
figura).
+
R1 R2
+
1C s
vc(0)s
Vs(s) LsiL(0)
s
Una vez transformado, aplicamos las herramientas clasicas de analisis de circuitos (leyes de Kircho↵,
equivalente Thevenin-Norton, principio de superposicion, . . . ) para hallar la tension o corriente que
deseemos encontrar. Por ejemplo, podrıamos aplicar el equivalente Thevenin-Norton para pasar de 3
a 2 mallas como muestra la figura.
+
R1 R2
+
1C s
vc(0)s
Vs(s)
Ls
iL(0)L
+
Una vez obtenidas las magnitudes deseadas, solo nos queda anti-transformar para conocer la evolucion
temporal de las corrientes y tensiones en el circuito.
40
Tema 3: Funcion de Transferencia de un Sistema
Antoni Morell y Rosana Rodrıguez
18 de marzo de 2014
1. Definicion
La funcion de transferencia de un sistema LTI se define como la relacion (cociente) entre la transfor-
mada de Laplace de la salida o respuesta del sistema Y (s) = Ly(t) y la transformada de Laplace de
la entrada o funcion excitadora X(s) = Lx(t) suponiendo condiciones iniciales nulas (sistema en
estado cero) y una unica excitacion. Ası tenemos
H(s) =Y (s)
X(s)(1)
Si convertimos la ecuacion anterior a Y (s) = H(s)X(s) y aplicamos la propiedad de convolucion para
volver al dominio temporal (propiedad 14 del tema 2), obtenemos
L−1Y (s) = L−1H(s)X(s) −→ y(t) = h(t) ∗ x(t) (2)
con lo que ya podemos anticipar que, en realidad, la funcion de transferencia corresponde a la transfor-
mada de Laplace de la respuesta impulsional en sistemas lineales e invariantes con condiciones iniciales
nulas.
En caso de definir el sistema en forma de ecuacion diferencial como
bndny(t)
dtn+ bn−1
dn−1y(t)
dtn−1+ . . .+ b1
dy(t)
dt+ b0y(t) = am
dmx(t)
dtm+ . . .+ a1
dx(t)
dt+ a0x(t), (3)
su transformacion al dominio s (suponiendo condiciones iniciales nulas) nos lleva a(bns
n + bn−1sn−1 + . . .+ b1s+ b0
)Y (s) =
(ams
m + am−1sm−1 + . . .+ a1s+ a0
)X(s), (4)
de lo que concluimos que
H(s) =Y (s)
X(s)=ams
m + am−1sm−1 + . . .+ a1s+ a0
bnsn + bn−1sn−1 + . . .+ b1s+ b0(5)
Finalmente, llamaremos orden de la funcion de transferencia al orden del polinomio que se encuentra
en el denominador.
41
Utilidad de la funcion de transferencia
La funcion de transferencia nos sirve para caracterizar un determinado sistema de una forma compacta
(igual que lo hace su respuesta impulsional) pero, ademas, nos permite calcular la salida a cualquier
entrada de forma habitualmente mas simple que haciendo la integral de convolucion. En otras palabras,
es preferible transformar la senal de entrada, hacer el producto con H(s) y finalmente anti-transformar
el resultado obtenido que abordar la convolucion directamente. Veamoslo en un ejemplo muy simple.
Consideremos el circuito de la figura siguiente y definamos la entrada vi(t) como la tension de generador
y la salida v0(t) como la tension en bornes de la resistencia R2.
+
R1
vi(t) R2 v0(t)
+
-
A priori, como se trata de un circuito muy simple, vemos facilmente que v0(t) = R2R1+R2
vi(t). No
obstante, hagamos un pequeno ejercicio academico y abordemoslo como un sistema generico. Como
ya hemos dicho, una opcion para caracterizar el sistema es obtener su respuesta impulsional. Para ello
fijamos vi(t) = δ(t) y obtenemos v0(t) = h(t) = R2R1+R2
δ(t). Ahora, para calcular la salida a cualquier
entrada deberıamos hacer
v0(t) = h(t) ∗ vi(t) =
∫ ∞0
h(t− τ)vi(τ)dτ =
∫ ∞0
vi(τ)R2
R1 +R2δ(t− τ)dτ (6)
=R2
R1 +R2
∫ ∞0
vi(τ)δ(t− τ) =R2
R1 +R2vi(t)
Intuimos en este caso tan simple que el hecho de tener que calcular una integral para nada facilita el
calculo.
Por contra, si calculamos H(s) = Y (s)X(s) obtenemos
H(s) =R2
R1 +R2(7)
Ahora la salida se obtiene haciendo el producto V0(s) = H(s)Vi(s). Es cierto que hara falta transformar
primero vi(t) y luego anti-transformar V0(s), pero normalmente resultara menos complejo que integrar
directamente. Ademas, como veremos mas adelante, el estudio de H(s) nos permite un analisis mas
profundo y a la vez simple del sistema.
42
2. Determinacion de la Funcion de Transferencia a Partir de las
Respuestas al Impulso Unidad y al Escalon Unitario
A la practica, determinaremos la funcion de transferencia de un sistema inyectandole senal y midiendo
su respuesta, todo ello a nivel temporal. Lo ideal (mas practico) serıa inyectar al sistema el impulso
unitario δ(t), puesto que con solo anti-transformar la salida y(t) = h(t) nos valdrıa. No obstante, a
veces resulta complicado generar un impulso unitario y es mucho mas practico usar el escalon unidad.
Por ejemplo, si nuestro sistema es un circuito y definimos la entrada al sistema como la tension de
generador, entonces aplicar u(t) a la entrada es equivalente a conectar el circuito usando una fuente
de tension constante. En cualquiera de los dos casos, es sumamente importante que el sistema se en-
cuentre en estado cero antes de hacer el experimento.
Veamos a continuacion los dos casos descritos:
1. Si x(t) = δ(t), entonces y(t) = h(t) ∗ δ(t) = h(t). En el dominio transformado X(s) = 1 y por
lo tanto Y (s) = H(s), con lo que nos basta transformar la salida del sistema a nivel temporal
para obtener su funcion de transferencia.
2. Si x(t) = u(t), entonces y(t) = h(t)∗u(t). En el dominio transformado X(s) = 1/s y por lo tanto
Y (s) = H(s)/s, con lo que H(s) = s Y (s). En este caso, para hallar H(s) deberemos transformar
la salida del sistema al dominio s y luego simplemente la multiplicaremos por s.
Ejemplo de aplicacion: Supongamos que para cierto sistema, la respuesta al escalon unidad en estado
cero es y(t) =(1− e−3t
)u(t). Encontrar H(s).
En este caso transformamos primero y(t) al dominio de Laplace, resultando en
Y (s) =1
s− 1
s+ 3(8)
y luego multiplicamos por s para finalmente encontrar la funcion de transferencia. Ası resulta
H(s) = s Y (s) = 1− s
s+ 3(9)
Ahora ya podemos conocer la respuesta a cualquier entrada del sistema. Simplemente hay que transfor-
mar la entrada al dominio de Laplace, multiplicarla por H(s) y anti-transformar el resultado obtenido.
3. Diagrama de Zeros y Polos
Como ya vimos en el tema 2, todo polinomio de orden n se puede descomponer, por el teorema
fundamental del algebra, en n raıces (contando multiplicidades). Cuando H(s) sea una division de
polinomios en s, es decir, H(s) = N(s)/D(s), entonces podremos expresarla como
H(s) = K(s− z1) . . . (s− zm)
(s− p1) . . . (s− pn)(10)
43
y diremos que n es el grado de la funcion de transferencia, o sea, el grado del polinomio denominador.
Como ya vimos en el tema anterior, llamaremos ceros de H(s) a las raıces del polinomio numerador
y polos de H(s) a las raıces del polinomio denominador.
Como tambien sabemos, s es una variable compleja que descomponemos segun s = σ + jω. Llama-
remos plano complejo o plano s al plano de dimension 2 que forman todos los valores de s con
σ ∈ (−∞,+∞) y ω ∈ (−∞,+∞). En este plano se representan los ceros de H(s) con un cırculo ()y sus polos con una cruz (×). La posicion de ambos en el plano s, ası como el valor de K, es lo que
finalmente determina la respuesta del sistema y tambien algunas de sus propiedades como veremos en
el siguiente apartado.
Ejemplos de representacion:
σ
jω
x
x
H(s) = K s+2(s−j)(s+j) H(s) = K s+3
[s−(1+j)][s−(1−j)]
σ
jω
x
x
4. Estabilidad
Una de las propiedades fundamentales de cualquier sistema es su estabilidad, pues un sistema inestable
pocas veces tendra utilidad practica. En este caso son los polos de la funcion de transferencia quienes
determinan si un sistema es estable o no para una entrada cualquiera, siempre que esta este acotada.
Consideremos ahora el sistema de la figura, inicialmente en estado cero,
H(s)X(s) Y (s)
donde la salida vale Y (s) = H(s)X(s). Si quisieramos volver al dominio temporal para encontrar
y(t), deberıamos descomponer Y (s) en fracciones simples segun ya hemos visto en el tema anterior.
Supongamos que el producto H(s)X(s) da lugar a n fracciones simples correspondientes a los n polos
de H(s) mas otras l fracciones simples correspondientes a las l raıces del denomindador de la senal de
44
entrada X(s). En este caso tenemos
Y (s) =A1
s− p1+ . . .+
Ans− pn
+B1
s− s1+ . . .+
Bls− sl
(11)
Por otro lado, llamaremos componente libre a la respuesta que el sistema genera de manera intrınseca
pero que no esta relacionada con la forma temporal de la senal de entrada y denominaremos com-
ponente forzada a la parte de la respuesta que es debida directamente a la entrada, es decir, que
comparte su misma forma temporal.
Si nos fijamos de nuevo en (11) veremos que ya se ha separado en dos grupos de fracciones simples: i)
las correspondientes a las raıces del denominador de H(s) (los polos del sistema) y ii) las correspon-
dientes a las raıces del denominador de la senal de entrada X(s). Si ahora nos planteasemos pasar al
dominio temporal, resulta evidente que el segundo grupo de fracciones simples darıa formas de onda
iguales a las de la senal de entrada (modificadas solo por el coeficiente Bi correspondiente) mientras
que el segundo grupo darıa lugar a formas de onda que el sistema genera por sı mismo y que, salvo
por los coeficientes Ak, no dependen de cual es la entrada.
Llegados a este punto, disponemos de herramientas suficientes para plantearnos cuando un sistema es
estable y cuando no. Recordemos del tema 1 que un sistema es estable por definicion si la salida a
cualquier entrada acotada es tambien acotada. Teniendo esto en cuenta y volviendo a la expresion de
Y (s) en (11), vemos claramente que la componente forzada de la respuesta no influye en la estabilidad
del sistema, ya que si la entrada es estable, esa parte de la salida tambien lo sera (los coeficientes son
siempre finitos). Por lo tanto, la estabilidad del sistema tiene que venir determinada por la componente
libre. Intuitivamente, si un sistema es estable esperaremos que la respuesta libre tienda a desaparecer
con el avance del tiempo, es decir, que exista un cierto instante t0 a partir del cual la componente
libre sea nula o despreciable y unicamente nos quede la respuesta forzada. Siguiendo esta misma idea
podemos definir:
Regimen transitorio: intervalo de tiempo en el que la componente libre de la respuesta es osten-
sible frente a la componente forzada.
Regimen permanente: intervalo de tiempo en el que la componente libre se puede considerar nula
o despreciable y queda unicamente la parte forzada de la respuesta.
Formalmente, diremos que un sistema es estable si la componente libre de la respuesta tiende a cero
cuando el tiempo tiende a infinito. Ademas, como ya se ha visto, un sistema es estable independien-
temente de la excitacion a la que es sometido. A continuacion veremos la relacion entre la respuesta
libre del sistema y su diagrama de ceros y polos.
Relacion entre Respuesta Libre y Diagrama de Polos y Ceros
A continuacion veremos los distintos tipos de polos que podemos encontrar para analizar a continuacion
su efecto en la respuesta del sistema.
a) Polos reales con parte real negativa.
45
Supongamos que tenemos un polo simple en p = −α. Entonces, su anti-transformada tendra for-
ma de exponencial decreciente, es decir, sera del tipo Ae−αtu(t). Vemos que da lugar a una
respuesta que se atenua con el tiempo. Incluso si el polo hubiera sido multiple, una respuesta del
tipo Atke−αtu(t) tambien se atenuarıa con el tiempo puesto que la exponencial decrece siempre
mas rapido que el termino tk para un k dado. Vemos tambien que a mayor valor de α (polo
mas negativo) mayor es la velocidad de decrecimiento. Por lo tanto, polos reales con parte real
negativa contribuiran a que el sistema sea estable.
b) Polos reales con parte real positiva.
Si el polo es real pero positivo sucede justo lo contrario. Si tenemos un polo simple en p = α,
este dara lugar a una respuesta de tipo Aeαtu(t), es decir, crecera exponencialmente con el
tiempo y como mayor sea el valor de α, tambien mayor sera su velocidad de crecimiento. Por
lo tanto, polos reales con parte real positiva haran que el sistema sea inestable. Notese que una
sola contribucion de este tipo hara que el sistema sea inestable. Dicho de otra forma, aunque un
sistema tenga 100 polos reales negativos y uno solo de positivo, el sistema sera inestable.
c) Polos complejo conjugados.
Parte real negativa.
Supongamos que tenemos un polo complejo conjugado del tipo p = −α±jω. Como vimos en
el tema 2, estos polos generan una respuesta del tipo Ae−αt cos (ωt+ φ)u(t) y se trata, por
lo tanto, de una cosnoide a frecuencia angular ω cuya amplitud decrece exponencialmente
segun e−αt. Como sucede en el caso a), como mas negativa es la parte real del polo mas
rapidamente decrece. Por lo tanto, estos polos contribuiran a la estabilidad del sistema.
Parte real positiva.
Consideremos ahora p = α± jω. En este caso la respuesta es del tipo Aeαt cos (ωt+ φ)u(t)
y ahora la amplitud de la cosenoide crece exponencialmente con el tiempo. Por lo tanto, un
polo de este tipo fuerza la inestabilidad del sistema.
Finalmente, si el polo tiene parte real nula, es decir p = ±jω, la respuesta sera A cos (ωt+ φ)u(t),
o sea, una cosenoide. En este caso el sistema serıa estable segun la definicion del tema 1 pero la
componente libre del sistema no se atenua con el tiempo. Es por eso que en este caso diremos
que el sistema es estable en sentido amplio o bien marginalmente estable. Lo mismo sucede si el
polo fuera real con parte real nula.
d) Polos multiples en el eje imaginario.
En este caso tendremos el escalon multiplicado por tn o bien un coseno multiplicado por tn. Por
lo tanto, el sistema sera inestable en este caso ya que la respuesta correspondiente a estas raıces
crece a infinto, aunque lo haga de forma mas lenta que la exponencial.
Una vez hemos analizado todos los casos, podemos anticipar la condicion de estabilidad de un sistema
mirando unicamente su funcion de transferencia H(s).
46
Estabilidad / Inestabilidad de un Sistema
Podemos clasificar los sistemas segun:
Sistema estable en sentido estricto: si todos sus polos tienen parte real estrictamente negativa
(no 0).
Sistema estable en sentido amplio: si todos sus polos tienen parte real estrictamente negativa o
bien 0 (en este caso con multiplicidad 1).
Sistema marginalmente estable: si tiene al menos un polo con parte real nula (pero unicamente
con multiplicidad 1).
Sistema inestable: si tiene al menos un polo con parte real estrictamente positiva o bien un polo
multiple con parte real nula.
La figura siguiente muestra, para los distintos tipos de polo, su forma temporal asociada y su condicion
de estabilidad / inestabilidad.
σ
jω
x
x
x
x
x
x
x xx
INESTABLEESTABLE (S. ESTRICTO)
MARGINALMENTE ESTABLEESTABLE (S. AMPLIO)
5. Diagramas de Bode
Los diagramas de Bode son una representacion grafica de la respuesta de un determinado sistema a
un tipo de entrada muy particular: la cosenoide. Su utilidad practica se pone de manifiesto cuando
nos damos cuenta de que las senales con las que trabajan los sistema de comunicacion se pueden
descomponer como suma de senoides (de diferente amplitud y fase) segun la transformada de Fourier
(que veremos en el siguiente tema). Ası pues, conocer la respuesta del sistema a una cosenoide de
cualquier frecuencia y fase nos lleva a poder predecir la respuesta del sistema a cualquier senal de
entrada. De ahora en adelante, diremos que el sistema trabaja en regimen permanente senoidal
cuando a la entrada tiene una senoide que esta presente desde t = −∞.
47
5.1. Respuesta a la cosenoide. La senal exponencial como autofuncion de los sis-
temas LTI.
Veamos primero que queremos decir con que la exponencial es autofuncion de un sistema LTI cualquie-
ra. Pues bien, esto significa que si a la entrada de un sistema LTI inyectamos una senal exponencial
x(t) = est, entonces la salida tambien tendra la misma forma de exponencial multiplicada por un cier-
to factor constante al que llamamos autovalor. Esto es valido tanto para la transformada de Laplace
unilateral como bilateral. No obstante, ya que hasta ahora nos hemos centrado en la transformada de
Laplace uniltateral, vamos a considerar el sistema causal como indica la siguiente figura.
h(t)LTI y causal
x(t) = est y(t) = ! est
En este caso, la salida resulta
y(t) = x(t) ∗ h(t) =
∫ ∞−∞
h(τ)x(t− τ)dτ =
∫ ∞0
h(τ)es(t−τ)dτ = est∫ ∞0
h(τ)e−sτdτ = estH(s) (12)
Este resultado es interesante por su simplicidad pero tiene un problema desde el punto de vista
practico: una senal exponencial de tipo est con s complejo no es algo demasiado intuitivo ni util si
no es que la parte real de s sea nula (si es positiva la senal no esta acotada y si es negativa la senal
se desvanece). Por contra, una senal senoidal de tipo cos (ωt+ φ), correspondiente a una parte real
nula, resulta mucho mas manejable o interpretable y la salida del sistema a dicha senal nos permite
entenderlo mucho mejor ya que nos dice como este se comporta ante una determinada frecuencia
angular ω. Si utilizamos la formula de Euler, vemos que podemos expresar el coseno como suma de
exponenciales segun
cos (ωt+ φ) =1
2
(ejωt+φ + e−jωt−φ
)(13)
Ahora podemos encontrar la salida del sistema aplicando el resultado de (12), obteniendo
y(t) =1
2
(ejωtejφH(jω) + e−jωte−jφH(−jω)
)(14)
Centremonos un momento a ver que vale H(−jω). Empezando con la definicion de transformada de
Laplace, esto es
H(−jω) =
∫ ∞0
h(τ)ejωτdτ =
[∫ ∞0
h∗(τ)e−jωτdτ
]∗(15)
donde hemos conjugado dos veces teniendo en cuenta que en complejos se cumple (ab+ cd)∗ = a∗b∗+
c∗d∗ independientemente del numero de sumandos que haya. Si nos fijamos en la ultima expresion
encontrada y tenemos en cuenta que los sistemas seran reales en la practica, es decir h∗(τ) = h(τ),
entonces llegamos a
H(−jω) = H∗(jω) (16)
Por lo tanto, H(jω) y H(−jω) seran iguales en modulo y tendran fase opuesta, que denotaremos por
ψ(ω), por el hecho de ser uno el conjugado del otro. Aplicando esta idea al desarrollo inicial podemos
48
ver que
y(t) =1
2
(ejωtejφ|H(jω)|ejψ(ω) + e−jωte−jφ|H(jω)|e−jψ(ω)
)= |H(jω)| cos (ωt+ φ+ ψ(ω)) (17)
Llegamos a la conclusion que la salida a una senoide de frecuencia ω y fase φ es otra senoide a la
misma frecuencia pero desfasada una cierta cantidad marcada por la fase de H(jω) a dicha frecuencia
y escalada por el modulo de H(jω). Ası pues, nos interesaran estas dos magnitudes y esa informacion
es lo que representamos graficamente con los diagaramas de Bode de amplitud y fase.
5.2. Diagrama de Bode de Amplitud y Fase.
Como acabamos de decir, son la representacion de |H(jω)| y ψ(ω) = ∠H(jω) en funcion de la frecuen-
cia angular ω dada en rad/s, aunque tambien se pueden representar en funcion de la frecuencia natural
f dada en Hz, ambas relacionadas segun ω = 2πf . Habitualmente se representa en escala logarıtmica
tanto el eje de frecuencias como el de amplitudes para ambos diagramas. Esto es interesante para
poder representar ası en una misma grafica un amplio margen de frecuencias (el logaritmo comprime).
Diagrama de Bode de amplitud
En este caso en particular, aplicaremos 10 log10 |H(jω)|2 = 20 log10 |H(jω)| en el eje de amplitudes
para trabajar ası en dB (magnitud relativa habitualmente relacionada con medidas de potencia o
intensidad). La razon principal es que los distintos terminos de H(jω) que estan multiplicando y
dividiendo pasan a sumar y restar dadas las propiedades del logaritmo. Es decir, si representamos
H(jω) como H(jω) = KN(jω)D(jω) , entonces
|H(jω)|2dB = 20 log10 |H(jω)| = 20 log10 |K|+ 20 log10 |N(jω)| − 20 log10 |D(jω)| (18)
Diagrama de Bode de fase
En este caso representaremos la amplitud en lineal pues la escala ira entre 0 y 2π.
En general, el diagrama de Bode es una herramienta para ver el comportamiento de un sistema de
verdad con senales de verdad y de una forma rapida. Ademas, nos permite incluso reconstruir la funcion
de transferencia del sistema si es necesario. Aunque gracias a las herramientas informaticas existentes
en la actualidad resulta relativamente facil dibujar el diagrama de Bode de un sistema, tambien
veremos como hacer una representacion asintotica (no exacta) de este (aplicado a circuitos) de forma
facil y sin necesidad de ordenadores. No obstante, antes de eso veremos como son los diagramas de
Bode de algunos sistemas muy basicos, ya que mas tarde los combinaremos para obtener los diagramas
de sistemas mas complejos.
Casos basicos
1. H(jω) = K (constante).
Este caso es muy elemental y tenemos
|H(jω)|2dB = 20 log10 |K| ∠H(jω) = 0 rad ∀ω (19)
49
20 log10 |H(jω)|
log10 ω
∠H(jω)
log10 ω
20 log10 |K|
10010−1 101 102 103 104
10010−1 101 102 103 104
que corresponde a
2. H(jω) = K/jω.
En este segundo caso, el diagrama de Bode de amplitud responde a
|H(jω)|2dB = 20 log10 |H(jω)| = 20 log10K
ω= 20 log10 |K| − 20 log10 ω (20)
lo que corresponde a una recta con pendiente negativo (ojo, con ω en escala logarıtmica). ¿Que su-
cede si pasamos de una frecuencia ω0 a una 10 veces mayor, es decir, 10ω0? (Nota: Este salto
entre una frecuencia ω0 y otra 10 veces superior es lo que llamamos decada.) Queda claro que
para ω0 tendrıamos el resultado de (20) si sustituimos ω por ω0. Para 10ω0 tendrıamos
|H(j10ω0)|2dB = 20 log10 |H(j10ω0)| = 20 log10K
10ω0(21)
= 20 log10 |K| − 20 log10 ω0 − 20 log10 10 = 20 log10 |K| − 20 log10 ω0 − 20
Se trata pues de una recta de pendiente -20 dB/decada, o sea, entre una frecuencia cualquiera
y una frecuencia 10 veces superior a la primera caen 20 dB.
El diagrama de Bode de fase se encuentra a partir de
∠H(jω) = ∠ numerador− ∠ denominador = tan−10
K− tan−1
ω
0= 0− π
2∀ω (22)
Ası pues, el diagrama de Bode para este segundo caso resulta ser
50
20 log10 |H(jω)|
log10 ω
∠H(jω)
log10 ω
20 log10 |K|
ω0 10ω0
20 dB −π
2
10−1 101 102 103 104 10−1 101 102 103 104
3. H(jω) = jKω.
En este caso, el diagrama de Bode de amplitud es
|H(jω)|2dB = 20 log10 |H(jω)| = 20 log10Kω = 20 log10 |K|+ 20 log10 ω (23)
y si multiplicamos la frecuencia por 10 tenemos
|H(j10ω)|2dB = 20 log10 |K|10ω = 20 log10 |K|+ 20 log10 ω0 + 20 (24)
Se trata entonces de una recta con pendiente +20 dB/decada.
El diagrama de Bode de fase responde a
∠H(jω) = tan−1Kω
0=π
2∀ω (25)
En resumen, tenemos
20 log10 |H(jω)|
log10 ω
∠H(jω)
log10 ω
20 log10 |K|
20 dB
ω0 10ω0
π
2
10−1 101 102 10−1 101 102 103 104
4. H(jω) = K/(jω)n.
En este ultimo caso el diagrama de Bode de amplitud es
|H(jω)|2dB = 20 log10 |H(jω)| = 20 log10K
ωn= 20 log10 |K| − 20n log10 ω (26)
51
que corresponde a una recta de pendiente -20n dB/decada.
El diagrama de fase responde a
∠H(jω) = 0− ∠(jnωn) = −nπ2
(27)
y por lo tanto cada incremento de n corresponde a un incremento de −π2 en la fase.
En resumen, tenemos
20 log10 |H(jω)|
log10 ω
∠H(jω)
log10 ω
20 log10 |K|
ω0 10ω0
20n dB −nπ
2
10−1 103 104
10−1 101 102 103 104
5.3. Obtencion del Diagrama de Bode de un Circuito
Veremos como obtener el diagrama de Bode de un circuito a traves del estudio de un ejemplo sencillo:
un circuito RC como el de la figura, donde la tension de generador se define como la entrada y la
tension del condensador como la salida del sistema. Podemos ver tambien el circuito equivalente segun
Laplace, que usaremos para encontrar la funcion de transferencia del sistema.
+
vi(t) v0(t)
+
-
R
C
+ +
-
R
Vi(s) V0(s)1
sC
Lo primero que debemos hacer es calcular H(jω), es decir, H(s)∣∣s=jω
. Utilizando la formula del divisor
de tension, encontramos facilmente
V0(s) =1C s Vi(s)1C s +R
=Vi(s)
1 + sRC(28)
y de aquı
H(jω) =V0(s)
Vi(s)
∣∣∣∣s=jω
=1
1 + jωRC(29)
52
Por lo tanto, el diagrama de Bode de este circuito sera la representacion grafica de
|H(jω)|2dB = 20 log101√
1+(ωRC)2∠H(jω) = − tan−1 ωRC (30)
Para dibujar ambas funciones de forma facil y sin necesidad de soporte informatico, usaremos la
aproximacion asintotica del diagrama de Bode. Para ello calcularemos dos asıntotas especiales:
Asıntota de baja frecuencia
Cuando ω es muy pequeno, el termino jωRC del denominador se puede despreciar frente al 1.
Es por eso que aproximamos H(jω) ≈ 1 y por lo tanto las funciones a representar (amplitud y
fase) son
|H(jω)|2dB = 20 log10 1 = 0 dB ∠H(jω) = tan−1 01 = 0 rad (31)
Asıntota de alta frecuencia
En cambio, cuando ω es suficientemente grande el 1 del denominador se puede despreciar frente
al termino jωRC, por lo que la funcion se puede aproximar ahora por H(jω) ≈ 1jωRC y las
funciones a representar en el diagrama de Bode son
|H(jω)|2dB = 20 log101
ωRC= −20 log10 ωRC dB (32)
∠H(jω) = tan−10
1− tan−1
ωRC
0= −π
2rad
Si juntamos ambas aproximaciones en una misma grafica obtenemos
20 log10 |H(jω)|
log10 ω
∠H(jω)
log10 ω
−π
2
ωc = 1/RC
−20 dB/decada
−3 dB −π/2
ωc = 1/RC
donde vemos en trazo negro el diagrama de Bode asintotico y en trazo rojo el diagrama real. Vemos en
la figura que se ha marcado una frecuencia en particular, la frecuencia de corte o ωc. Esta frecuencia
es el punto de corte (en ampitud) entre las asıntotas de alta y baja frecuencia, es decir
12 =
(1
RCωc
)2
−→ ωc =1
RC(33)
53
En esa frecuencia, ademas, sabemos que el diagrama de Bode en amplitud real esta 3 dB por debajo
del asintotico y que el diagrama de Bode en fase real tiene una fase de π/4 en ese punto. Podemos
comprobarlo haciendo
H(jω)∣∣ω= 1
RC=
1
1 + j(34)
y por lo tanto
|H(jω)|2dB = 20 log101√2
= −3 dB ∠H(jω) = 0− tan−1 11 = −π
4 rad (35)
Visto esto, el mensaje es que una vez dibujado el diagrama de Bode asintotico y conociendo la fre-
cuencia de corte ωc, dibujar una buena aproximacion del diagrama de Bode real no resulta difıcil.
Analisis frecuencial de sistemas mas completos
Consideremos ahora el siguiente circuito con R = 21 Ω, L = 1 H y C = 1/20 C.
+
vi(t) v0(t)
+
-
R
C
L
En este caso, el analisis en el dominio de Laplace nos da la siguiente funcion de transferencia
H(s) =20/s
21 + s+ 20/s=
20
s2 + 21s+ 20=
20
(s+ 1)(s+ 20)=
1
(s+ 1)(s20 + 1
) (36)
Vemos que hemos expresado dicha funcion en terminos del tipo (1+a s). En este caso solo ha sido en el
denominador, pero si el numerador tuviera grado mayor que uno, harıamos lo mismo. La razon de esto
es que intentamos reproducir lo visto en el circuito RC donde H(s) = 1/1+RCs para poder aprovechar
los resultados ya vistos. Calculemos pues la respuesta frecuencial de este circuito considerando dicha
descomposicion como
H(jω) =1
(1 + jω)(1 + j ω20
) (37)
Ahora podemos calcular el diagrama de Bode de amplitud como
|H(jω)|2dB = 20 log10
∣∣∣∣∣ 1
(1 + jω)(1 + j ω20
)∣∣∣∣∣ = 20 log10
∣∣∣∣ 1
(1 + jω)
∣∣∣∣+ 20 log10
∣∣∣∣∣ 1(1 + j ω20
)∣∣∣∣∣ (38)
y el de fase como
∠H(jω) = ∠ 1
1 + jω+ ∠ 1
1 + j ω20(39)
54
de forma que los terminos que aparecen ya los habıamos visto en el circuito RC. Para dibujar el
diagrama de Bode lo haremos por partes. Por ejemplo, en amplitud sabemos que a partir de la fre-
cuencia angular 1 rad la respuesta decae a razon de 20 dB/decada debidos al primer polo. Como el
segundo polo provoca otra pendiente de -20 dB/decada a partir de la frecuencia angular 20 rad, en
total tendremos -40 dB/decada. Ademas, si los polos estan lo suficientemente alejados, los -3 dB en la
frecuencia de corte siguen siendo validos. En fase tendremos un primer polo que provoca un desfase
de −π/2 rad y un segundo polo que provoca un desfase adicional de otros −π/2 rad. Podemos ver
todo lo dicho en la siguiente figura.
20 log10 |H(jω)|
log10 ω
∠H(jω)
log10 ω
−20 dB/decada
−3 dB
1 20 201
−π-40 dB/decada
−3 dB−π/2
−π/4
Ejemplo de aplicacion: Dibujar el diagrama de Bode de modulo y fase de la siguiente funcion de
transferencia
H(s) = 4s+ 2
(s+ 1)(s+ 3)(40)
Lo primero que debemos hacer es expresar la respuesta frecuencial de la forma adecuada, haciendo
H(jω) = 4jω + 2
(jω + 1)(jω + 3)=
8
3
1 + j ω2(1 + jω)(1 + j ω3 )
(41)
Para facilitar mas las cosas, podemos descomponer H(jω) en terminos de los que ya sabemos como
hacer el diagrama de Bode, es decir
H(jω) =8
3· (1 + j
ω
2) · 1
1 + jω· 1
1 + j ω3= H1(jω) ·H2(jω) ·H3(jω) ·H4(jω) (42)
Analicemos cada uno de los terminos:
1. H1(jω) = 83
Este termino nos dara una amplitud constante de 20 log1083 = 8, 52 dB y una fase de 0 rad.
2. H2(jω) = 1 + j ω2
Este termino contribuira en amplitud con una recta de pendiente +20 dB/decada a partir de su
frecuencia de corte, que en este caso es ωc = 2, y con una fase que pasara de 0 rad a π/2 rad.
55
3. H3(jω) = 1 + jω
Este termino contribuira en amplitud con una recta de pendiente -20 dB/decada a partir de su
frecuencia de corte, que en este caso es ωc = 1, y con una fase que pasara de 0 rad a −π/2 rad.
4. H4(jω) = 1 + j ω3
De forma semejante al anterior, este termino contribuira en amplitud con una recta de pendiente
-20 dB/decada a partir de su frecuencia de corte, que en este caso es ωc = 3, y con una fase que
tambien pasara de 0 rad a −π/2 rad.
Una vez hecho este analisis, dibujamos en el siguiente grafico el diagrama de Bode asintotico de los
distintos terminos solapando unos con otros.
20 log10 |H(jω)|
log10 ω
∠H(jω)
log10 ω−20 dB/decada
1
−π/2
2
8, 52 dB+20 dB/decada
1 3
π/2
2−6 dB−9, 54 dB
Finalmente, dibujamos el diagrama de Bode asintotico del conjunto y a partir de este aproximamos el
diagrama de Bode del sistema tal y como aparece en la figura siguiente.
20 log10 |H(jω)|
log10 ω
∠H(jω)
log10 ω−20 dB/decada
1−π/2
8, 52 dB1 32
2, 52 dB
32
56
Tema 4: La Transformada de Fourier
Antoni Morell y Rosana Rodrıguez
22 de mayo de 2014
1. Definicion de la transformada de Fourier
1.1. Recordatorio: Autofunciones y autovalores de la ecuacion de convolucion
En el Tema 3 vimos que la senal x(t) = est era autofuncion de la ecuacion de convolucion. Esto es,
si la entrada a un sistema caracterizado por h(t) es x(t) = est, entonces la salida es y(t) = H(s)est,
donde H(s) es lo que llamamos autovalor.
x(t) = est
y(t) = x(t) ∗ h(t)= H(s)est
h(t)/H(s)
Verifiquemoslo de nuevo,
y(t) =
∫ ∞
−∞x(t− τ)h(τ)dτ =
∫ ∞
−∞es(t−τ)h(τ)dτ = est
∫ ∞
−∞e−sτh(τ)dτ = H(s)est (1)
donde identificamos H(s) =∫∞−∞ e−sτh(τ)dτ , que se corresponde con la transformada (bilateral) de
Laplace de h(t). En este caso se llama bilateral porque integramos desde −∞ y no de 0, pero coinciden
para sistemas causales (los que nos interesan) ya que h(t) = 0 para t < 0. Recordemos que s es una
variable compleja con parte real σ y parte imaginaria ω, es decir, s = σ+ jω y que gracias a la trans-
formada de Laplace podıamos trabajar con las senales y sobretodo con los sistemas en el dominio s de
forma mas simple que directamente en el dominio temporal. Ahora nos preguntamos si particularizan-
do s de forma que σ = 0, o sea, haciendo s = jω podrıamos hacer algo parecido. La transformacion
resultante se llama transformada de Fourier y es lo que estudiaremos en este tema, ya que tiene sus
particularidades con respecto la transformada de Laplace. La transformada de Fourier estara asociada
a frecuencia, ya sea angular ω medida en rad/s o bien frecuencia f medida en Hz o s−1, siendo ω = 2πf .
Bajo esa nueva idea tendremos
H(w) =
∫ ∞
−∞e−jωτh(τ)dτ (2)
como la transformada de Fourier de h(t) y, de la misma manera que antes, y(t)|x(t)=ejωt = H(w)ejwt.
Intuitivamente, dado que ejωt es una senal de tipo senoidal, la transformada de Fourier nos sera util
57
cuando sea posible expresar la senal de entrada como suma (integral) de senoides, es decir, si x(t) =∑
i aiejωit. Entonces la salida se determinara facilmente como y(t) =
∑
aiH(ωi)ejωit.
A partir de este momento, trabajaremos con frecuencia f (es lo mismo pero quiza un poco mas
comodo), ası que de ahora en adelante escribiremos la transformada de Fourier como
H(f) =
∫ ∞
−∞e−j2πfτh(τ)dτ (3)
1.2. La transformada de Laplace versus la transformada de Fourier
Si planteamos la transformada de Fourier como una particularizacion de la transformada de La-
place, inmediatamente nos surge la pregunta: ¿Por que es necesaria esta nueva transformacion? ¿No
vale solo con la de Laplace?
En primer lugar, esta claro que la transformada de Laplace es mas generica. Desde el punto de vista
de senales y sistemas, esto tiene las siguientes ventajas:
Permite transformar un mayor numero de senales. Por ejemplo, como veremos mas adelante, la
transformada de Fourier no nos permite transformar senales que no decaen en el tiempo (las
senales periodicas sı, pero como veremos, son un caso especial). Es decir, habra senales como por
ejemplo x(t) = t u(t) que no se pueden transformar con Fourier ya que la integral no converge.
El hecho de trabajar en dos dimensiones nos aporta mas informacion. En otras palabras, con
la transformada de Fourier no podremos estudiar el sistema desde el punto de vista de polos y
ceros como hemos hecho con Laplace.
En cambio, cuando la transformada de Fourier aplique, nos beneficiamos de:
Mayor simplicidad en la transformacion.
Mayor facilidad para trabajar en el dominio transformado, ya que tenemos mas propiedades
(herramientas) que emplear.
Mas facil de interpretar ya que solo tenemos una dimension. De hecho, ya lo hemos visto en los
diagramas de Bode, donde se particularizaba para s = jω.
En general, podemos afirmar que la transformada de Laplace sera mas util en el estudio de sistemas
y, por contra, la transformada de Fourier sera mas util en el analisis de senales. Fijemonos que la
transformada de Laplace trata problemas de valor inicial (se fijan las condiciones iniciales) y esto ya
nos va bien des del punto de vista de sistema. En senales esto no es ası. Por ejemplo, no podemos
fijar un valor inicial a la senal x(t) = A cosω0t ya que se extiende en todo t. En Fourier, a cambio de
trabajar en regimen permanente senoidal, esto es posible.
1.3. Definicion formal
Tal y como hemos anticipado en (3), la transformada de Fourier de una senal, digamos x(t) y que
denotaremos X(f) = Fx(t), se define como
X(f) =
∫ +∞
−∞x(t)e−j2πftdt (4)
58
y desde nuestro punto de vista, debemos interpretarla como una transformacion que nos dice cual es el
contenido frecuencial de la senal, es decir, cual es la contribucion de una determinada frecuencia f0 a
la senal x(t). Intuitivamente, fijemonos que para encontrar X(f)|f=f0 = X(f0), multiplicamos primero
x(t) por e−j2πf0t y luego integramos para todo t. Lo que estamos haciendo con esto es “comparar”
la senal x(t) con un tono puro a f0 (coseno en parte real y seno en parte imaginaria). Si se parecen
mucho, X(f0) tomara un valor grande y en cambio, si no se parecen, el valor sera bajo.
A continuacion se muestran dos grupos de condiciones que son suficientes (aunque no necesarias)
para que exista X(f) (con un solo grupo hay suficiente):
1. x(t) es de cuadrado integrable, es decir∫ +∞−∞ |x(t)|
2dt <∞.
2. Condiciones de Dirichlet:
x(t) es absolutamente integrable, es decir∫ +∞−∞ |x(t)|dt <∞.
x(t) debe tener un numero de maximos y mınimos finito dentro de un intervalo finito.
Contraejemplo: x(t) = sin(
2πt
)
en el intervalo t ∈ [−0,5, 0,5]
−0.5 0 0.5−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
x(t) debe tener un numero de discontinuidades finitas dentro de un intervalo finito. Con-
traejemplo:
1/2 3/4 7/8 1 t
x(t)
Esta funcion esta definida para t ∈ [0, 1] y vale x(t) = 1 para t ∈ [0, 1/2] y x(t) = 12n−1 para
t ∈ [2n−1−12n−1 , 2
n−12n ] con n ∈ N, n > 1.
59
1.4. La transformada inversa de Fourier
Dada la senal en el dominio frecuencial X(f), la transformada inversa de Fourier, que denotaremos
x(t) = F−1X(f), se define como
x(t) =
∫ +∞
−∞X(f)ej2πftdf (5)
y nos permite recuperar la senal temporal.
Para comprobarlo, calculemos primero∫ +∞−∞ ej2πftdf . El calculo es el siguiente
∫ +∞
−∞ej2πftdf = lım
W→∞
[∫ W
−Wej2πftdf
]
= lımW→∞
[
ej2πft
j2πt
∣
∣
∣
∣
W
−W
]
(6)
= lımW→∞
[
sin 2πWt
πt
]
= lımW→∞
[2W sinc(2Wt)] = δ(t)
donde vemos que la suma de todos los tonos posibles (de cualquier frecuencia) da como resultado una
delta.
A partir de aquı, podemos decir
h(t) = T [δ(t)] = T [
∫ +∞
−∞ej2πftdf ] =
(
si el sistema
es lineal
)
=
∫ +∞
−∞T [ej2πft]df (7)
Es decir, de la misma forma que la integral de convolucion era una combinacion lineal de infinitas
respuestas a deltas desplazadas, ahora buscamos la respuesta a una suma (infinita) de senales ex-
ponenciales. Pero ya hemos visto antes que la exponencial es una autofuncion del sistema, es decir
T [ej2πft] = H(f)ej2πft, ası que nos queda
h(t) =
∫ +∞
−∞H(f)ej2πftdf (8)
llegando entonces a la definicion de la transformada inversa de Fourier.
2. Transformada de senales basicas
1. Transformada de δ(t):
Fδ(t) =
∫ +∞
−∞δ(t)e−j2πftdt =
∫ +∞
−∞δ(t)dt = 1 (9)
De forma compacta, escribiremos las transformadas como x(t) ←→ X(f). Ası pues, para este
caso nos queda:
δ(t)←→ 1 (10)
2. Transformada de δ(t − t0):
Fδ(t − t0) =
∫ +∞
−∞δ(t − t0)e
−j2πftdt =
∫ +∞
−∞δ(t− t0)e
−j2πft0dt = e−j2πft0 (11)
60
Si lo expresamos como modulo y fase, vemos que X(f) = |X(f)|ejϕX (f) = 1 ej(−2πt0f). Por lo
tanto se trata de una senal en frecuencia de modulo constante 1 y de fase lineal con pendiente
−2πt0.
De forma compacta escribimos:
δ(t− t0)←→ e−j2πft0 (12)
3. Transformada de la senal constante x(t) = A:
FA =
∫ +∞
−∞Ae−j2πftdt = A lım
T→∞
[∫ T
−Te−j2πftdt
]
= Aδ(f), (13)
donde la integral se calcula tal y como hemos visto para la transformada inversa. Fijemonos que
existe una cierta “dualidad” en la transformada de Fourier: la transformada de la delta es una
constante y la de una constante es una delta.
De forma compacta escribimos:
A←→ Aδ(f) (14)
4. Transformada de h(t) = e−αtu(t) con α > 0 (en caso contrario la integral no converge):
Fe−αtu(t) =
∫ +∞
−∞e−αtu(t)e−j2πftdt =
∫ +∞
−∞e−(j2πf+α)tu(t)dt (15)
=
∫ +∞
0e−(j2πf+α)tdt =
e−(α+j2πf)t
−(α+ j2πf)
∣
∣
∣
∣
+∞
0
=1
α+ j2πf
Si descomponemos en modulo y fase obtenemos
|H(f)| =1
√
α2 + (2πf)2, ϕH(f) = − arc tg
2πf
α(16)
f
|H(f)|1
α
α
2π−
α
2π
1√
2α
f
90º
-90º
ϕH(f)
Como vemos, se trata de un filtro paso-bajo. Fijemonos, ademas, que H(f) es una funcion
hermıtica, es decir H(f) = H∗(−f). Esto quiere decir que la parte real es una funcion par y la
parte imaginaria impar, o bien, como vemos en las graficas, que el modulo es una funcion par y
la fase una funcion impar.
De forma compacta escribimos:
e−αtu(t)←→1
α+ j2πf(17)
61
5. Transformada de h(t) = e−α|t| (tambien con α > 0):
Fe−α|t| =
∫ +∞
−∞e−α|t|e−j2πftdt =
∫ 0
−∞e(α−j2πf)tdt+
∫ +∞
0e−(j2πf+α)tdt (18)
=1
α− j2πf+
1
α+ j2πf=
2α
α2 + (2πf)2
En este caso, el modulo tiene una forma parecida al caso anterior pero con un decaimiento mas
rapido, ya que para f = α/2π el modulo decae a la mitad de su maximo. En cambio, la fase
permanece constante a 0 ya que la transformada es real. Fijemonos que hemos pasado de una
senal real y par en el dominio del tiempo a otra tambien real y par en el dominio frecuencial.
De forma compacta escribimos:
e−α|t| ←→2α
α2 + (2πf)2(19)
6. Transformada de x(t) = AΠ(
tT
)
:
F
A Π
(
t
T
)
=
∫ +∞
−∞A Π
(
t
T
)
e−j2πftdt =
∫ +T/2
−T/2A Π
(
t
T
)
e−j2πftdt = (20)
= Ae−j2πft
−j2πf
∣
∣
∣
∣
+T/2
−T/2
= Ae−j2πfT/2 − ej2πfT/2
−j2πf=
=AT sinπfT
πfT= AT sinc(fT )
Aquı volvemos a ver como una senal real y par se convierte en otra tambien real y par, por lo
que con solo representar la parte real sera suficiente. Alternativamente, podemos representar el
modulo (valor absoluto de la sinc) y la fase (que tomara valores 1 o -1). En este caso, ademas,
observamos como a medida que x(t) se ensancha en tiempo, X(f) se estrecha en frecuencia y
viceversa.
f
x(t)
t
A
T/2-T/2
X(f)
1
T
2
T
AT
De forma compacta escribimos:
AΠ
(
t
T
)
←→ AT sinc(fT ) (21)
62
3. Propiedades de la transformada de Fourier
Son extremadamente utiles ya que nos proporcionan una serie de herramientas que nos ayudaran
enormemente en el analisis frecuencial de los sistemas. Veremos un total de 11 propiedades, algunas
de las cuales ya nos han salido en transformada de Laplace. No obstante, en transformada de Fourier
tenemos alguna mas, lo que se traduce en mas posibilidades para el analisis.
1. Linealidad:
Partimos de
x1(t)←→ X1(f)
x2(t)←→ X2(f)
Entonces se cumple que
α1x1(t) + α2x2(t)←→ α1X1(f) + α2X2(f)
lo cual se comprueba facilmente a traves de la definicion de la transformada de Fourier y viene
dado por el hecho de que la integral es una operacion lineal.
2. Simetrıas:
Vemos dos tipos de simetrıa basicos en la transformada de Fourier, que son:
a) La transformada de Fourier conserva la paridad, es decir
x(t) es par ←→ X(f) es par
x(t) es impar ←→ X(f) es impar
Comprobacion: en el caso de x(t) par, partimos de la definicion deX(f) =∫ +∞−∞ x(t)e−j2πftdt
y calculamos X(−f) teniendo en cuenta que se cumple x(t) = x(−t),
X(−f) =
∫ +∞
−∞x(t)e−j2π(−f)tdt =
∫ +∞
−∞x(−t)e−j2πf(−t)dt =
t′ = −t
dt′ = −dt
=
= −
∫ −∞
+∞x(t′)e−j2πft′dt′ = X(f)
b) Ademas, se cumple tambien
x(t) es real ←→ X(f) es hermıtica
x(t) es imaginaria ←→ X(f) es antihermıtica
Aclaracion:
X(f) es hermıtica si se cumple X(f) = X∗(−f), es decir, que tiene parte real par y parte
imaginaria impar. Tambien podemos decir que tiene modulo par, |X(f)| = |X(−f)|, y fase
impar, ϕX(f) = −ϕX(−f).
X(f) es antihermıtica si se cumple X(f) = −X∗(−f), es decir, que tiene parte real impar
y parte imaginaria par. Alternativamente, podemos decir que el modulo |X(f)| es par,
|X(f)| = |X(−f)|, y la fase cumple ϕX(f) = −ϕX(−f) + π.
63
Estas dos son las simetrıas basicas que existen, pero tambien las podemos combinar, por ejemplo:
a) x(t) es real y par −→ X(f) es real y par
Comprobacion: Por ser x(t) par, podemos afirmar que X(f) = X(−f). Por ser x(t) real,
podemos afirmar que X(f) = X∗(−f). Juntando ambas, tenemos que X(f) debe ser par en
parte real e impar en parte imgainaria y ademas debe ser par (tanto en parte real como en
parte imaginaria). La unica opcion para cumplir ambas condiciones es que ImX(f) = 0
y por lo tanto debe ser una senal real (y par, por supuesto).
b) x(t) es real e impar −→ X(f) es imaginario puro e impar
3. Retardo:
Partimos de la relacion x(t)←→ X(f) y aplicamos un retardo t0 a la senal temporal. Entonces
obtenemos la siguiente relacion:
x(t− t0)←→ e−j2πft0X(f) (22)
Comprobacion:
Fx(t− t0) =
∫ +∞
−∞x(t− t0)e
−j2πftdt =
t′ = t− t0dt′ = dt
=
∫ +∞
−∞x(t′)e−j2πf(t′+t0)dt′
= e−j2πft0
∫ +∞
−∞x(t′)e−j2πft′dt′ = e−j2πft0X(f)
Por lo tanto, un retardo conserva el modulo de la senal pero anade una fase linial en f de valor
−2πt0f .
4. Cambio de escala:
Partimos de la relacion x(t) ←→ X(f) y aplicamos un escalado por a a la senal temporal.
Entonces obtenemos la siguiente relacion:
x(at)←→1
|a|X
(
f
a
)
(23)
Comprobacion: directamente a traves de la definicion como en el caso del retardo.
Con este resultado se extiende la observacion que hemos hecho para el pulso rectangular a
cualquier senal, es decir, un estrechamiento en tiempo supone un ensanchamiento en frecuencia
y viceversa.
5. Teorema de convolucion:
Es muy util (como ya hemos visto en Laplace) y nos dice
y(t) = x(t) ∗ h(t)←→ Y (f) = X(f) ·H(f), (24)
o sea, la convolucion de dos senales en el dominio temporal se traduce en el producto de ambas
senales en el dominio transformado. Notese que resulta mucho mas facil hacer un producto que
una convolucion.
64
Comprobacion:
Teniendo en cuenta que x(t) =∫ +∞−∞ X(f)ej2πftdf
y(t) = T [x(t)] = T
[∫ +∞
−∞X(f)ej2πftdf
]
=
(
si el sistema
es lineal
)
=
∫ +∞
−∞X(f)T
[
ej2πft]
df
=
(
la exponencial es
autofuncion del sistemal
)
=
∫ +∞
−∞X(f)H(f)ej2πftdf
Por otro lado, tenemos que
y(t) =
∫ +∞
−∞Y (f)ej2πftdf,
con lo que, identificando terminos en las dos expresiones anteriores, llegamos a la conclusion que
Y (f) = X(f)H(f).
6. Dualidad:
Partimos de la relacion x(t)←→ X(f) y nos preguntamos cual es la transformada de Fourier de
una senal que en tiempo tenga la forma de X(f). Llegamos entonces al siguiente resultado:
x(t)←→ X(f)
X(t)←→ x(−f)(25)
Es decir, si cogemos X(f) y la reinterpretamos como una senal temporal X(t), entonces su
transformada tiene la misma forma que x(t) pero girada, esto es, x(−f).
Comprobacion:
Hay que ver que transformar x(t) nos da la misma senal que antitransformar x(−f). Nos fijamos
en la forma de la senal, indpendientemente de si la variable es t o f . La primera transformacion
es inmediata, y cambiaremos la variable f por α para no confundirnos, esto es
Fx(t) =
∫ +∞
−∞x(t)e−j2πftdt −→ α = f −→ X(α) =
∫ +∞
−∞x(t)e−j2παtdt (26)
Ahora antitransformamos x(−f), cambiando t por α como antes, esto es
F−1x(−f) =
∫ +∞
−∞x(−f)ej2πftdf −→
∫ +∞
−∞x(−f)ej2πfαdf = f ′ = −f (27)
=
∫ +∞
−∞x(f ′)e−j2πf ′αdf ′ = X(α)
Vemos, pues, que ambas senales son identicas. Es muy importante, en este caso, no dar sentido
fısico a las variables f y t, solo sentido matematico como variables.
Ejemplo de aplicacion: calcular la transformada de Fourier de x(t) = sinc(Wt).
En este caso podemos usar dualidad ya que sabemos que la transformada de un pulso rectangular
es una sinc, o sea, Π(
tW
)
←→W sinc(fW ). Ası pues, tenemos
Π(
tW
)
←→W sinc(fW )
W sinc(tW )←→ Π(
−fW
) (28)
65
Aplicando la propiedad de linealidad y teniendo en cuenta que la funcion pulso es par, llegamos
finalmente a
sinc(tW )←→1
WΠ
(
f
W
)
(29)
7. Desplazamiento frecuencial (modulacion):
Esta propiedad es la dual del desplazamiento en tiempo y nos dice
x(t) ←→ X(f) (30)
x(t)ej2πf0t ←→ X(f − f0) (31)
Comprobacion:
Fx(t)ej2πf0t =
∫ +∞
−∞x(t)ej2πf0te−j2πftdt =
∫ +∞
−∞x(t)e−j2π(f−f0)tdt = X(f − f0)
Ejemplo de aplicacion 1: Encontrar la transformada de cos (2πf0t) y de sin (2πf0t)
Sabiendo que la transformada de 1 es δ(f), entonces tenemos
cos (2πf0t) =1
2
(
ej2πf0t + e−j2πf0t)
−→1
2δ(f − f0) +
1
2δ(f + f0) (32)
De la misma manera,
sin (2πf0t) =1
2j
(
ej2πf0t − e−j2πf0t)
−→1
2jδ(f − f0)−
1
2jδ(f + f0) (33)
Ejemplo de aplicacion 2: Circuito modulador
x(t) X y(t) = x(t) cos(2πf0t)
cos(2πf0t)
La senal de salida en el dominio de la frecuencia es
F x(t) cos(2πf0t) = F
1
2x(t)ej2πf0t +
1
2x(t)ej2πf0t
=1
2X(f − f0) +
1
2X(f + f0) (34)
que graficamente corresponde a
f
X(f)
X
cos(2πf0t)
f
Y (f)
f0−f0
La modulacion de senales es lo que nos permite transmitir varias de ellas en un mismo tiempo si
estas se encuentran separadas en frecuencia. Por ejemplo, esto es lo que se hacıa en la television
analogica para transmitir la senal de audio y la de video simultaneamente.
66
8. Integracion:
De manera semejante a la transformada de Laplace tenemos:
x(t) ←→ X(f) (35)∫ t
−∞x(τ)dτ ←→
X(f)
j2πf+
1
2X(0)δ(f)
Comprobacion:
Basta con ver que∫ t−∞ x(τ)dτ = x(t) ∗ u(t). Conociendo la transformada del escalon U(f) =
1j2πf + 1
2δ(f), podemos hacer la transformada que buscamos como el producto X(f)U(f).
9. Derivacion:
Tambien de manera parecida a la transformada de Laplace tenemos:
x(t) ←→ X(f) (36)
d
dtx(t) ←→ X(f)j2πf
Comprobacion:
d
dtx(t) =
d
dt
[∫ +∞
−∞X(f)ej2πftdf
]
=
∫ +∞
−∞
d
dt
X(f)ej2πft
df (37)
=
∫ +∞
−∞X(f) j2πf ej2πftdf = F−1 X(f) j2πf
10. Transformada del producto (enventanamiento):
Esta propiedad es la recıproca de la de convolucion y nos dice:
x(t) ←→ X(f) (38)
y(t) ←→ Y (f)
x(t) · y(t) ←→ X(f) ∗ Y (f)
Comprobacion:
Fx(t) y(t) =
∫ +∞
−∞x(t)y(t)e−j2πftdt =
∫ +∞
−∞x(t)
[∫ +∞
−∞Y (υ)ej2πυtdυ
]
e−j2πftdt (39)
=
∫ +∞
−∞Y (υ)
[∫ +∞
−∞x(t)e−j2πftej2πυtdt
]
dυ
=
∫ +∞
−∞Y (υ)
[∫ +∞
−∞x(t)e−j2π(f−υ)tdt
]
dυ
=
∫ +∞
−∞Y (υ)X(f − υ)dυ = Y (f) ∗X(f)
67
11. Teorema de Parseval:
El teorema de Parseval nos dice que si tenemos las siguientes relaciones,
x(t) ←→ X(f) (40)
y(t) ←→ Y (f)
entonces se cumple que
∫ +∞
−∞x(t) y∗(t) dt =
∫ +∞
−∞X(f)Y ∗(f) df (41)
No obstante, habitualmente se emplea el teorema de Parseval para una misma senal. Es decir,
si x(t) = y(t), entonces se cumple que
∫ +∞
−∞|x(t)|2dt =
∫ +∞
−∞|X(f)|2df, (42)
que es equivalente a decir que la energıa de la senal es la misma en ambos dominios. Esto nos
sera especialmente util para tratar la energıa y la potencia de las senales en el siguiente tema.
Comprobacion:
∫ +∞
−∞x(t)y∗(t)dt =
∫ +∞
−∞
[∫ +∞
−∞X(f)ej2πftdf
]
y∗(t)dt (43)
=
∫ +∞
−∞X(f)
[∫ +∞
−∞y∗(t)ej2πftdt
]
df
Hacemos primero la integral temporal, que es
∫ +∞
−∞y∗(t)ej2πftdt =
∫ +∞
−∞
(
y(t)e−j2πft)∗
dt =
[∫ +∞
−∞y(t)e−j2πftdt
]∗
= Y ∗(f) (44)
y sustituyendo en (43) llegamos al resultado anunciado.
Nota: en (44) no estamos haciendo Fy∗(t). Se puede ver que Fy∗(t) = Y ∗(−f) (para
deducir este ultimo caso seguirıamos la misma argumentacion pero, ademas, haciendo el cambio
de variables f ′ = −f).
68
4. Limitacion en frecuencia (fenomeno de Gibbs) y limitacion en
tiempo (enventanado)
En esta parte del tema vemos que sucede cuando se limita el ancho de banda de la senal y que su-
cede cuando se limita la duracion temporal de la senal.
Aclaracion sobre ancho de banda: Para una senal en banda base, es decir, que no ha sido modu-
lada (trasladada en frecuencia), consideraremos Bx = fx,max−0 = fx,max, o sea, la maxima frecuencia
positiva. En cambio, si una senal en banda base se traslada en frecuencia, entonces consideramos
By = fy,max+ − fy,min+ , o sea, la diferencia entre las frecuencias maxima y mınima (positivas). Por
ejemplo:
f
X(f)
X
cos(2πf0t)
f
Y (f)
f0−f0Bx
By
4.1. Limitacion en frecuencia - fenomeno de Gibbs
La limitacion en banda de una senal se aprecia sobretodo en las discontinuidades que esta pueda
presentar y por este motivo ahora nos centramos en el estudio de esta situacion. Supongamos que
tenemos una senal x(t) con una sola discontinuidad (de salto finito) en t0. Dicha senal se puede
descomponer en
x(t) = xc(t) +[
x(t+0 )− x(t−0 )]
u(t− t0) (45)
donde xc(t) es una senal continua a la cual anadimos un escalon que empieza en t0 y con amplitud
correspondiente al salto de la discontinuidad. Graficamente estamos haciendo:
tt0tt0
tt0
+=
xc(t)x(t) [x(t+0 )− x(t−0 )]u(t− t0)
∆x∆x
A partir de ahora, consideraremos por simplicidad y sin perdida de generalidad que t0 = 0. Por lo
tanto tenemos:
x(t) = xc(t) + ∆xu(t)←→ X(f) = Xc(f) + ∆xF u(t) (46)
Ahora limitamos la senal en banda, es decir, eliminamos las componentes frecuenciales |f | > B
usando un filtro paso-bajo ideal, es decir:
69
x(t) y(t) = x(t) ∗ h(t)
f
H(f)
B−B
X(f)
f
|X(f)||Y (f)|
fB−B
Y (f) = X(f) ·Π(
f2B
)
Ası pues, obtenemos
Y (f) = X(f) ·Π
(
f
2B
)
= Xc(f) · Π
(
f
2B
)
+∆xFu(t)Π
(
f
2B
)
(47)
Para simplificar el analisis, supondremos que Xc(f) tiene un ancho de banda inferior a B, con lo que
nos queda
Y (f) = X(f) · Π
(
f
2B
)
= Xc(f) + ∆xFu(t)Π
(
f
2B
)
(48)
y desde el punto de vista temporal tenemos
y(t) = F−1Y (f) = xc(t) + ∆x [u(t) ∗ 2Bsinc(2Bt)] (49)
Aquı vemos que la senal x(t), una vez limitada en frecuencia, se puede descomponer en xc(t) y yd(t) =
∆x [u(t) ∗ 2Bsinc(2Bt)], es decir, la parte correspondiente al pulso que ha generado la discontinuidad
pero limitado en banda. Veamos lo que vale esta parte de la senal:
yd(t) = ∆x [u(t) ∗ 2Bsinc(2Bt)] = ∆x
∫ +∞
−∞2Bsinc(2Bτ)u(t − τ)dτ = ∆x
∫ t
−∞2Bsinc(2Bτ)dτ (50)
Dicha integral se puede calcular numericamente, obteniendo el siguiente resultado:
∆x 2Bsinc(2Bτ)
∆x 2B
τ
1
2B
2
2B
∫t
−∞()dτ
t
t
1
2B
2
2B
t
∆x
2
∆x
yd(t)
En otras palabras, la transicion abrupta del pulso se suaviza y aparece un rizado adicional. A conti-
nuacion resumimos las conclusiones que se extraen de este estudio.
70
Efectos de la limitacion en banda cuando la senal presenta discontinuidades finitas.
Fenomeno de Gibbs.
1. Aparece un rizado alrededor de la discontinuidad que se suaviza a medida que nos alejamos
de esta. Los maximos y mınimos se alternan en los multiplos de 1/2B, encontrado el maximo
absoluto en 1/2B y el mınimo absoluto en −1/2B.
2. El flanco de subida se suaviza, siendo el tiempo de subida ts ≈12B .
3. En el punto de discontinuidad se observa el valor medio del salto, es decir, yd(0) = ∆x/2.
4. Si aumentamos el ancho de banda B observamos:
a) La amplitud maxima y mınima del rizado no cambian, aunque se den mas cerca de la
discontinuidad.
b) Solo en el caso lımite con ancho de banda infinito (no se da en la practica) la sinc degenerarıa
en una delta y no habrıa distorsion de la senal.
Ya por ultimo, comentar que si la limitacion en frecuencia se hiciera con un filtro de forma triangular
como el de la figura, un analisis parecido nos llevarıa a las siguientes conclusiones:
1. El rizado desaparece.
2. El valor en el punto de la discontinuidad se mantiene a yd(0) = ∆x/2.
3. El tiempo de subida aumenta a ts ≈1B .
f
H(f)
B−B
1
2B
2
2B
t
∆x
2
∆x
yd(t)
4.2. Limitacion en tiempo - enventanado
Ahora nos encontramos ante la situacion dual a la anterior. Supondremos que tenemos una senal
x(t) y la limitamos en tiempo, es decir, cogemos los valores correspondientes a |t| ≤ T/2. Notese
que en la practica siempre existira algun tipo de enventanado. Entonces, a partir de la senal x(t)
expresaremos la senal enventanada en tiempo como:
xT (t) = x(t) · Π
(
t
T
)
(51)
71
Desde el punto de vista frecuencial, esto se traduce en:
XT (f) = FxT (t) = X(f) ∗ T sinc(Tf) (52)
Vemos entonces que el enventanado provoca una distorsion de la senal original, que sera tanto menor
como mayor sea T ya que la sinc tiende entonces a convertirse en una delta. Para ver los efectos de
la limitacion en tiempo, apliquemos el resultado anterior a senales de tipo coseno. Empecemos con
x(t) = A0 cos (2πf0t) por su sencillez en el dominio frecuencial: se trata de dos deltas, una a f0 y otra
a −f0. Su version enventanada es
XT (f) = A0
[
1
2δ(f − f0) +
1
2δ(f + f0)
]
∗ T sinc(fT ) =A0T
2sinc (T (f − f0)) +
A0T
2sinc (T (f + f0))
(53)
es decir, dos sincs centradas a f0 y −f0.
Consideremos ahora dos cosenos distintos, es decir, x(t) = A0 cos (2πf0t) +A1 cos (2πf1t). Esta senal
enventanada y vista desde el dominio frecuencial es
XT (f) =A0T
2sinc (T (f − f0)) +
A1T
2sinc (T (f − f1)) +
A0T
2sinc (T (f + f0)) +
A1T
2sinc (T (f + f1))
(54)
Graficamente tenemos:
f
f0−f0−f1 f1
A0T
2
A1T
2
f2−f2
Notese que se han dibujado las 4 sincs sin sumar y que el resultado final serıa la suma de todo. No
obstante, esta representacion nos es util para extraer las siguientes conclusiones:
1. Aparece un lobulo principal y una serie de lobulos secundarios relacionados con cada una de las
deltas, o sea, cada frecuencia singular. Esto es ası para la ventana rectangular y tambien para
otras alternativas, aunque la forma sera distinta.
2. El ancho del lobulo principal determinara la resolucion del sistema, es decir, cual es la capacidad
de distinguir el coseno a f0 del que esta a f1. Notese que, dado un ancho de lobulo principal,
existe una separacion mınima de las frecuencias a partir de la cual es imposible distinguir los
dos tonos ya que veremos un solo pico.
3. El nivel de los lobulos secundarios determinara como el contenido a una frecuencia enmascara
el contenido a otras frecuencias. Por ejemplo, si hubiera un coseno con amplitud mucho menor
que A1 en la frecuencia f2 (ver figura), se verıa enmascarado por el lobulo secundario del coseno
a f1.
72
Alternativamente, tambien podemos hacer uso de los resultados obtenidos en la parte de limitacion
en banda (se trata de la situacion dual). En otras palabras, si quisieramos sintetizar una senal en el
dominio frecuencial con discontinuidades y buscaramos hacerlo a traves de un sistema con respuesta
impulsional finita en el tiempo, entonces lo dicho anteriormente valdrıa aquı tambien. Por ejemplo,
supongamos que queremos sintetizar un pulso rectangular en frecuencia y tuvieramos dos opciones:
ventana rectangular o triangular en tiempo (la primera tiene el lobulo principal mas estrecho pero un
nivel de lobulos secundarios mayor). Entonces, con ventana rectangular generarıamos una respuesta
con transiciones mas rapidas pero con rizado. En cambio, con la venta triangular eliminarıamos el
rizado pero las transiciones serıan mas lentas.
Nota: En funcion de la aplicacion nos interesara una u otra ventana ya que siempre hay un com-
promiso en sus parametros. Notese que si mantenemos la energıa de la ventana a nivel temporal,
definida como∫ +∞−∞ |x(t)|
2dt, esta debe ser la misma en el dominio frecuencial por Parseval y por lo
tanto, si bajamos los lobulos secundarios (les quitamos energıa) es logico que aumente el grosor del
lobulo principal.
Finalmente, la siguiente tabla contiene los parametros de 3 ventanas de uso habitual:
Parametro Rectangular Triangular Hamming
Ancho lobulo principal 2/T 4/T 4/T
Ancho de banda a -3dB 0, 85/T 1, 25/T 1, 3/T
Relacion lobulo principal a secundarios 13dB 26dB 43dB
5. Transformada de Fourier de senales periodicas
Antes de estudiar la transformada de Fourier de una senal periodica, buscaremos un resultado
intermedio necesario para ello, la transformada de Fourier de un tren de deltas.
5.1. Transformada de un tren de deltas
Consideremos el siguiente tren de deltas en tiempo, Pδ(t) =∑+∞
n=−∞ δ(t− nT ).
t
Pδ(t)
T 2T 3T−3T −2T −T
Dado que Pδ(t) se puede expresar como Pδ(t) = lımN→+∞∑+N
n=−N δ(t−nT ), nos concentramos primero
en calcular la transformada del tren de deltas “finito”.
73
F
+N∑
n=−N
δ(t− nT )
=+N∑
n=−N
e−j2πfnT =e−j2πfT (N+1) − e−j2πfT (−N)
e−j2πfT − 1(55)
=e−j2πf T
2
[
e−j2πfT (N+ 1
2) − e−j2πfT (−N− 1
2)]
e−j2πf T2
[
e−j2πfT 1
2 − e+j2πfT ( 12)] =
sin(
2πfT [N + 12 ])
sin (πfT )
Nota: La suma de la serie geometrica que hemos hecho resulta de
N∑
n=−N
rn =
2N∑
n=0
rn−N = r−N2N∑
n=0
rn = r−N 1− r2N+1
1− r=
rN+1 − r−N
r − 1(56)
Veamos ahora como es la funcion que hemos obtenido. En concreto, nos damos cuenta de que:
Los zeros en el denominador deben cumplir πfT = nπ y por lo tanto, se encuentran a multiples
de 1/T , es decir, para f = n/T con n ∈ Z.
Los zeros en el numerador deben cumplir 2πfT[
N + 12
]
= kπ y por lo tanto, se encuentran para
f = kT (2N+1) con k ∈ Z.
Ademas, vemos que cuando hay un cero en el denominador, el numerador tambien vale cero. Si
resolvemos esta indeterminacion, por ejemplo usando la regla de Hopital, vemos que el valor en f = n/T
es
F
+N∑
n=−N
δ(t− nT )
∣
∣
∣
∣
f=n/T
=2πT
[
N + 12
]
cos(
2πfT[
N + 12
])
πT cos (πfT )
∣
∣
∣
∣
f=n/T
=2πT
[
N + 12
]
πT= 2N + 1
(57)
Dibujemos la funcion (cogemos T = 1 y N = 9):
−1.5 −1 −0.5 0 0.5 1 1.5−5
0
5
10
15
20
¿Que sucede cuando N −→ ∞? De entrada, vemos que los maximos de la funcion crecen hacia
infinito y que el rizado a su alrededor se compacta (notese que los “ceros” se encuentran a multiplos
74
de 1/(2N + 1)). Ası pues, llegamos a un tren de deltas en frecuencia que estan separadas 1/T . No
obstante, para poder caracterizar bien las deltas nos falta un detalle, que es saber cuanto vale su
integral. Cojamos pues (55) e integremos en un periodo,
∫ 1/2T
−1/2T
sin(
2πfT [N + 12 ])
sin (πfT )df =
∫ 1/2T
−1/2T
N∑
n=−N
e−j2πnTfdf =N∑
n=−N
−1
j2πnTe−j2πnTf
∣
∣
∣
∣
1/2T
−1/2T
(58)
=
N∑
n=−N
−1
j2πnT
[
e−jπn − ejπn]
=
N∑
n=−N
sin (πn)
πnT
=
N∑
n=−N
1
Tsinc(n) =
1
T
y vemos que el resultado es independiente de N .
Esto nos lleva al siguiente resultado final,
F
+∞∑
n=−∞
δ(t− nT )
= F
lımN→∞
N∑
n=−N
δ(t− nT )
=1
T
+∞∑
m=−∞
δ(
f −m
T
)
(59)
es decir, un tren de deltas separadas T en tiempo se corresponde a un tren de deltas separadas 1/T
en frecuencia.
Con este resultado ya podemos estudiar la transformada de Fourier de una senal periodica.
5.2. Transformada de una senal periodica
Consideremos una senal periodica cualquiera x(t) con periodo de repeticion T como la de la figura:
tT
x(t)
xb(t)
Vemos que x(t) se puede interpretar como la repeticion de una senal basica xb(t), la cual tiene duracion
T , o sea, el periodo de repeticion. Matematicamente:
x(t) =+∞∑
n=−∞
xb(t−nT ) =+∞∑
n=−∞
xb(t)∗ δ(t−nT ) =
(
prop. distrib.
convolucion
)
= xb(t)∗+∞∑
n=−∞
δ(t−nT ) (60)
Pasando al dominio transformado obtenemos
X(f) = Xb(f)1
T
+∞∑
m=−∞
δ(
f −m
T
)
=1
T
+∞∑
m=−∞
Xb
(m
T
)
δ(
f −m
T
)
(61)
75
donde Xb(f) = Fxb(t).
Aunque nos resultara mucha mas util esta transformacion y es la que emplearemos habitualmente,
tambien es cierto que podrıamos haber hecho la transformacion como
X(f) =+∞∑
n=−∞
Xb(f)e−j2πfnT (62)
Volviendo al primer caso, observamos que:
1. La transformada de Fourier de una senal periodica tiene la forma de un tren de deltas.
2. Depende esencialmente de la transformada de la senal basica Xb(f) y del periodo T .
Ejemplo: calcular la transformada de Fourier de x(t) =∑+∞
n=−∞Π(
t−nTT/2
)
.
En primer lugar nos dibujamos la senal: Luego representamos x(t) a partir de la senal basica, que
tT
x(t)xb(t)
T/2
en este caso es xb(t) = Π(
tT/2
)
, obteniendo x(t) = Π(
tT/2
)
∗∑+∞
n=−∞ δ(t−nT ). Finalmente, pasamos
al dominio transformado:
X(f) =T
2sinc(f
T
2)1
T
+∞∑
m=−∞
δ(
f −m
T
)
(63)
Vemos que nos queda una sinc con ceros a multiples de 2/T multiplicando al tren de deltas, es decir:
f
X(f)
2/T 4/T
Fijemonos que, en este caso en particular, las deltas situadas a las multiplos pares de 1/T desaparecen
ya que son anuladas por la ceros de la sinc. Si hicieramos el pulso cuadrado mas estrecho, por ejemplo
de duracion T/4, entonces la sinc se ensancharıa (el primer cero estarıa en 4/T ) y el lobulo principal
pasarıa de contener 3 deltas a 7, ası como cada uno de los lobulos secundarios pasarıan de contener 1
delta a 3.
76
5.3. Series de Fourier
La series de Fourier nos permiten aproximar senales periodicas en el dominio del tiempo como
combinacion lineal de exponenciales complejas o, alternativamente, de senos y cosenos. Los coeficien-
tes que acompanan a estas funciones “base” son los denominados coeficientes de Fourier y para que
una senal se pueda aproximar con series de Fourier se deben cumplir una serie de condiciones. En
particular, son condiciones suficientes pero no necesarias para que exista serie de Fourier las mismas
que aplican para la transformada de Fourier sobre la senal basica xb(t) y que ya hemos visto.
A continuacion se obtiene la serie de Fourier de una senal periodica como antitransformada de X(f).
Esto es:
F−1 X(f) = F−1
1
T
+∞∑
m=−∞
Xb
(m
T
)
δ(
f −m
T
)
=+∞∑
n=−∞
Xb
(
nT
)
Tej2πt
nT =
+∞∑
n=−∞
cnej2πt n
T (64)
donde identificamos cn =Xb( n
T )T con el n-esimo coeficiente de Fourier. Como vemos, hemos consegui-
do representar la senal x(t) como suma o serie de exponenciales complejas ej2πtnT en el tiempo, de
frecuencia fn = nT , y ponderadas por los coeficientes de Fourier. Normalmente llamamos frecuencia
fundamental f0 = 1/T y armonicos a las otras frecuencias fn = nf0. Resumiendo, la serie de Fourier
nos permite aproximar la senal periodica x(t) segun:
x(t) =+∞∑
n=−∞
cnej2πt n
T (65)
Si desarrollamos un poco vemos que los coeficientes de Fourier se calculan:
cn =Xb
(
nT
)
T=
Xb(f)
T
∣
∣
∣
∣
f=mT
=1
T
∫ +∞
−∞xb(t)e
−j2πftdt
∣
∣
∣
∣
f=mT
=1
T
∫
<T>x(t)e−j2π n
Ttdt (66)
Cabe destacar que solo hace falta integrar la senal en un periodo cualquiera y por eso escribimos
< T > (no hace falta que sea de −T/2 a T/2). El motivo es que dada la periodicidad de la senal xb(t)
y de e−j2πnf0t, la integral es la misma empecemos donde empecemos siempre y cuando abarquemos
un periodo entero. En otras palabras, si a ∈ [−T/2, T/2], entonces:
cn =1
T
∫ a+T
ax(t)e−j2π n
Ttdt (67)
Comprobacion:
∫ a+T
ax(t)e−j2π n
Ttdt =
∫ T/2
ax(t)e−j2π n
Ttdt+
∫ a+T
T/2x(t)e−j2π n
Ttdt =
t′ = t− T
dt = dt′
(68)
=
∫ T/2
ax(t)e−j2π n
Ttdt+
∫ a
−T/2x(t′ + T )e−j2π n
T(t′+T )dt′
Ahora, dada la periodicidad tanto de x(t) como de e−j2π nTt, es decir, x(t) = x(t ± kT ) y e−j2π n
Tt =
e−j2π nT(t±kT ), obtenemos
∫ a+T
ax(t)e−j2π n
Ttdt =
∫ T/2
ax(t)e−j2π n
Ttdt+
∫ a
−T/2x(t′)e−j2π n
T(t′)dt′ =
∫ T/2
−T/2x(t)e−j2π n
Ttdt (69)
77
Series de Fourier de senales reales
Las series de Fourier fueron originalmente concebidas para representar senales periodicas reales
como suma de senales senoidales. Aquı hemos llegado a la serie de Fourier a traves de la transformada
y hemos visto que los coeficientes se pueden hallar como cn =Xb( n
T )T = Xb(f)
T
∣
∣
f=mT
. Por lo tanto, se
deben cumplir las mismas propiedades que hemos visto para la transformada de Fourier y en particular,
si xb(t) es real, entonces debe existir simetrıa hermıtica tanto en Xb(f) como en los coeficientes. Esto
es, si definimos cn = an−jbn2 , entonces c−n = an+jbn
2 . Apliquemos este resultado a la serie de Fourier:
+∞∑
n=−∞
cnej2πf0nt = c0 +
+∞∑
n=1
cnej2πf0nt + c−ne
−j2πf0nt (70)
= c0 +
+∞∑
n=1
an − jbn2
(cos (2πf0nt) + j sin (2πf0nt))
+an + jbn
2(cos (2πf0nt)− j sin (2πf0nt))
Teniendo en cuenta que c0 = c−0 (tomando lımites en Xb(f) para f → 0+ y f → 0−, respectivamente)
vemos que necesariamente b0 = 0. Si continuamos operando llegamos a:
x(t) =a02
+
+∞∑
n=1
an cos (2πf0nt) + bn sin (2πf0nt) (71)
con a0 =2T
∫ a+Ta x(t)dt, an = 2
T
∫ a+Ta x(t) cos (2πf0nt)dt y bn = 2
T
∫ a+Ta x(t) sin (2πf0nt)dt.
Comprobacion:
cn =1
T
∫ a+T
ax(t)e−j2π n
Ttdt =
1
T
∫ a+T
ax(t) (cos (2πf0nt)− j sin (2πf0nt)) dt
=1
T
∫ a+T
ax(t) cos (2πf0nt)dt− j
1
T
∫ a+T
ax(t) sin (2πf0nt)dt (72)
Finalmente, identificando (72) con la definicion cn = an2 − j bn
2 llegamos a los resultados deseados.
Ejemplo: encontrar la serie de Fourier de x(t) =∑+∞
n=−∞Π(
t−nTT/2
)
.
En el apartado anterior hemos encontrado la transformada de Fourier de x(t), que era:
X(f) =T
2sinc
(
fT
2
)
1
T
+∞∑
m=−∞
δ(
f −m
T
)
=
+∞∑
m=−∞
1
2sinc
(m
2
)
δ(
f −m
T
)
(73)
Antitransformando obtenemos la serie de Fourier, que es:
x(t) = F−1X(f) =
+∞∑
n=−∞
1
2sinc
(n
2
)
ej2πtnT (74)
78
Alternativamente, dado que cn = 12sinc(
n2 ) y teniendo en cuenta que cn = an−jbn
2 , podemos identificar
an = sinc(n2 ) y bn = 0. Notese que debido a que la senal x(t) es real y par, X(f) es puramente real
(la sinc) y por lo tanto los coeficientes tambien son reales. Esto nos permite escribir la senal tambien
como:
x(t) =1
2+
+∞∑
n=1
sinc(n
2
)
cos (2πf0nt) (75)
Observaciones:
1. El termino a0 nos dice cual es la componente de continua de la senal, es decir, su media. En el
ejemplo de la senal cuadrada con amplitud 1 y ciclo de trabajo del 50%, el termino a0 vale 1/2.
Comprobamos, pues, que se corresponde con la media de la senal.
2. Las series de Fourier nos pueden ser utiles a la hora de calcular sumatorios. Si en el caso anterior
cogemos t = 0, vemos que+∞∑
n=1
sinc(n
2
)
= x(0)−1
2=
1
2(76)
Evidentemente, esto nos servira basicamente para series cuyos elementos tengan la forma de una
transformada conocida. Por ejemplo, si hubiesemos querido calcular∑+∞
n=1 sinc(n2 ) de entrada,
el hecho de que la sinc sea la transformada de un pulso nos habrıa dado la pista para abordar el
sumatorio a traves de la serie de Fourier.
Notese que esto es el equivalente de
x(0) = F−1X(f)∣
∣
t=0=
∫ +∞
−∞X(f)ej2πftdf
∣
∣
∣
∣
t=0
=
∫ +∞
−∞X(f)df (77)
para senales no periodicas.
6. Muestreo
Entendemos por muestreo el hecho de coger una senal continua en el tiempo y quedarnos unica-
mente con los valores de la senal a tiempos multiples de T . Es decir:
t
x(t)
T−T 2T
El proceso de muestreo esta ıntimamente relacionado con lo que habitualmente entendemos por digita-
lizar una senal, que consiste en: i) hacer discreto en tiempo (muestrear) y ii) hacer discreto en amplitud
(cuantificar). Aquı analizaremos que sucede unicamente por el hecho de muestrear una senal x(t) e
intentarla regenerar luego a partir de la senal discretizada en tiempo xd(t). De entrada, la intuicion
nos dice que si muestreamos suficientemente rapido (T suficientemente pequeno) podremos recuperar
x(t) a partid de xd(t). Veamos, pues, que hay de verdad en esta afirmacion.
79
6.1. Espectro de una senal muestreada. Criterio de Nyquist.
Consideremos el siguiente esquema de muestreo ideal con tren de deltas:
X
t
x(t)
T−T 2Tt
T−T 2T
tT−T 2T
∑+∞
n=−∞δ(t− nT )
xd(t)
A nivel temporal tenemos:
xd(t) = x(t)+∞∑
n=−∞
δ(t− nT ) =+∞∑
n=−∞
x(nT )δ(t− nT ) (78)
Esto se traduce al dominio frecuencial como:
Xd(f) = X(f) ∗1
T
+∞∑
m=−∞
δ(
f −m
T
)
=1
T
+∞∑
m=−∞
X(
f −m
T
)
(79)
y por lo tanto se trata de una senal periodica en frecuencia. Si asumimos que x(t) tiene un ancho de
banda limitado a W , la representacion grafica de Xd(f) es:
W−W
1
T−
1
T−
1
2T
1
2T
Xd(f)
f
1
TX(f)
Observando la figura vemos que, para que las replicas de X(f) no se solapen se debe cumplir W < 12T .
Teniendo en cuenta que la frecuencia a la que se ha muestreado la senal es fm = 1T , reescribimos la
condicion anterior como
fm > 2W (80)
tambien conocida como criterio de Nyquist. En otras palabras, para evitar el efecto aliasing (el solapa-
miento o interferencia entre replicas), es necesario muestrear al doble del ancho de banda de la senal.
80
Equivalentemente, definimos la frecuencia de Nyquist fN , que es funcion de fm, como el maximo ancho
de banda que puede tener la senal para que no sufra aliasing una vez muestreada. En otras palabras,
forzando al maximo (80), tenemos
fm = 2fN −→ fN =fm2
(81)
6.2. Recuperacion de x(t) a partir de xd(t). Interpolacion.
En caso de que no haya efecto aliasing, esta claro que limitando el espectro deXd(f) en [−1/2T, 1/2T ]
y escalando por T recuperamos el espectro de la senal original. Esta idea es la que usamos para re-
construirla. En concreto, vemos que:
X(f) = Xd(f)T Π
(
f
1/T
)
(82)
Esto se corresponde con el siguiente sistema cuando H(f) = T Π(
f1/T
)
:
f
H(f)
Xd(f) X(f) = Xd(f)H(f)
x(t) = xd(t) ∗ h(t)xd(t)−
1
2T
1
2T
T
Antitransformando la relacion anterior obtenemos:
F−1Xd(f)T Π
(
f
1/T
)
= xd(t) ∗ T1
Tsinc
(
t
T
)
= xd(t) ∗ sinc
(
t
T
)
(83)
donde hemos usado F−1H(f) = h(t) = sinc(
tT
)
. Desarrollando un poco mas obtenemos:
x(t) =
[
+∞∑
n=−∞
x(nT )δ(t− nT )
]
∗ sinc
(
t
T
)
=
+∞∑
n=−∞
x(nT ) sinc
(
t− nT
T
)
(84)
Esta es la formula de interpolacion con la sinc como funcion de interpolacion. Notese que los valores
de x(t) en los instantes t = nT son iguales que los de xd(t) en t = nT , lo cual es correcto. Veamoslo
en la siguiente figura:
81
t
x(t)
x(T ) x(2T )
Si nos fijamos, por ejemplo, en t = T , vemos que la sinc centrada allı, es decir x(T ) sinc(
t−TT
)
toma
el valor deseado x(T ) mientras que el resto de funciones sinc se anulan en ese punto. Esto mismo
sucede para cualquier otro punto t = nT . Ademas, en los valores de t intermedios, la suma de sincs
nos devolverıa la senal original (en trazo discontinuo en la figura).
No obstante, la funcion de interpolacion ideal (la sinc) no se podra implementar a la practica ya
que se trata de un sistema no causal. En todo caso, habrıa que introducirle un retraso y truncarla
para que h(t) = 0 para t < 0. Otra opcion es usar funciones de interpolacion mas sencillas, como por
ejemplo:
Interpolacion de orden cero: h(t) = Π(
t−T/2T
)
.
Con esta funcion tendremos x(t) ≈∑
n x(nT )Π(
t−T/2−nTT
)
, es decir, mantenemos el valor de
una muestra hasta que llegue la siguiente. La recuperacion de la senal no es muy buena pero es
sencilla.
t
x(t)
x(T ) x(2T )
Interpolacion de primer orden: h(t) = ∆(
tT
)
.
Con esta funcion tendremos x(t) ≈∑
n x(nT )∆(
t−nTT
)
, es decir, entre dos muestras consecutivas
aproximamos la funcion por una recta. Resulta tambien simple de implementar (con un retraso
para que sea causal) y funciona mejor que la anterior.
82
t
x(t)
x(T ) x(2T )
6.3. Implementacion practica
Finalmente, cabe destacar que en la practica se procura evitar el efecto del aliasing a toda costa.
Es por ello que en el caso del muestro, si la senal de entrada x(t) no cumple el criterio de Nyquist, se
coloca un filtro (llamado antialiasing) que limite el ancho de banda de la senal a fm/2. Es preferible
distorsionar la senal quitandole les componentes frecuenciales mas altas que acarrear luego con el
aliasing. Ası pues, el diagrama de bloques de un sistema de muestreo debe ser:
Filtro antialiasing (ancho de banda W)
Muestreo Cuantificación n bitsfm > 2W
Conversor A/D
x(t)
Si queremos recuperar la senal continua a partir de informacion digitalizada, usaremos un bloque
conversor digital a analogico. No obstante, la senal de salida de este bloque (suma de deltas) con-
tendra las replicas no deseadas en frecuencia, por lo que colocaremos, tal y como hemos visto, un filtro
interpolador o reconstructor.
Conversor D/A Filtro interpolador
Ejemplo: importancia de evitar el aliasing.
Consideremos la senal x(t) = cos (2πf0t). Sabemos que si la muestreamos con fm > 2f0 no va-
mos a tener problemas. En cambio, supongamos que la muestreamos a una frecuencia menor, es decir,
f0 > fm/2. Si no colocamos el filtro anti-alisaing, la senal muestreada en frecuencia sera Xd(f) =1T
∑+∞m=−∞X
(
f − mT
)
, que graficamente corresponde a:
83
Xd(f)
f
1
TX(f)
fm−fm −
fm2
fm2
réplicas
H(f)
Si ahora pretendemos recuperar la senal original con el filtro interpolador ideal (sombreado en la fi-
gura), vemos que en realidad estamos recuperando un coseno a frecuencia menor que la original (la
simetrica de f0 respecto a fm/2).
Esto es precisamente lo que esta sucediendo cuando en television vemos las ruedas de un formula
1 girando al reves, tambien llamado efecto estroboscopico. Supongamos que tenemos un cırculo como
el de la figura girando a velocidad constante con periodo T0. Tambien tenemos una lampara estro-
boscopica que ilumina el cırculo durante un breve instante de tiempo (se ve el cırculo quieto) cada Tm
segundos. Segun Nyquist, la frecuencia de muestreo de este sistema, que es 1/Tm, debe ser mayor que
dos veces la frecuencia de rotacion 1/T0 para capturar el movimiento correctamente, o sea, Tm < T0/2.
¿Que sucede si fijamos Tm = 3T0
4 ? Veamoslo en la figura:
T0
Tm
t = 0 t = Tm
t = 2Tm t = 3Tm
Nos parecerıa que gira a la izquierda con un periodo T0 = Tm/4.
84
Tema 5: Correlacion y Espectro de Senales
Deterministas
Antoni Morell y Rosana Rodrıguez
13 de mayo de 2013
1. Energıa y potencia
De electronica sabemos que la potencia instantanea disipada en una resistencia de valor R es
PR(t) = |v(t)|2R , donde v(t) indica la caıda de tension en sus bornes. A partir de ahora asumiremos una
resistencia de valor R = 1Ω y calcularemos la potencia instantanea de una senal cualquiera x(t) como
Pi(t) = |x(t)|2 (1)
En caso de que la senal x(t) corresponda a una tension y la resistencia no sea 1Ω, habra que dividir
por el valor que toque para encontrar la potencia tal y como la entendemos en electronica.
Definiremos la energıa de la senal como la integral (suma) de la potencia instantanea para todo
instante de tiempo, es decir
Ex =
∫ +∞
−∞|x(t)|2dt (2)
y la potencia media de la senal como el promedio temporal de Pi(t) o, lo que es lo mismo, como la
energıa de x(t) por unidad de tiempo calculada segun
Px = lımT→∞
1
T
∫ +T/2
−T/2|x(t)|2dt (3)
Clasificacion de las senales en terminos energeticos
En funcion de los valores que tomen tanto Ex como Px, la senal x(t) sera:
1. Senal de energıa finita: 0 < Ex < +∞.
2. Senal de potencia media finita: 0 < Px < +∞.
3. Senal que no es ni de energıa finita ni de potencia finita.
Los tipos 1 y 2 son excluyentes, es decir, si una senal es de energıa finita no puede ser de potencia
media finita y viceversa. Como ejemplo del grupo 3, podemos considerar x(t) = t−α2 u(t − 1) con
0 < α < 1. En este caso, Ex → +∞ y Px = 0.
85
1.1. Senales de energıa finita
Son todas las senales finitas de duracion finita mas algunas senales de duracion infinita. Como ejem-
plo de este segundo caso tomemos x(t) = e−atu(t) con a > 0, cuya energıa vale Ex =∫ +∞−∞ |x(t)|2dt =∫ +∞
−∞ |e−atu(t)|2dt =∫ +∞
0 e−2atdt = 12a y es, por tanto, finita.
Aprovechemos ahora el teorema de Parseval, que nos iguala la energıa de una senal en el dominio
temporal con su energıa en el dominio frecuencial, para definir la densidad espectral de energıa de la
senal, Sxx(f), que nos indica cual es la distribucion de energıa de una senal a lo largo del eje frecuen-
cial. Las unidades de Sxx(f) seran, pues, en forma de energıa partido frecuencia, o sea, J/Hz. Del
teorema de Parseval vemos que
Ex =
∫ +∞
−∞|x(t)|2dt =
∫ +∞
−∞|X(f)|2df (4)
y por lo tanto |X(f)|2 marca la distribucion de energıa en frecuencia del mismo modo que |x(t)|2marca la distribucion de energıa en tiempo (equivalente a potencia instantanea si se considera una
duracion temporal infinitesimal δt entorno a t). Llegamos pues a:
Sxx(f) = |X(f)|2 (5)
Propiedades de Sxx(f) = |X(f)|2
Son las siguientes:
1. Se trata de una magnitud real, pues es modulo al cuadrado de X(f).
2. Es no negativa (tambien por ser modulo al cuadrado).
3. Si x(t) es real, entonces Sxx(f) es par. Esto es debido a las propiedades de simetrıa de la
transformada de Fourier que nos dicen que para x(t) real se cumple que X(f) = X∗(−f). Dado
que para un numero complejo a es cierto que |a| = |a∗|, resulta facil ver que |X(f)| = |X∗(−f)| =|X(−f)|.
Energıa en un intervalo frecuencial
Supongamos ahora que queremos medir la energıa contenida entre f1 y f2 con f2 > f1. Para
ello filtramos la senal con un filtro paso banda ideal h(t), obteniendo ası y(t) = x(t) ∗ h(t), y luego
medimos la energıa de y(t). Dado que en la practica nos encontramos con la senal x(t) y el sistema
(filtro) h(t) reales, ambos (X(f) y H(f)) tienen simetrıa hermıtica. Esta misma propiedad se cumple
tambien para la senal que queremos medir Y (f) = X(f) ·H(f) ya que sera tambien real en tiempo
(la convolucion de dos senales reales es real). Siguiendo este razonamiento llegamos a
Ex(f1, f2) = Ey =
∫ +∞
−∞|y(t)|2dt =
∫ +∞
−∞|Y (f)|2df =
∫ +∞
−∞|X(f)|2|H(f)|2df (6)
86
Graficamente tenemos:
f
|X(f)|2|H(f)|2
1
f1 f2−f2 −f1
Recordando que |X(f)|2 y |H(f)|2 son pares si provienen de senales reales en tiempo, obtenemos
finalmente
Ex(f1, f2) =
∫ −f1−f2
|X(f)|2df +
∫ f2
f1
|X(f)|2df = 2
∫ f2
f1
|X(f)|2df (7)
Si f2 − f1 = ∆f → 0, entonces Ey ≈ |X(f1)|22∆f , que es lo mismo que decir |X(f1)|2 =Ey
2∆f ,
corroborando de nuevo que |X(f)|2 es densidad espectral de energıa.
1.2. Senales de potencia media finita
Son senales de potencia media finita:
Las senales periodicas (siempre que sean cuadrado integrables en un periodo).
Algunas senales de duracion infinita, como por ejemplo el pulso o la rampa.
Las senales aleatorias, es decir, las correspondientes a procesos estocasticos.
En este tema trataremos solo los dos primeros casos, es decir, las senales periodicas y las no periodicas.
Empecemos por el primero.
Senales periodicas
En las senales periodicas, la potencia (Px = lımT→∞1T
∫ +T/2−T/2 |x(t)|2dt) se puede obtener de dos
maneras distintas:
1. Px = 1T0
∫<T0>
|x(t)|2dt, es decir, como la potencia en un periodo.
2. Px =∑+∞
n=−∞ |cn|2, es decir, como suma de los modulos al cuadrado de sus coeficientes de
Fourier.
Comprobacion de la primera aproximacion:
Definimos T = MT0 con M ∈ N+ e impar y calculamos la potencia a traves de la definicion:
Px = lımT→∞
1
T
∫ +T/2
−T/2|x(t)|2dt = lım
MT0→∞
1
MT0
∫ +M T0/2
−M T0/2|x(t)|2dt (8)
87
Fijemonos que la ultima integral calcula la potencia en M periodos (ver la figura) y por lo tanto,
valdra M veces la integral en un periodo.
t
T0
x(t)
MT0
Ası pues:
Px = lımMT0→∞
1
MT0
∫ +M T0/2
−M T0/2|x(t)|2dt = lım
MT0→∞
1
MT0M
∫ +T0/2
−T0/2|x(t)|2dt =
1
T0
∫ +T0/2
−T0/2|x(t)|2dt (9)
Comprobacion de la segunda aproximacion:
Partimos del resultado anterior y expresamos x(t) en serie de Fourier como x(t) =∑+∞
n=−∞ cnej2π n
T0t.
Desarrollando obtenemos:
Px =1
T0
∫ +T02
−T02
|x(t)|2dt =1
T0
∫ +T02
−T02
x(t)x∗(t)dt =1
T0
∫ +T02
−T02
[+∞∑
n=−∞cne
j2π nT0t
]x∗(t)dt (10)
=1
T0
+∞∑n=−∞
cn
∫ +T02
−T02
x∗(t)ej2π n
T0tdt =
1
T0
+∞∑n=−∞
cn
[∫ +T02
−T02
x(t)e−j2π n
T0tdt
]∗
Si recordamos la definicion del n-esimo coeficiente de Fourier, cn = 1T0
∫<T0>
x(t)e−j2π n
T0tdt, vemos que
la expresion entre corchetes es justamente cnT0. Ası pues:
Px =1
T0
+∞∑n=−∞
cn[c∗nT0] =+∞∑
n=−∞|cn|2 (11)
Densidad espectral de potencia de senales periodicas:
Definimos la densidad espectral de potencia Sxx(f) de x(t) como la distribucion de potencia de la
senal a lo largo del eje frecuencial, que debe cumplir, al igual que la densidad espectral de energıa para
senales de energıa finita, Px =∫ +∞−∞ Sxx(f)df . En el caso de x(t) periodica, ya sabemos del estudio
de la transformada de Fourier de una senal periodica que existen solo componentes frecuenciales a los
multiplos de 1/T0 y que el contenido frecuencial en cada una de las componentes viene determinado
unicamente por cn. Teniendo en cuenta lo dicho junto con (11), vemos que necesariamente:
Sxx(f) =
+∞∑m=−∞
|cm|2δ(f − m
T0
)(12)
88
Senales no periodicas
En senales no periodicas deberemos calcular la potencia usando la definicion. Por ejemplo, pa-
ra calcular la potencia de x(t) = u(t) haremos:
Px = lımT→∞
1
T
∫ +T2
−T2
u2(t) dt = lımT→∞
1
T
∫ +T2
01 dt = lım
T→∞
1
T
T
2=
1
2(13)
Densidad espectral de potencia de senales no periodicas:
¿Y si queremos calcular la potencia desde el dominio frecuencial? Definamos una version enventa-
nada de x(t) a la que llamaremos xT (t) segun:
xT (t) = x(t)Π
(t
T
)(14)
Podemos ver que xT (t) y x(t) coinciden cuando hacemos la ventana arbitrariamente grande (T → +∞).
Calculemos ahora Px usando esta definicion como:
Px = lımT→∞
1
T
∫ +T2
−T2
|x(t)|2 dt = lımT→∞
1
T
∫ +∞
−∞|xT (t)|2 dt (15)
Gracias a la senal enventanada hemos podido llevar los lımites de la integral a infinito, lo que nos
permite aplicar el teorema de Parseval tal y como hemos hecho para el caso de senales de energıa
finita. Entonces tenemos:
Px = lımT→∞
1
T
∫ +∞
−∞|xT (t)|2 dt = lım
T→∞
1
T
∫ +∞
−∞|XT (f)|2 df =
∫ +∞
−∞lımT→∞
|XT (f)|2T
df (16)
Llegamos, pues, a la conclusion que la densidad espectral de potencia para senales de potencia media
finita no periodicas se puede calcular como:
Sxx(f) = lımT→∞
|XT (f)|2T
(17)
Apliquemos este resultado al ejemplo anterior, x(t) = u(t). En este caso xT (t) = Π(t−T/4T/2
)y por lo
tanto XT (f) = −ej2πf T4 T2 sinc(T2 f). Calculemos su densidad espectral:
Sxx(f) = lımT→∞
|XT (f)|2T
= lımT→∞
1
T
T 2
4
sin2 π2Tf
π2 T 2
4 f2
= lımT→∞
1
T
sin2 π T2 f
π2f2(18)
Considerando el lımite vemos que
Sxx(f) =
0 f 6= 0
π2 T2
4f2
Tπ2f2= T
4 =∞ f = 0(19)
donde hemos aproximado el seno por su argumento para f = 0. Llegamos pues a Sxx(f) = Aδ(f),
pero nos falta determinar el valor de A. Como Px =∫ +∞−∞ Sxx(f) df = A y ya sabemos por otro lado
que Px = 12 , concluimos que
Sxx(f) =1
2δ(f) (20)
89
2. Correlacion y espectro de energıa
Hasta ahora hemos tratado la energıa y la potencia de las senales tanto desde el punto de vista
temporal como frecuencial. En los siguientes dos apartados nos interesara establecer una medida que
nos permita comparar dos senales x(t) e y(t) y veremos que cuando las dos senales a comparar son la
misma, existe una clara relacion entre la medida de similitud, a la que llamaremos correlacion, y los
resultados establecidos hasta el momento.
Empecemos por encontrar una medida de similitud. Aquı nos serviremos de la idea de distancia
de los espacios vectoriales euclıdeos, donde definimos la distancia entre dos vectores x e y como
d(x,y) = ||x − y||. Como menor sea d mas semejantes seran los vectores. Analogamente, pode-
mos definir la distancia (al cuadrado en este caso) entre dos funciones o senales x(t) e y(t) como
d2(x, y) = ||x − y||2 =∫ +∞−∞ |x(t) − y(t)|2dt. Y si aun queremos afinar mas, podemos comprar las
senales para cualquier retraso relativo entre ellas τ , es decir
d2 (x(t+ τ), y(t)) =
∫ +∞
−∞|x(t+ τ)− y(t)|2dt =
∫ +∞
−∞(x(t+ τ)− y(t)) (x(t+ τ)− y(t))∗ dt (21)
=
∫ +∞
−∞|x(t+ τ)|2dt+
∫ +∞
−∞|y(t)|2dt
−∫ +∞
−∞x(t+ τ)y∗(t)dt−
∫ +∞
−∞x∗(t+ τ)y(t)dt
= Ex + Ey −Rxy(τ)−R∗xy(τ) = Ex + Ey − 2ReRxy(τ)
donde
Rxy(τ) =
∫ +∞
−∞x(t+ τ)y∗(t)dt (22)
se define como la correlacion o correlacion cruzada entre x(t) e y(t). Aquı vemos que si nuestro ob-
jetivo es medir cuanto se parecen dos senales, la distancia entre ellas no es del todo adecuada ya que
contiene terminos que no nos aportan informacion como son Ex y Ey. Es por este motivo que de ahora
en adelante usaremos como medida de similitud Rxy(t).
Vemos que la definicion de Rxy(τ) nos recuerda a la integral de convolucion. De hecho, podemos
expresar Rxy(τ) como
Rxy(τ) =
∫ +∞
−∞x(t+ τ)y∗(t)dt =
t′ = t+ τ
=
∫ +∞
−∞x(t′)y∗(t′ − τ)dt′ (23)
=
∫ +∞
−∞x(t′)y∗(−(τ − t′))dt′ = x(τ) ∗ y∗(−τ)
Propiedades de Rxy(τ)
Son las siguientes:
1. |Rxy(τ)|2 ≤ ExEy
90
Comprobacion: aplicacion directa de la desigualdad de Schwarz
(|∫ +∞−∞ u(t)v∗(t)dt|2 ≤
∫ +∞−∞ |u(t)|2
∫ +∞−∞ |v(t)dt|2):
|Rxy(τ)|2 =
∣∣∣∣ ∫ +∞
−∞x(t+ τ)y∗(t)dt
∣∣∣∣2 ≤ ∫ +∞
−∞|x(t+ τ)|2
∫ +∞
−∞|y(t)dt|2 = ExEy (24)
(Nota: la igualdad se darıa si u(t) = αv(t)).
2. Rxy(τ) = R∗yx(−τ)
Comprobacion: R∗yx(−τ) =(∫ +∞−∞ y(t− τ)x∗(t)dt
)∗=t = t′ + τ
=∫ +∞−∞ y∗(t′)x(t′ + τ)dt′
3. FRxy(τ) = Fx(τ) ∗ y∗(−τ) = X(f) · Y ∗(f) = Sxy(f), que se conoce como la densidad
espectral (de energıa) cruzada entre x e y.
De especial interes es el caso x(t) = y(t). Entonces la correlacion cruzada se convierte en
Rxx(τ) =
∫ +∞
−∞x(t+ τ)x∗(t)dt (25)
y se conoce como funcion de autocorrelacion de la senal x(t). En este caso, medimos cuanto se parece
la senal x(t) a una replica suya desplazada τ , o sea, x(t + τ). Mediante la transformada de Fourier
encontramos
FRxx(τ) = Fx(τ) ∗ x∗(−τ) = X(f)X∗(f) = |X(f)|2 = Sxx(f), (26)
es decir, la densidad espectral de energıa de la senal como cabıa esperar.
Propiedades de Rxx(τ)
Son las siguientes:
1. Rxx(0) =∫ +∞−∞ Sxx(f)df = Ex
2. |Rxx(τ)|2 ≤ E2x
3. Rxx(τ) = R∗xx(−τ). Por lo tanto se trata de una funcion hermıtica. Si x(t) es real, Rxx(τ) =
x(τ) ∗ x∗(−τ) sera real y ademas par.
4. FRxx(τ) = Sxx(f) ≥ 0
Analicemos ahora el caso de una senal z(t) compuesta de otras dos, es decir, z(t) = x(t) + y(t), desde
el punto de vista de la funcion de autocorrelacion:
Rzz(τ) = z(τ) ∗ z∗(−τ) = [x(τ) + y(τ)] ∗ [x∗(−τ) + y∗(−τ)] (27)
= x(τ) ∗ x∗(−τ) + y(τ) ∗ y∗(−τ) + x(τ) ∗ y∗(−τ) + y(τ) ∗ x∗(−τ)
= Rxx(τ) +Ryy(τ) +Rxy(τ) +Ryx(τ)
91
Si tenemos en cuenta que Ryx(τ) = R∗xy(−τ) tambien podemos escribir
Rzz(τ) = Rxx(τ) +Ryy(τ) +Rxy(τ) +R∗xy(−τ) (28)
y la energıa de z(t) como
Ez = Rzz(0) = Rxx(0) +Ryy(0) +Rxy(0) +R∗xy(0) = Ex + Ey + 2ReRxy(0) (29)
Son de especial interes los siguientes casos:
Si ReRxy(0) = 0 decimos que las senales son incoherentes y se cumple Ez = Ex + Ey.
Si Rxy(0) = 0 decimos que las senales son ortogonales (su producto escalar∫ +∞−∞ x(t)y∗(t)dt se
anula).
Si Rxy(τ) = 0 para todo τ , entonces las senales estan incorreladas y Rzz(τ) = Rxx(τ) +Ryy(τ).
Correlacion y espectro de energıa a traves de sistemas LTI
Para terminar la parte correspondiente a senales de energıa finita, nos preguntamos que sucede con
las correlaciones de las senales de entrada x(t) y salida y(t) a un sistema LTI descrito por su respuesta
impulsional h(t).
y(t)x(t) h(t)
En este caso tenemos:
1. Rxy(τ) = x(τ) ∗ y∗(−τ) = x(τ) ∗ (x∗(−τ) ∗ h∗(−τ)) = Rxx(τ) ∗ h∗(−τ)
2. Ryx(τ) = y(τ) ∗ x∗(−τ) = (x(τ) ∗ h(τ)) ∗ x∗(−τ) = Rxx(τ) ∗ h(τ)
3. Ryy(τ) = y(τ) ∗ y∗(−τ) = (x(τ) ∗ h(τ)) ∗ (x∗(−τ) ∗ h∗(−τ)) = Rxx(τ) ∗ h(τ) ∗ h∗(−τ) = Rxx(τ) ∗Rhh(τ)
Desde el punto de vista frecuencial esto se traduce en (aplicacion directa de la transformada de Fourier):
1. Sxy(f) = Sxx(f)H∗(f)
2. Syx(f) = Sxx(f)H(f)
3. Syy(f) = Sxx(f)H(f)H∗(f) = Sxx(τ)|H(f)|2
92
3. Correlacion y espectro de potencia
Para el caso de senales de potencia finita, calcularemos la correlacion siguiendo la logica que
hemos usado para calcular la potencia. Es decir, si decıamos que Px = lımT→∞1T
∫ +T2
−T2
|x(t)|2dt, ahora
la autocorrelacion de senales de potencia finita vendra dada por:
Rxx(τ) = lımT→∞
1
T
∫ +T2
−T2
x(t+ τ)x∗(t)dt (30)
donde comprobamos facilmente que Rxx(0) = Px. Ademas, la correlacion cruzada se calculara como:
Rxy(τ) = lımT→∞
1
T
∫ +T2
−T2
x(t+ τ)y∗(t)dt (31)
Propiedades de Rxx(τ)
Son las mismas (cambiando energıa por potencia) que las de las senales de energıa finita, es decir:
1. Rxx(0) = Px
2. |Rxx(τ)|2 ≤ |Rxx(0)|2
3. Rxx(τ) = R∗xx(−τ)
Propiedades de Rxy(τ)
Ası mismo, las propiedades de Rxy(τ) tambien se repiten y son:
1. |Rxx(τ)|2 ≤ PxPy
2. Rxy(τ) = R∗yx(−τ)
Densidad espectral de potencia
Tambien igual que antes, la densidad espectral de potencia (cruzada o no) se calcula como la trans-
formada de Fourier de la autocorrelacion o la correlacion cruzada segun sea el caso, es decir:
FRxx(τ) = Sxx(f) = lımT→∞
|XT (f)|2T
(32)
FRxy(τ) = Sxy(f) = lımT→∞
XT (f)Y ∗T (f)
T(33)
Nota: aunque llamemos igual a la densidad espectral de energıa y a la de potencia como Sxx(f), hay
que ser conscientes que son distintas y que nos aportan informacion semejante pero no igual.
93
Comprobacion: Empezaremos desarrollando por Sxx(f) = lımT→∞|XT (f)|2
T para ver que se corres-
ponde con FRxx(τ). Esto es:
Sxx(f) = lımT→∞
|XT (f)|2T
= lımT→∞
1
TXT (f)X∗T (f) (34)
= lımT→∞
1
T
[∫ +∞
−∞xT (t)e−j2πftdt
] [∫ +∞
−∞xT (t′)e−j2πft
′dt′]∗
= lımT→∞
1
T
[∫ +T2
−T2
x(t)e−j2πftdt
][∫ +T2
−T2
x∗(t′)e+j2πft′dt′
]donde hemos expresado XT (f) como FxT (t). Ahora juntamos las integrales y hacemos el cambio
de variable t = τ + t′ (aquı t′ es solo un parametro que no interviene en la integral respecto t), con lo
que dt = dτ :
Sxx(f) = lımT→∞
1
T
∫ +T2
−T2
∫ +T2
−T2
x(t)x∗(t′)e−j2πf(t−t′)dt dt′ (35)
= lımT→∞
1
T
∫ +T2
−T2
∫ +T2−t′
−T2−t′
x(τ + t′)x∗(t′)e−j2πfτdτ dt′
Ahora aprovechamos el hecho que t′ es finito (t′ ∈ [−T/2, T/2]) para aplicar el lımite T → ∞ en la
primera integral (la de dentro), llegando a
Sxx(f) = lımT→∞
1
T
∫ +T2
−T2
∫ +∞
−∞x(t′ + τ)x∗(t′)e−j2πfτdτ dt′ (36)
Finalmente, invertimos el orden de integracion para llegar al resultado esperado, esto es:
Sxx(f) =
∫ +∞
−∞lımT→∞
1
T
∫ +T2
−T2
x(t′ + τ)x∗(t′)e−j2πfτdt′ dτ (37)
=
∫ +∞
−∞Rxx(τ)e−j2πfτdτ = FRxx(τ)
Ejemplo: Obtener Rxx(τ) y Sxx(f) para x(t) = u(t).
Aplicamos la definicion de Rxx(τ) para obtener
Rxx(τ) = lımT→∞
1
T
∫ +T2
−T2
u(t+ τ)u(t)dt = lımT→∞
1
T
∫ +T2
0u(t+ τ)dt (38)
Si τ > 0, u(t + τ) es un escalon que empieza en algun t negativo (t = −τ) y por lo tanto, Rxx(τ) se
reduce a:
Rxx(τ) = lımT→∞
1
T
∫ +T2
0dt = lım
T→∞
1
T
T
2=
1
2(39)
Finalmente, como Rxx(τ) debe ser siempre par para x(t) real, no hace falta estudiar el caso τ < 0 y
podemos afirmar que
Rxx(τ) =1
2−→ Sxx(f) = FRxx(τ) =
1
2δ(t) (40)
94
Densidad espectral a la salida de un sistema LTI
Al igual que en el caso de energıa finita se cumple que la densidad espectral de potencia Syy(f) a la
salida de un sistema LTI caracterizado por H(f) = Fh(t) vale
Syy(f) = Sxx(f)|H(f)|2 (41)
donde Sxx(f) es la densidad espectral de potencia de la senal x(t) a la entrada del sistema.
Correlacion en senales periodicas
En cuanto a autocorrelacion se refiere, vemos que si comparamos una senal periodica con ella misma
pero desplazada un numero entero de periodos como se ve en la figura, las senales a comparar son
identicas. Es lo mismo que sucede cuando no hay desplazamiento.
t
T0
x(t)
t
x(t)
Por lo tanto intuimos que la autocorrelacion de una senal periodica sera tambien periodica, es decir:
x(t) = x(t+ kT0) −→ Rxx(τ) = Rxx(τ + kT0), k ∈ Z (42)
Comprobacion:
Rxx(τ + kT0) = lımT→∞
1
T
∫ +T2
−T2
x(t+ τ + kT0)x∗(t)dt (43)
= lımT→∞
1
T
∫ +T2
−T2
x(t+ τ)x∗(t)dt = Rxx(τ)
Ademas, del mismo modo que para obtener la potencia de la senal, basta con hacer la integral en un
periodo (incluso sin necesidad que sea [−T0/2, T0/2], lo cual tambien es cierto para la potencia ya que
Rxx(0) = Px):
Rxx(τ) =1
T0
∫<T0>
x(t+ τ)x∗(t)dt (44)
95
Correlacion entre dos fasores
Estudiemos ahora la correlacion entre x(t) = a1ej2πf1t y y(t) = a2e
j2πf2t. Aplicando directamente la
definicion vemos que:
Rxy(τ) = lımT→∞
1
T
∫ +T2
−T2
a1ej2πf1(t+τ)a∗2e
−j2πf2tdt = a∗2a1ej2πf1τ lım
T→∞
1
T
∫ +T2
−T2
ej2π(f1−f2)tdt (45)
= a∗2a1ej2πf1τ lım
T→∞
1
T
ej2π(f1−f2)t
j2π(f1 − f2)
∣∣∣∣T/2−T/2
= a1a∗2ej2πf1τ lım
T→∞
1
T
sinπ(f1 − f2)T
π(f1 − f2)T
= a1a∗2ej2πf1τ lım
T→∞sinc ((f1 − f2)T )
Por lo tanto, cuando f1 6= f2 evaluaremos la sinc en valores muy grandes y el resultado sera 0. Solo
cuando f1 = f2 la sinc tomara valor 1. Por lo tanto, llegamos al siguiente resultado:
Rxy(τ) =
0 f1 6= f2
a1a∗2ej2πf1τ f1 = f2
(46)
Correlacion cruzada entre dos senales periodicas
El resultado anterior nos sirve para calcular Rxy(τ) con x(t) e y(t) periodicas si las desarrollamos en
series de Fourier. Esto es:
x(t) =∑m
cx,mej2πmf0,xt (47)
y(t) =∑n
cy,nej2πnf0,yt (48)
Calculemos, pues, la correlacion cruzada:
Rxy(τ) = lımT→∞
1
T
∫ +T2
−T2
[∑m
cx,mej2πmf0,x(t+τ)
]·[∑
n
c∗y,ne−j2πnf0,yt
]dt (49)
=∑m
∑n
cx,mc∗y,ne
j2πmf0,xτ lımT→∞
1
T
∫ +T2
−T2
ej2π(mf0,x−nf0,y)tdt
Vemos que cada elemento del sumatorio se corresponde con la correlacion de dos fasores, de la cual
ya tenemos el resultado en (46). Sabemos que solo cuando mf0,x = nf0,y el elemento en cuestion
contribuira al sumatorio. En caso contrario dicha contribucion sera 0. La cuestion ahora es: ¿con
que periodicidad los fasores de la senal x(t) van a coincidir con los de la senal y(t)? Miremos primero
un ejemplo. Supongamos f0,x = 3 y f0,y = 4 y dibujemos sus espectros (por comodidad, ya que un
fasor en tiempo queda representado en frecuencia por una delta cuya posicion nos indica la frecuencia).
96
f
X(f)
-18 -15 -12 -9 -6 -3 3 6 9 12 15 18
f
Y (f)
4 8 12 16-16 -12 -8 -4
12
Vemos que con una periodicidad de fr = 12, la posicion de las deltas coincide. Todo se reduce a
encontrar M y N tales que
f0,r = Nf0,x = Mf0,y, M,N ∈ N+ (50)
Si nos fijamos nos daremos cuenta que f0,r = mcm(f0,x, f0,y) y una vez encontrado el mınimo comun
multiple de ambas frecuencias fundamentales, determinar M y N ya es trivial segun (50).
Finalmente, eliminando los terminos que no contribuyen a la correlacion cruzada, esta no queda como:
Rxy(τ) =∑r
cx,Nr c∗y,Mr e
j2πrf0,rτ (51)
Como caso particular, vemos que la autocorrelacion de una senal periodica x(t) se puede calcular como
en (44) o bien segun:
Rxx(τ) =∑r
|cx,r|2ej2πrf0,xτ (52)
En cualquier caso, se trate de correlacion cruzada o autocorrelacion, queda claro que su transformada
de Fourier, es decir, la densidad espectral de potencia (cruzada o no) va tomar la forma de un tren de
deltas con los coeficientes correspondientes.
97