SlideShare a Scribd company logo
1 of 38
Tema 2:
Teoría de la información y capacidad de canal
Dr. José Ramón Cerquides Bueno
Teoría de la Señal y Comunicaciones
Universidad de Sevilla
Transmisión Digital
Organización
• Introducción
• Fundamentos de teoría de la información
• Incertidumbre, información, entropía
• Teorema de codificación de fuente
• Entropía condicionada e información mútua
• Capacidad de un canal discreto
• Teorema de codificación de canal
• Capacidad de un canal analógico
• Entropía diferencial
• Información mútua entre variables continuas
• Teorema de Shannon
• Consecuencias e implicaciones
• Conclusiones
• Referencias
Introducción
• Trataremos de resolver dos preguntas:
• ¿Cuál es el nº mínimo de bits necesario para representar
una cierta cantidad de información?
TEOREMA DE CODIFICACIÓN DE FUENTE
• ¿Existe una velocidad de transmisión de información límite
para un cierto canal? ¿Cuál es?
TEOREMA DE CODIFICACIÓN DE CANAL
TEOREMA DE CAPACIDAD DE CANAL
• Necesitaremos introducir algunos conceptos de
Teoría de la Información:
• Entropía
• Información mutua
• Capacidad de canal
Definición del experimento
• Un experimento S tiene un conjunto de J posibles
resultados
S = {s0, s1,...,sJ-1}
cada uno de ellos con probabilidad pj
• EJEMPLOS:
• Lanzamiento de una moneda o un dado
S = {s0, s1} = {‘cara’,’cruz’} = {‘c’,’+’} {p0, p1} = {1/2, 1/2}
S = {s0, s1, s2, s3, s4,s5} = {‘1’,’2’,’3’,’4’,’5’,’6’}
{p0, p1, p2, p3, p4,p5} = {1/6, 1/6, 1/6, 1/6, 1/6, 1/6}
• Meteorología (lluvioso, nublado, soleado)
S = {s0, s1, s2} = {‘lluvioso’,’nublado’,’soleado’}
{p0, p1, p2} = {?, ?, ?} = {1/10, 1/5, 7/10}
• Transmisión de un símbolo QPSK
S = {s0, s1, s2, s3} = {‘1’,’j’,’-1’,’-j’}
{p0, p1, p2, p3} = {1/4, 1/4, 1/4, 1/4}
Incertidumbre, información y entropía
• Se va a realizar el experimento S
• Antes de conocer el resultado tenemos cierta incertidumbre:
¿cuánta?
• Una vez conocido el resultado ganamos cierta cantidad de
información: ¿cuánta?
• Cantidad de información al observar el evento sj es:
I(sj) = log2(1/pj) = -log2(pj) bits
• EJEMPLOS:
• Lanzamiento de una moneda  I(‘c’) = I(‘+’) = 1 bit
• Lanzamiento de un dado  I(‘sj’) = 2,58 bits
• Meteorología  I(‘lluvioso’) = 3,32 bits
I(‘nublado’) = 2,32 bits
I(‘soleado’) = 0,51 bits
• Transmisión QPSK  I(‘sj’) = 2 bits
Incertidumbre, información y entropía
• Propiedades de la información:
• I(sj) ≥ 0, cumpliendose la igualdad si y solo si pj=1
• “Cualquier evento nos da cierta cantidad de información, a
menos que sea seguro que va a ocurrir, en cuyo caso su
ocurrencia no nos da ninguna información”.
• EJEMPLO: Al tirar un dado sale un nº entre 1 y 6.
• I(sj) > I(si) si pj < pi
• “Un evento tiene más información cuanto menos probable es”
• EJEMPLO: Meteorología
• I(sj,si) ≤ I(sj) + I(si) cumpliéndose la igualdad si y solo si sj y
si son independientes.
• “La información del resultado de dos experimentos es menor o
igual que la suma de las informaciones por separado”.
• EJEMPLOS: I(‘lluvioso’,’2’) = 5.90 bits = I(‘lluvioso’) + I(‘2’)
I(‘transmito ‘0’,’recibo ‘0’) = 0.152 bits < 2 bits.
Incertidumbre, información y entropía
• Se define la entropía de S como:
• H(S) mide la incertidumbre ante el experimento S. O
también la información media que cabe esperar del
resultado.
• La entropía es máxima si todos los casos son equiprobables
0 ≤ H(S) ≤ log2(J)
• EJEMPLOS:
• Lanzamiento de una moneda  H(S) = 1 bit
• Lanzamiento de un dado  H(S) = 2,58 bits
• Meteorología  H(S) = 1.153 bits
• Transmisión QPSK  H(S) = 2 bits
( ) ( ){ } ( )
J 1 J 1
j j j j 2
j 0 j 0 j
1
H S E I s p I s p log
p
− −
= =
 
= = =  ÷ ÷
 
∑ ∑
Incertidumbre, información, entropía
• EJEMPLO: Fuente binaria
• S={s0, s1} = {‘0’,’1’} con probabilidades {p0,p1} = {p,1-p}
• H(S) = -p·log2(p) - (1-p)·log2(1-p)
• Nótese que:
• Si p=0 o p=1, H(S) = 0
• Si p=1/2, H(S) es máxima e igual a 1 bit.
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
p
H(S) Entropía de una fuente binaria
Teorema de codificación de fuente
• Dada una fuente S con J posibles símbolos decidimos
codificarla utilizando para cada símbolo sj una
palabra binaria bj de longitud Lj (digitos binarios).
• La longitud media de una palabra código (o número
medio de dígitos binarios por símbolo) será:
• El teorema de codificación de fuente (Shannon, 1948)
establece que
• La eficiencia de un codificador de fuente, η es:
J 1
j j
j 0
L p L
−
=
= ∑
( )SHL ≥
( )
L
SH
=η
Teorema de codificación de fuente
• EJEMPLO:
• Considere el conjunto S de posibles resultados de un
examen
S={NP, SU, AP, NO, SO, MH}
con probabilidades asociadas {0.1,0.15,0.4,0.2,0.1,0.05}
• La entropía de fuente es:
H(S) = 2.28 bits
• Si codificamos de la forma siguiente:
NP SU AP NO SO MH
000 001 010 011 100 011
obtenemos L = 3 y η=76%.
• De la forma siguiente:
NP SU AP NO SO MH
110 111 0 101 1001 1011
obtenemos L = 2.35, y η=97%.
Entropía condicionada
• Consideremos un conjunto posible de símbolos
emitidos S={sj}, j=0..J-1 y otro conjunto posible de
símbolos recibidos R = {rk}, k=0..K-1.
• Definimos H(S|rk) de la forma siguiente:
como entropía de S condicionada a la recepción del
símbolo rk (incertidumbre que queda respecto a S
una vez recibido rk).
• EJEMPLO
• S={carta baraja (40 posibilidades)}, R={figura, no figura},
• H(S) = 5.32 H(R)=0.88
• H(S|figura) =3.58 H(S|no figura) = 4.8
( ) ( )
( )
J 1
k j k 2
j 0 j k
1
H S| r p s | r log
p s | r
−
=
 
 ÷=
 ÷
 
∑
Entropía condicionada
• Definimos la entropía de S condicionada a R como:
es decir, como incertidumbre promedio que queda
respecto a S una vez recibido R.
• EJEMPLO:
• S={carta baraja (40 posibilidades)}, R={figura, no figura},
• H(S) = 5.32 H(R)=0.88
• H(S|figura) =3.58 H(S|no figura) = 4.8
• H(S|R) = p(figura)·H(S|figura) + p(no figura)·H(S|no figura)
• H(S|R) = 0.3·3.58 + 0.7·4.8 = 4.43
( ) ( )
( )
K 1 J 1
j k 2
k 0 j 0 j k
1
H S| R p s ,r log
p s | r
− −
= =
 
 ÷=
 ÷
 
∑∑
( ) ( ){ } ( ) ( )
( )
K 1 J 1
k k j k 2
k 0 j 0 j k
1
H S| R E H S| r p r p s | r log
p s | r
− −
= =
 
 ÷= =
 ÷
 
∑ ∑
Información mutua
• Consideremos dos experimentos S y R:
• Antes de conocer R nuestro desconocimiento de S es
H(S)
• Conocida R nuestro desconocimiento de S es
H(S|R)
• Luego R aporta
H(S) – H(S|R)
información sobre S.
• La información mútua entre S y R se define como:
I(S;R) = H(S) - H(S|R)
y mide la cantidad de información que R tiene sobre
S (o S sobre R).
• EJEMPLO:
• Cartas y figuras  I(S;R) = 5.32 – 4.43 = 0.89 bits
Información mutua
• Propiedades de la información mutua:
• I(S;R) = I(R;S)
• I(S;R) ≥ 0, con igualdad si y solo si S y R independientes
• I(S;R) = H(S)–H(S|R) = H(R)–H(R|S) = H(S)+H(R)-H(S;R)
siendo H(S;R) la entropía conjunta de S y R
( ) ( )
( )
K 1 J 1
j k 2
k 0 j 0 j k
1
H S;R p s ,r log
p s ,r
− −
= =
 
 ÷=
 ÷
 
∑∑
( ) ( )
( )
( )
( )
J 1 K 1 J 1
j 2 j k 2
j 0 k 0 j 0j j k
1 1
I S;R p s log p s ,r log
p s p s | r
− − −
= = =
   
 ÷  ÷= −
 ÷  ÷
   
∑ ∑∑
( ) ( )
( )
( )
( )
K 1 J 1
j k 2 j k 2
k 0 j 0 j j k
1 1
I S;R p s ,r log p s ,r log
p s p s | r
− −
= =
   
 ÷  ÷= −
 ÷  ÷
   
∑∑
( ) ( )
( )
( )
K 1 J 1
j k
j k 2
k 0 j 0 j
p s | r
I S;R p s ,r log
p s
− −
= =
 
 ÷=
 ÷
 
∑∑
Información mútua
• Otra forma de calcular la información mútua:
I(S;R) = H(S) + H(R) - H(S;R) =
( )
( )
( )
( )
( )
( )
J 1 K 1 K 1 J 1
j 2 k 2 j k 2
j 0 k 0 k 0 j 0kj j k
1 1 1
p s log p r log p s ,r log
p rp s p s ,r
− − − −
= = = =
    
 ÷  ÷= + − = ÷ ÷ ÷  ÷    
∑ ∑ ∑∑
( )
( )
( ) ( )
( )
( )
K 1 J 1
j k 2 j k 2 j k 2
k 0 j 0 kj j k
1 1 1
p s ,r log p s ,r log p s ,r log
p rp s p s ,r
− −
= =
    
 ÷  ÷= + − = ÷ ÷ ÷  ÷    
∑∑
( )
( ) ( ) ( )
K 1 J 1
j k 2 2 2
k 0 j 0 kj j k
1 1 1
p s ,r log log log
p rp s p s ,r
− −
= =
     
 ÷ ÷  ÷= + − = ÷ ÷ ÷  ÷ ÷     
∑∑
( )
( )
( ) ( )
( )
K 1 J 1
j k
j k 2
k 0 j 0 j k
p s ,r
p s ,r log I S;R
p s p r
− −
= =
 
 ÷= =
 ÷
 
∑∑
Información mutua
• EJEMPLO: Transmisión Y-QAM equiprobable:
p(sj) = ¼
p(r0) = ¼ (0.55+0.1+0.1+0.1) = 0.2125
p(r1) = ¼ (0.15+0.8+0.05+0.05) = p(r2) = p(r3) = 0.2625
H(S)=2 H(R) = 1.99
H(S;R)=3,19
I(S;R) = 2 + 1.99 – 3.19 = 0.8
H(S|R) = H(S) – I(S;R) = 1.2
H(R|S) = H(R) – I(R;S) = 1.19
( )k j
0.55 0.15 0.15 0.15
0.1 0.8 0.05 0.05
P r | s
0.1 0.05 0.8 0.05
0.1 0.05 0.05 0.8
 
 
 =
 
 
 
Re
Im
-j
s3
s0
s2 s1
j/2
3
2
3
2
−
Capacidad de un canal discreto
• Deseamos que la información mutua sea máxima.
• El canal está fijado, luego lo único que podemos
modificar son las probabilidades de los diferentes
símbolos transmitidos.
• Cuando se maximiza I(S;R) respecto a las
probabilidades de los diferentes sj j={0..J-1}, al valor
máximo lo denominamos capacidad del canal:
• Para obtener C será preciso tener en cuenta que:
P(sj) ≥0 ∀j
( )
( )
jp s
C max I S;R=
( )
J 1
j
j 0
p s 1
−
=
=∑
• Ejemplo: Canal binario simétrico
• p(r0|s0)=1-pe
• p(r0|s1)=pe
• p(r1|s0)=pe
• p(r1|s1)=1-pe
• p(r0,s0)=p(r0|s0)p(s0)=(1-pe)p(s0)
• p(r1,s0)=pep(s0)
• p(r0,s1)=pep(s1)=pe(1-p(s0))
• p(r1,s1)=(1-pe)(1-p(s0))
Capacidad de un canal discreto
0
1
0
1
1-pe
1-pe
pe pe
Ejemplo: Canal binario simétrico (2)
• p(r0)= p(r0,s0)+p(r0,s1)=(1-pe)p(s0) + pe(1-p(s0))
• p(r1)= 1-p(r0) =pep(s0) +(1-pe)(1-p(s0))
I(S;R) = H(R)–H(R|S)
( )
( )
( )
( )
( )
( )
0
0 0 0
I S,R I S,R p r
0
p s p r p s
∂ ∂ ∂
= =
∂ ∂ ∂
( )
( )
jp s
C maxI S;R=
( )
( )
( )
( )
( )
( )
( )
( )
0
0 0 0 0
I S,R H R H R | S p r
0
p s p r p r p s
 ∂ ∂ ∂ ∂
= − = ÷ ÷∂ ∂ ∂ ∂ 
( ) ( )
( )
( )
( )0 2 1 2
0 1
1 1
H R p r log p r log
p r p r
   
= + ÷  ÷
   
( )
( ) ( ) ( )2 2
0 0 0
H R 1 1
log log
p r p r 1 p r
    ∂  
= − ÷  ÷  ÷  ÷∂ −     
Ejemplo: Canal binario simétrico (3)
( )
( )0
H R | S
0
p r
∂
=
∂
( ) ( )
( )
K 1 J 1
k j 2
k 0 j 0 k j
1
H R | S p r ,s log
p r | s
− −
= =
 
 ÷=
 ÷
 
∑∑
( ) ( )
( )
( )
( )
( )
( )
( )
( )
0 0 2 0 1 2
0 0 0 1
1 0 2 1 1 2
1 0 1 1
1 1
H R | S p r ,s log p r ,s log
p r | s p r | s
1 1
p r ,s log p r ,s log
p r | s p r | s
   
= + + ÷  ÷ ÷  ÷
   
   
+ + ÷  ÷ ÷  ÷
   
( ) ( ) ( ) ( )( )
( ) ( ) ( )( )
e 0 2 e 0 2
e e
e 0 2 e 0 2
e e
1 1
H R | S 1 p p s log p 1 p s log
1 p p
1 1
p p s log 1 p 1 p s log
p 1 p
   
= − + − + ÷  ÷
−   
   
+ + − − ÷  ÷
−   
Ejemplo: Canal binario simétrico (4)
p(r0)= p(r0,s0)+p(r0,s1)=(1-pe)p(s0) + pe(1-p(s0))
( )
( ) ( ) ( )
( )2 2 e
0 0 0
I S,R 1 1
log log 1 2p 0
p s p r 1 p r
    ∂  
= − − = ÷  ÷  ÷  ÷∂ −     
( )
( )
( )
( )
( )
( )
( )
( )
0
0 0 0 0
I S,R H R H R | S p r
0
p s p r p r p s
 ∂ ∂ ∂ ∂
= − = ÷ ÷∂ ∂ ∂ ∂ 
( )
( ) ( ) ( )2 2
0 0 0
H R 1 1
log log
p r p r 1 p r
    ∂  
= − ÷  ÷  ÷  ÷∂ −     
( )
( )0
H R | S
0
p r
∂
=
∂
( )
( )
0
e
0
p r
1 2p
p s
∂
= −
∂
Ejemplo: Canal binario simétrico (y 5)
• La solución implica p(r0) = 1 – p(r0), luego p(r0) = ½
• Por tanto p(s0) = ½ , como cabía esperar.
• La capacidad es:
( )e 2 e 2
e e
1 1
C 1 p log 1 p log
p 1 p
   
= − − − ÷  ÷
−   
( )
( ) ( ) ( )
( )2 2 e
0 0 0
I S,R 1 1
log log 1 2p 0
p s p r 1 p r
    ∂  
= − − = ÷  ÷  ÷  ÷∂ −     
• Fuente S
• Genera símbolos de fuente a una velocidad Rs (símbolos de
fuente/segundo)
• Entropía de S es H(S) (bits información/símbolo de fuente)
• Canal
• Capacidad C (bits/símbolo de canal transmitido)
• Transmite símbolos a un régimen Rc (símbolos de canal
transmitidos/segundo)
• Teorema de codificación de canal (Shannon, 1948)
• Es posible enviar (con el código adecuado) con una
probabilidad de error arbitrariamente pequeña si y solo si:
H(S)·Rs ≤ C·Rc
Teorema de codificación de canal
S Cod.
canal
Canal
Rs Rc Rc
Decod.
canal
Destino
Rs
EJEMPLOS
• EJEMPLO: Canal binario simétrico
• pe = 0.03  C = 0.8 bits / símbolo de canal
• Fuente S binaria equiprobable (H(S)=1 bit/símbolo de
fuente) con velocidad Rs = 1 símbolo de fuente/segundo
H(S)Rs ≤ CRc
1 bit/segundo ≤ 0.8 Rc
Rc ≥ 1.25 símbolos de canal transmitidos / segundo
• EJEMPLO: Modem V.90
• Modo 56 kbps
• peb = 10-3
 C = 0.988
• Permitiría transmitir datos con una probabilidad de error
tan pequeña como se quiera siempre que la velocidad de
información de la fuente sea inferior a 56000· 0.988 = 55361
bits información / segundo (y se haga uso de la codificación
apropiada).
Entropía diferencial
• ¿Podríamos trasladar los resultados obtenidos a
señales analógicas?
• Calculemos la entropía de una variable aleatoria
continua X como límite de una discreta con infinitos
niveles:
X = {xj} j = 0..J-1
( ) ( ){ } ( )
J 1 J 1
j j j j 2
j 0 j 0 j
1
H X E I x p I x p log
p
− −
= =
 
= = =  ÷ ÷
 
∑ ∑
x
fX(x)
x0 x1 x2 . . . xJ-1
Δx
p(x1) ≈ fX(x1)Δx
Entropía diferencial
Al hacer tender J a infinito
p(xj) ≈ fX(xj)Δx
x
fX(x)
x0 x1 x2 . . . xJ-1
Δx
-∞ ∞dx
( ) ( )
( )X j 2
x 0
j X j
1
H X lim f x xlog
f x x
∞
∆ →
=−∞
 
 ÷= ∆
 ÷∆ 
∑
Entropía diferencial (continuación)
( ) ( )
( )
( ) ( )X j 2 X j 2
x 0
j jX j
1
H X lim f x xlog f x xlog x
f x
∞ ∞
∆ →
=−∞ =−∞
   
 ÷= ∆ − ∆ ∆ 
 ÷   
∑ ∑
( ) ( )
( )
( ) ( )X 2 X 2
x 0
X
1
H X f x log dx f x dx lim log x
f x
∞ ∞
∆ →
−∞ −∞
   
= − ∆ ÷  ÷
  
∫ ∫
( ) ( )2
x 0
H X h(X) lim log x
∆ →
= − ∆
( ) ( )
( )X 2
X
1
h X f x log dx
f x
∞
−∞
 
=  ÷
 
∫
( ) ( )
( )X j 2
x 0
j X j
1
H X lim f x xlog
f x x
∞
∆ →
=−∞
 
 ÷= ∆
 ÷∆ 
∑
( ) ( )
( )
( )X 2 2
x 0
X
1
H X f x log dx lim log x
f x
∞
∆ →
−∞
 
= − ∆ ÷
 
∫
Entropía diferencial
• CONSIDERACIONES:
• Cualquier variable aleatoria tiene infinita información
• La entropía diferencial va a servir para compararlas entre sí
• EJEMPLO: Distribución uniforme
fX(x) = 1/a·[u(x) – u(x-a)]
h(X) = log2(a)
• EJEMPLO: Distribución gaussiana
• Dada una varianza σ2
, la variable gaussiana tiene la mayor
entropía diferencial de todas las posibles v.a.
• La entropía diferencial es independiente de la media µ.
( )
( )2
2
x
2
X
1
f x e
2
−µ
−
σ
=
πσ
( ) ( )2
2
1
h X log 2 e
2
= π σ
Información mútua entre variables continuas
• Partiendo de la expresión de la información mútua
para variables discretas:
• Información mútua entre X e Y
• Propiedades
• I(X,Y) = I(Y,X)
• I(X,Y) ≥ 0
• I(X,Y) = h(X)+h(Y)– h(X;Y) = h(X)–h(X|Y) = h(Y)–h (Y|X)
( ) ( )
( )
( ) ( )
XY
XY 2
X Y
f x, y
I X,Y f x, y log dxdy
f x f y
∞ ∞
−∞ −∞
 
=  ÷ ÷
 
∫ ∫
( ) ( )
( )XY 2
XY
1
h X;Y f x, y log dxdy
f x, y
∞ ∞
−∞ −∞
 
=  ÷ ÷
 
∫ ∫
( ) ( )
( )
( ) ( )
K 1 J 1
j k
j k 2
k 0 j 0 j k
p s ,r
I S;R p s ,r log
p s p r
− −
= =
 
 ÷=
 ÷
 
∑∑
Teorema de capacidad de canal
• Dado un canal con las características
• Ancho de banda B (ideal dentro de la banda)
• Ruido gaussiano de potencia Pn
• Señal recibida de potencia Ps
¿cuál es la máxima velocidad de transmisión de
información alcanzable?
• Sea cual sea el esquema de codificador(es),
modulador, etc. … acabaremos emitiendo una señal
de ancho de banda B.
• Por el teorema de Nyquist
“Cualquier señal de ancho de banda B Hz puede representarse
por un conjunto de muestras tomadas a frecuencia 2B”
• CONCLUSIÓN: La señal emitida (y la recibida)
pueden representarse con 2B muestras/segundo.
Teorema de capacidad de canal
Xk
Nk
Yk
… k-1 k k+1 …
Ruido
Señal emitida
Señal recibida
Teorema de capacidad de canal
• ¿Cuánta información podrá transportar cada
muestra?
Tendremos que obtener la capacidad del canal
• La relación entre muestras emitidas y recibidas es:
Yk = Xk + Nk
• La capacidad de canal se obtiene maximizando la
información mútua (potencia emitida limitada):
C=max{I(Xk,Yk), E{Xk
2
}= Ps}
I(Xk,Yk) = h(Yk) – h(Yk|Xk)
h(Yk|Xk) = h(Xk+Nk|Xk) = h(Nk)
pero el ruido es gaussiano  h(Nk) = ½log2(2πePn)
I(Xk,Yk) = h(Yk) – h(Nk) = h(Yk) - ½log2(2πePn)
que será máxima cuando Yk sea gaussiana.
Teorema de capacidad de canal
• Como Yk tiene potencia Ps+Pn, su entropía será:
h(Yk) = ½log2(2πe[Ps+Pn])
• Por tanto, la capacidad de canal será:
C = ½log2(2πe[Ps+Pn]) - ½log2(2πePn)
C = ½log2(1+Ps/Pn)
bits/muestra transmitida
El número máximo de muestras independientes
transmisibles es 2B muestras /segundo, luego
C = B·log2(1+Ps/Pn) bits/segundo
C = B·log2(1+SNR)
Para el caso más habitual (ruido térmico) de
densidad espectral N0/2
C = B·log2(1+Ps/(BN0))
Teorema de capacidad de canal
• EJEMPLO: Canal teléfónico: Centralitas digitales
• B < 4000 Hz
• SNR < 48 dB (6,02 dB/bit x 8 bits)
C < 4000·log2(1+104.8
) = 63781 bps
• Centralitas analógicas
• B < 3100 Hz (300 Hz – 3400 Hz)
• SNR < 30 dB (estudios de canal telefónico)
C < 3100·log2(1+103
) = 30898 bps
• Canal TV analógico
• B  5 MHz
• SNR  38 dB (canal regular)
C  5·106
·log2(1+103.8
) = 63,1 Mbps
Implicaciones del teorema
• Consideremos un sistema ideal que transmite a la
máxima velocidad
Rb= C
Ps = EbRb = CEb
C = B·log2(1+Ps/(BN0))
Si B  ∞,
Eb/N0 = ln(2) = 0.693 = -1.6 dB
Por debajo de esa relación Eb/N0 es absolutamente
imposible la transmisión sin errores.
b
2
0
EC C
log 1
B N B
 
= + ÷
 
C
Bb
0
E B
2 1
N C
 
 ÷
 
 
= − ÷
 ÷
 
Implicaciones del teorema
• Si el sistema transmite a una velocidad Rb < C
• CONCLUSIONES:
• Compromiso entre la relación Eb/N0 (relación SNR) y Rb/B
(eficiencia)
• Existen zonas en las que resulta posible/imposible la
transmisión sin errores.
• Se establece así el límite de Shannon o cota de capacidad de
canal.
b b
2
0
E R
Blog 1 C
N B
 
+ ≤ ÷
 
Compromiso Eb/N0 y Rb/B
-5 0 5 10 15 20 25
10
-1
10
0
10
1
Eb/No dB
Rb/B
Relació n Eb/No y Rb/B
Zona
posible
Zona
imposible
Referencias
• Communication Systems, 3rd
.ed.
• Simon Haykin, John Wiley & Sons, 1994.
• Páginas 614 a 622 y 631 a 656.
• Digital Communications, 4th
ed.
• John G. Proakis, McGraw-Hill, 2000.
• Páginas 381 a 387
• An Introducction to Digital Communications
• Jack Kurzweil, John Wiley & Sons, 1999.
• Páginas 366-380
• Digital Transmission Engineering
• John B. Anderson, 1999.
• Páginas 268-272.

More Related Content

What's hot

Lecture 18 channel capacity
Lecture 18 channel capacityLecture 18 channel capacity
Lecture 18 channel capacitynica2009
 
9 modulacion, ask, fsk, psk y qam
9  modulacion, ask, fsk, psk y qam9  modulacion, ask, fsk, psk y qam
9 modulacion, ask, fsk, psk y qamUTU
 
Modulacion y frecuenca comunicacion analogicas 2
Modulacion y frecuenca  comunicacion analogicas 2Modulacion y frecuenca  comunicacion analogicas 2
Modulacion y frecuenca comunicacion analogicas 2Velmuz Buzz
 
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...nica2009
 
Modulación por desplazamiento de frecuencia
Modulación por desplazamiento de frecuenciaModulación por desplazamiento de frecuencia
Modulación por desplazamiento de frecuenciaCarmen Ea
 
Gaussiano y ruido comunicacion analogicas
Gaussiano y ruido comunicacion analogicasGaussiano y ruido comunicacion analogicas
Gaussiano y ruido comunicacion analogicasVelmuz Buzz
 
Señalizacion de Comunicaciones
Señalizacion de ComunicacionesSeñalizacion de Comunicaciones
Señalizacion de ComunicacionesJosibell Guerrero
 
Moduladores de fm
Moduladores de fmModuladores de fm
Moduladores de fmabulr5307
 
Sistema psk & qpsk
Sistema psk &  qpskSistema psk &  qpsk
Sistema psk & qpskIsrael Chala
 
6. AM y FM Modulación de amplitud y de frecuencia
6. AM y FM Modulación de amplitud y de frecuencia6. AM y FM Modulación de amplitud y de frecuencia
6. AM y FM Modulación de amplitud y de frecuenciaEdison Coimbra G.
 

What's hot (20)

Lecture 18 channel capacity
Lecture 18 channel capacityLecture 18 channel capacity
Lecture 18 channel capacity
 
Capacidad del canal
Capacidad del canalCapacidad del canal
Capacidad del canal
 
Presentacion sdh
Presentacion sdhPresentacion sdh
Presentacion sdh
 
Modulacion am
Modulacion amModulacion am
Modulacion am
 
9 modulacion, ask, fsk, psk y qam
9  modulacion, ask, fsk, psk y qam9  modulacion, ask, fsk, psk y qam
9 modulacion, ask, fsk, psk y qam
 
Modulacion y frecuenca comunicacion analogicas 2
Modulacion y frecuenca  comunicacion analogicas 2Modulacion y frecuenca  comunicacion analogicas 2
Modulacion y frecuenca comunicacion analogicas 2
 
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
Lecture 7 probabilidad de error de transmisión pcm. formateo de señales dpcm,...
 
Conferencia n° 5
Conferencia n° 5Conferencia n° 5
Conferencia n° 5
 
Modulación por desplazamiento de frecuencia
Modulación por desplazamiento de frecuenciaModulación por desplazamiento de frecuencia
Modulación por desplazamiento de frecuencia
 
Gaussiano y ruido comunicacion analogicas
Gaussiano y ruido comunicacion analogicasGaussiano y ruido comunicacion analogicas
Gaussiano y ruido comunicacion analogicas
 
SDH
SDHSDH
SDH
 
Modulación qam
Modulación qamModulación qam
Modulación qam
 
Muestreo
MuestreoMuestreo
Muestreo
 
Señalizacion de Comunicaciones
Señalizacion de ComunicacionesSeñalizacion de Comunicaciones
Señalizacion de Comunicaciones
 
Moduladores de fm
Moduladores de fmModuladores de fm
Moduladores de fm
 
Ccoeficiente y porcentaje de modulación
Ccoeficiente y porcentaje de modulaciónCcoeficiente y porcentaje de modulación
Ccoeficiente y porcentaje de modulación
 
ModulacióN De Amplitud
ModulacióN De AmplitudModulacióN De Amplitud
ModulacióN De Amplitud
 
Sistema psk & qpsk
Sistema psk &  qpskSistema psk &  qpsk
Sistema psk & qpsk
 
Parametros de AM
Parametros de AMParametros de AM
Parametros de AM
 
6. AM y FM Modulación de amplitud y de frecuencia
6. AM y FM Modulación de amplitud y de frecuencia6. AM y FM Modulación de amplitud y de frecuencia
6. AM y FM Modulación de amplitud y de frecuencia
 

Similar to Teoría de la Información y Capacidad de Canal

El trazador cúbico
El trazador cúbicoEl trazador cúbico
El trazador cúbicoKike Prieto
 
examen inf-164
examen inf-164examen inf-164
examen inf-164tecmac
 
Ejercicios detallados del obj 4 mat iii 733
Ejercicios detallados del obj 4 mat iii  733 Ejercicios detallados del obj 4 mat iii  733
Ejercicios detallados del obj 4 mat iii 733 Jonathan Mejías
 
El método del lugar de las raíces
El método del lugar de las raícesEl método del lugar de las raíces
El método del lugar de las raícesBrady Martinez
 
Calculo 3 1_ (1)
Calculo 3 1_ (1)Calculo 3 1_ (1)
Calculo 3 1_ (1)deiver1981
 
Clase lugar geometrico ciclo 2014 3
Clase lugar geometrico  ciclo 2014 3Clase lugar geometrico  ciclo 2014 3
Clase lugar geometrico ciclo 2014 3jose isla
 
Lugar geométrico de las raices control 1
Lugar geométrico de las raices control 1Lugar geométrico de las raices control 1
Lugar geométrico de las raices control 1Marvin Pariona
 
Angulo en posicion normal
Angulo en posicion normalAngulo en posicion normal
Angulo en posicion normaljzana
 
CIRCUITOS DE SEGUNDO ORDEN RLC.pdf
CIRCUITOS DE SEGUNDO ORDEN RLC.pdfCIRCUITOS DE SEGUNDO ORDEN RLC.pdf
CIRCUITOS DE SEGUNDO ORDEN RLC.pdfgabyhuacac1
 
Coordenadas polares y gráficas polares
Coordenadas polares y gráficas polaresCoordenadas polares y gráficas polares
Coordenadas polares y gráficas polaresIván Ordiozola
 

Similar to Teoría de la Información y Capacidad de Canal (20)

Cap3
Cap3Cap3
Cap3
 
1pii13-res.pdf
1pii13-res.pdf1pii13-res.pdf
1pii13-res.pdf
 
El trazador cúbico
El trazador cúbicoEl trazador cúbico
El trazador cúbico
 
examen inf-164
examen inf-164examen inf-164
examen inf-164
 
Ejercicios detallados del obj 4 mat iii 733
Ejercicios detallados del obj 4 mat iii  733 Ejercicios detallados del obj 4 mat iii  733
Ejercicios detallados del obj 4 mat iii 733
 
4) Física Atómica
4) Física Atómica4) Física Atómica
4) Física Atómica
 
El método del lugar de las raíces
El método del lugar de las raícesEl método del lugar de las raíces
El método del lugar de las raíces
 
Tangentes en coordenadas polares
Tangentes en coordenadas polaresTangentes en coordenadas polares
Tangentes en coordenadas polares
 
Calculo 3 1_ (1)
Calculo 3 1_ (1)Calculo 3 1_ (1)
Calculo 3 1_ (1)
 
Clase lugar geometrico ciclo 2014 3
Clase lugar geometrico  ciclo 2014 3Clase lugar geometrico  ciclo 2014 3
Clase lugar geometrico ciclo 2014 3
 
Probabilidad y LR
Probabilidad y LRProbabilidad y LR
Probabilidad y LR
 
Lugar geométrico de las raices control 1
Lugar geométrico de las raices control 1Lugar geométrico de las raices control 1
Lugar geométrico de las raices control 1
 
Angulo en posicion normal
Angulo en posicion normalAngulo en posicion normal
Angulo en posicion normal
 
Pagr0
Pagr0Pagr0
Pagr0
 
Splines
SplinesSplines
Splines
 
CIRCUITOS DE SEGUNDO ORDEN RLC.pdf
CIRCUITOS DE SEGUNDO ORDEN RLC.pdfCIRCUITOS DE SEGUNDO ORDEN RLC.pdf
CIRCUITOS DE SEGUNDO ORDEN RLC.pdf
 
Coordenadas polares y gráficas polares
Coordenadas polares y gráficas polaresCoordenadas polares y gráficas polares
Coordenadas polares y gráficas polares
 
Sistemas Difusos
Sistemas DifusosSistemas Difusos
Sistemas Difusos
 
2.pdf
2.pdf2.pdf
2.pdf
 
Trabajocoordenadas
TrabajocoordenadasTrabajocoordenadas
Trabajocoordenadas
 

More from José Ramón Cerquides Bueno

Desarrollo de una herramienta para la medida de calidad de vídeo
Desarrollo de una herramienta para la medida de calidad de vídeoDesarrollo de una herramienta para la medida de calidad de vídeo
Desarrollo de una herramienta para la medida de calidad de vídeoJosé Ramón Cerquides Bueno
 
Sistema de seguimiento de la acción en eventos deportivos
Sistema de seguimiento de la acción en eventos deportivosSistema de seguimiento de la acción en eventos deportivos
Sistema de seguimiento de la acción en eventos deportivosJosé Ramón Cerquides Bueno
 
Sistema inteligente de Reconocimiento de Anuncios de Televisión
Sistema inteligente de Reconocimiento de Anuncios de TelevisiónSistema inteligente de Reconocimiento de Anuncios de Televisión
Sistema inteligente de Reconocimiento de Anuncios de TelevisiónJosé Ramón Cerquides Bueno
 
Control de polución en smart cities mediante aplicaciones en fiware
Control de polución en smart cities mediante aplicaciones en fiwareControl de polución en smart cities mediante aplicaciones en fiware
Control de polución en smart cities mediante aplicaciones en fiwareJosé Ramón Cerquides Bueno
 
Sustitución de sistemas st bs propietarios por raspberry pis en la red de pan...
Sustitución de sistemas st bs propietarios por raspberry pis en la red de pan...Sustitución de sistemas st bs propietarios por raspberry pis en la red de pan...
Sustitución de sistemas st bs propietarios por raspberry pis en la red de pan...José Ramón Cerquides Bueno
 
Análisis y evaluación de las ténicas utilizadas para la transmisión de video ...
Análisis y evaluación de las ténicas utilizadas para la transmisión de video ...Análisis y evaluación de las ténicas utilizadas para la transmisión de video ...
Análisis y evaluación de las ténicas utilizadas para la transmisión de video ...José Ramón Cerquides Bueno
 
Diseño y resolución de prácticas para el laboratorio de televisión 3 d
Diseño y resolución de prácticas para el laboratorio de televisión 3 dDiseño y resolución de prácticas para el laboratorio de televisión 3 d
Diseño y resolución de prácticas para el laboratorio de televisión 3 dJosé Ramón Cerquides Bueno
 
Detección de anuncios de televisión mediante software presentación
Detección de anuncios de televisión mediante software   presentaciónDetección de anuncios de televisión mediante software   presentación
Detección de anuncios de televisión mediante software presentaciónJosé Ramón Cerquides Bueno
 
Comparación de técnicas de detección de cambios de plano sobre vídeo comprido...
Comparación de técnicas de detección de cambios de plano sobre vídeo comprido...Comparación de técnicas de detección de cambios de plano sobre vídeo comprido...
Comparación de técnicas de detección de cambios de plano sobre vídeo comprido...José Ramón Cerquides Bueno
 
Presentacion unidad móvil virtual para eng sobre hsupa
Presentacion unidad móvil virtual para eng sobre hsupaPresentacion unidad móvil virtual para eng sobre hsupa
Presentacion unidad móvil virtual para eng sobre hsupaJosé Ramón Cerquides Bueno
 
Campaña de benchmarking cobertura de telefonía móvil en entornos indoor
Campaña de benchmarking cobertura de telefonía móvil en entornos indoorCampaña de benchmarking cobertura de telefonía móvil en entornos indoor
Campaña de benchmarking cobertura de telefonía móvil en entornos indoorJosé Ramón Cerquides Bueno
 
147755331 presentacion-sistema-de-mensajeria-electronica-del-centro-de-calculo
147755331 presentacion-sistema-de-mensajeria-electronica-del-centro-de-calculo147755331 presentacion-sistema-de-mensajeria-electronica-del-centro-de-calculo
147755331 presentacion-sistema-de-mensajeria-electronica-del-centro-de-calculoJosé Ramón Cerquides Bueno
 
Integración de kits arduinos enlazados mediante xbee para aplicaciones de car...
Integración de kits arduinos enlazados mediante xbee para aplicaciones de car...Integración de kits arduinos enlazados mediante xbee para aplicaciones de car...
Integración de kits arduinos enlazados mediante xbee para aplicaciones de car...José Ramón Cerquides Bueno
 

More from José Ramón Cerquides Bueno (20)

Desarrollo de una herramienta para la medida de calidad de vídeo
Desarrollo de una herramienta para la medida de calidad de vídeoDesarrollo de una herramienta para la medida de calidad de vídeo
Desarrollo de una herramienta para la medida de calidad de vídeo
 
Sistema de seguimiento de la acción en eventos deportivos
Sistema de seguimiento de la acción en eventos deportivosSistema de seguimiento de la acción en eventos deportivos
Sistema de seguimiento de la acción en eventos deportivos
 
Medidas de calidad en vídeo
Medidas de calidad en vídeoMedidas de calidad en vídeo
Medidas de calidad en vídeo
 
Presentacion hbbtv
Presentacion hbbtvPresentacion hbbtv
Presentacion hbbtv
 
Sira tv
Sira tvSira tv
Sira tv
 
Sistema inteligente de Reconocimiento de Anuncios de Televisión
Sistema inteligente de Reconocimiento de Anuncios de TelevisiónSistema inteligente de Reconocimiento de Anuncios de Televisión
Sistema inteligente de Reconocimiento de Anuncios de Televisión
 
Control de polución en smart cities mediante aplicaciones en fiware
Control de polución en smart cities mediante aplicaciones en fiwareControl de polución en smart cities mediante aplicaciones en fiware
Control de polución en smart cities mediante aplicaciones en fiware
 
Presentacion carmenppt
Presentacion carmenpptPresentacion carmenppt
Presentacion carmenppt
 
Sustitución de sistemas st bs propietarios por raspberry pis en la red de pan...
Sustitución de sistemas st bs propietarios por raspberry pis en la red de pan...Sustitución de sistemas st bs propietarios por raspberry pis en la red de pan...
Sustitución de sistemas st bs propietarios por raspberry pis en la red de pan...
 
Análisis y evaluación de las ténicas utilizadas para la transmisión de video ...
Análisis y evaluación de las ténicas utilizadas para la transmisión de video ...Análisis y evaluación de las ténicas utilizadas para la transmisión de video ...
Análisis y evaluación de las ténicas utilizadas para la transmisión de video ...
 
Presentación pfc susana carrasco perez v2
Presentación pfc susana carrasco perez v2Presentación pfc susana carrasco perez v2
Presentación pfc susana carrasco perez v2
 
Diseño y resolución de prácticas para el laboratorio de televisión 3 d
Diseño y resolución de prácticas para el laboratorio de televisión 3 dDiseño y resolución de prácticas para el laboratorio de televisión 3 d
Diseño y resolución de prácticas para el laboratorio de televisión 3 d
 
Detección de anuncios de televisión mediante software presentación
Detección de anuncios de televisión mediante software   presentaciónDetección de anuncios de televisión mediante software   presentación
Detección de anuncios de televisión mediante software presentación
 
Comparación de técnicas de detección de cambios de plano sobre vídeo comprido...
Comparación de técnicas de detección de cambios de plano sobre vídeo comprido...Comparación de técnicas de detección de cambios de plano sobre vídeo comprido...
Comparación de técnicas de detección de cambios de plano sobre vídeo comprido...
 
Presentacion unidad móvil virtual para eng sobre hsupa
Presentacion unidad móvil virtual para eng sobre hsupaPresentacion unidad móvil virtual para eng sobre hsupa
Presentacion unidad móvil virtual para eng sobre hsupa
 
Campaña de benchmarking cobertura de telefonía móvil en entornos indoor
Campaña de benchmarking cobertura de telefonía móvil en entornos indoorCampaña de benchmarking cobertura de telefonía móvil en entornos indoor
Campaña de benchmarking cobertura de telefonía móvil en entornos indoor
 
Presentacion pfc
Presentacion pfcPresentacion pfc
Presentacion pfc
 
147755331 presentacion-sistema-de-mensajeria-electronica-del-centro-de-calculo
147755331 presentacion-sistema-de-mensajeria-electronica-del-centro-de-calculo147755331 presentacion-sistema-de-mensajeria-electronica-del-centro-de-calculo
147755331 presentacion-sistema-de-mensajeria-electronica-del-centro-de-calculo
 
Integración de kits arduinos enlazados mediante xbee para aplicaciones de car...
Integración de kits arduinos enlazados mediante xbee para aplicaciones de car...Integración de kits arduinos enlazados mediante xbee para aplicaciones de car...
Integración de kits arduinos enlazados mediante xbee para aplicaciones de car...
 
Intensificación
IntensificaciónIntensificación
Intensificación
 

Teoría de la Información y Capacidad de Canal

  • 1. Tema 2: Teoría de la información y capacidad de canal Dr. José Ramón Cerquides Bueno Teoría de la Señal y Comunicaciones Universidad de Sevilla Transmisión Digital
  • 2. Organización • Introducción • Fundamentos de teoría de la información • Incertidumbre, información, entropía • Teorema de codificación de fuente • Entropía condicionada e información mútua • Capacidad de un canal discreto • Teorema de codificación de canal • Capacidad de un canal analógico • Entropía diferencial • Información mútua entre variables continuas • Teorema de Shannon • Consecuencias e implicaciones • Conclusiones • Referencias
  • 3. Introducción • Trataremos de resolver dos preguntas: • ¿Cuál es el nº mínimo de bits necesario para representar una cierta cantidad de información? TEOREMA DE CODIFICACIÓN DE FUENTE • ¿Existe una velocidad de transmisión de información límite para un cierto canal? ¿Cuál es? TEOREMA DE CODIFICACIÓN DE CANAL TEOREMA DE CAPACIDAD DE CANAL • Necesitaremos introducir algunos conceptos de Teoría de la Información: • Entropía • Información mutua • Capacidad de canal
  • 4. Definición del experimento • Un experimento S tiene un conjunto de J posibles resultados S = {s0, s1,...,sJ-1} cada uno de ellos con probabilidad pj • EJEMPLOS: • Lanzamiento de una moneda o un dado S = {s0, s1} = {‘cara’,’cruz’} = {‘c’,’+’} {p0, p1} = {1/2, 1/2} S = {s0, s1, s2, s3, s4,s5} = {‘1’,’2’,’3’,’4’,’5’,’6’} {p0, p1, p2, p3, p4,p5} = {1/6, 1/6, 1/6, 1/6, 1/6, 1/6} • Meteorología (lluvioso, nublado, soleado) S = {s0, s1, s2} = {‘lluvioso’,’nublado’,’soleado’} {p0, p1, p2} = {?, ?, ?} = {1/10, 1/5, 7/10} • Transmisión de un símbolo QPSK S = {s0, s1, s2, s3} = {‘1’,’j’,’-1’,’-j’} {p0, p1, p2, p3} = {1/4, 1/4, 1/4, 1/4}
  • 5. Incertidumbre, información y entropía • Se va a realizar el experimento S • Antes de conocer el resultado tenemos cierta incertidumbre: ¿cuánta? • Una vez conocido el resultado ganamos cierta cantidad de información: ¿cuánta? • Cantidad de información al observar el evento sj es: I(sj) = log2(1/pj) = -log2(pj) bits • EJEMPLOS: • Lanzamiento de una moneda  I(‘c’) = I(‘+’) = 1 bit • Lanzamiento de un dado  I(‘sj’) = 2,58 bits • Meteorología  I(‘lluvioso’) = 3,32 bits I(‘nublado’) = 2,32 bits I(‘soleado’) = 0,51 bits • Transmisión QPSK  I(‘sj’) = 2 bits
  • 6. Incertidumbre, información y entropía • Propiedades de la información: • I(sj) ≥ 0, cumpliendose la igualdad si y solo si pj=1 • “Cualquier evento nos da cierta cantidad de información, a menos que sea seguro que va a ocurrir, en cuyo caso su ocurrencia no nos da ninguna información”. • EJEMPLO: Al tirar un dado sale un nº entre 1 y 6. • I(sj) > I(si) si pj < pi • “Un evento tiene más información cuanto menos probable es” • EJEMPLO: Meteorología • I(sj,si) ≤ I(sj) + I(si) cumpliéndose la igualdad si y solo si sj y si son independientes. • “La información del resultado de dos experimentos es menor o igual que la suma de las informaciones por separado”. • EJEMPLOS: I(‘lluvioso’,’2’) = 5.90 bits = I(‘lluvioso’) + I(‘2’) I(‘transmito ‘0’,’recibo ‘0’) = 0.152 bits < 2 bits.
  • 7. Incertidumbre, información y entropía • Se define la entropía de S como: • H(S) mide la incertidumbre ante el experimento S. O también la información media que cabe esperar del resultado. • La entropía es máxima si todos los casos son equiprobables 0 ≤ H(S) ≤ log2(J) • EJEMPLOS: • Lanzamiento de una moneda  H(S) = 1 bit • Lanzamiento de un dado  H(S) = 2,58 bits • Meteorología  H(S) = 1.153 bits • Transmisión QPSK  H(S) = 2 bits ( ) ( ){ } ( ) J 1 J 1 j j j j 2 j 0 j 0 j 1 H S E I s p I s p log p − − = =   = = =  ÷ ÷   ∑ ∑
  • 8. Incertidumbre, información, entropía • EJEMPLO: Fuente binaria • S={s0, s1} = {‘0’,’1’} con probabilidades {p0,p1} = {p,1-p} • H(S) = -p·log2(p) - (1-p)·log2(1-p) • Nótese que: • Si p=0 o p=1, H(S) = 0 • Si p=1/2, H(S) es máxima e igual a 1 bit. 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 p H(S) Entropía de una fuente binaria
  • 9. Teorema de codificación de fuente • Dada una fuente S con J posibles símbolos decidimos codificarla utilizando para cada símbolo sj una palabra binaria bj de longitud Lj (digitos binarios). • La longitud media de una palabra código (o número medio de dígitos binarios por símbolo) será: • El teorema de codificación de fuente (Shannon, 1948) establece que • La eficiencia de un codificador de fuente, η es: J 1 j j j 0 L p L − = = ∑ ( )SHL ≥ ( ) L SH =η
  • 10. Teorema de codificación de fuente • EJEMPLO: • Considere el conjunto S de posibles resultados de un examen S={NP, SU, AP, NO, SO, MH} con probabilidades asociadas {0.1,0.15,0.4,0.2,0.1,0.05} • La entropía de fuente es: H(S) = 2.28 bits • Si codificamos de la forma siguiente: NP SU AP NO SO MH 000 001 010 011 100 011 obtenemos L = 3 y η=76%. • De la forma siguiente: NP SU AP NO SO MH 110 111 0 101 1001 1011 obtenemos L = 2.35, y η=97%.
  • 11. Entropía condicionada • Consideremos un conjunto posible de símbolos emitidos S={sj}, j=0..J-1 y otro conjunto posible de símbolos recibidos R = {rk}, k=0..K-1. • Definimos H(S|rk) de la forma siguiente: como entropía de S condicionada a la recepción del símbolo rk (incertidumbre que queda respecto a S una vez recibido rk). • EJEMPLO • S={carta baraja (40 posibilidades)}, R={figura, no figura}, • H(S) = 5.32 H(R)=0.88 • H(S|figura) =3.58 H(S|no figura) = 4.8 ( ) ( ) ( ) J 1 k j k 2 j 0 j k 1 H S| r p s | r log p s | r − =    ÷=  ÷   ∑
  • 12. Entropía condicionada • Definimos la entropía de S condicionada a R como: es decir, como incertidumbre promedio que queda respecto a S una vez recibido R. • EJEMPLO: • S={carta baraja (40 posibilidades)}, R={figura, no figura}, • H(S) = 5.32 H(R)=0.88 • H(S|figura) =3.58 H(S|no figura) = 4.8 • H(S|R) = p(figura)·H(S|figura) + p(no figura)·H(S|no figura) • H(S|R) = 0.3·3.58 + 0.7·4.8 = 4.43 ( ) ( ) ( ) K 1 J 1 j k 2 k 0 j 0 j k 1 H S| R p s ,r log p s | r − − = =    ÷=  ÷   ∑∑ ( ) ( ){ } ( ) ( ) ( ) K 1 J 1 k k j k 2 k 0 j 0 j k 1 H S| R E H S| r p r p s | r log p s | r − − = =    ÷= =  ÷   ∑ ∑
  • 13. Información mutua • Consideremos dos experimentos S y R: • Antes de conocer R nuestro desconocimiento de S es H(S) • Conocida R nuestro desconocimiento de S es H(S|R) • Luego R aporta H(S) – H(S|R) información sobre S. • La información mútua entre S y R se define como: I(S;R) = H(S) - H(S|R) y mide la cantidad de información que R tiene sobre S (o S sobre R). • EJEMPLO: • Cartas y figuras  I(S;R) = 5.32 – 4.43 = 0.89 bits
  • 14. Información mutua • Propiedades de la información mutua: • I(S;R) = I(R;S) • I(S;R) ≥ 0, con igualdad si y solo si S y R independientes • I(S;R) = H(S)–H(S|R) = H(R)–H(R|S) = H(S)+H(R)-H(S;R) siendo H(S;R) la entropía conjunta de S y R ( ) ( ) ( ) K 1 J 1 j k 2 k 0 j 0 j k 1 H S;R p s ,r log p s ,r − − = =    ÷=  ÷   ∑∑ ( ) ( ) ( ) ( ) ( ) J 1 K 1 J 1 j 2 j k 2 j 0 k 0 j 0j j k 1 1 I S;R p s log p s ,r log p s p s | r − − − = = =      ÷  ÷= −  ÷  ÷     ∑ ∑∑ ( ) ( ) ( ) ( ) ( ) K 1 J 1 j k 2 j k 2 k 0 j 0 j j k 1 1 I S;R p s ,r log p s ,r log p s p s | r − − = =      ÷  ÷= −  ÷  ÷     ∑∑ ( ) ( ) ( ) ( ) K 1 J 1 j k j k 2 k 0 j 0 j p s | r I S;R p s ,r log p s − − = =    ÷=  ÷   ∑∑
  • 15. Información mútua • Otra forma de calcular la información mútua: I(S;R) = H(S) + H(R) - H(S;R) = ( ) ( ) ( ) ( ) ( ) ( ) J 1 K 1 K 1 J 1 j 2 k 2 j k 2 j 0 k 0 k 0 j 0kj j k 1 1 1 p s log p r log p s ,r log p rp s p s ,r − − − − = = = =       ÷  ÷= + − = ÷ ÷ ÷  ÷     ∑ ∑ ∑∑ ( ) ( ) ( ) ( ) ( ) ( ) K 1 J 1 j k 2 j k 2 j k 2 k 0 j 0 kj j k 1 1 1 p s ,r log p s ,r log p s ,r log p rp s p s ,r − − = =       ÷  ÷= + − = ÷ ÷ ÷  ÷     ∑∑ ( ) ( ) ( ) ( ) K 1 J 1 j k 2 2 2 k 0 j 0 kj j k 1 1 1 p s ,r log log log p rp s p s ,r − − = =        ÷ ÷  ÷= + − = ÷ ÷ ÷  ÷ ÷      ∑∑ ( ) ( ) ( ) ( ) ( ) K 1 J 1 j k j k 2 k 0 j 0 j k p s ,r p s ,r log I S;R p s p r − − = =    ÷= =  ÷   ∑∑
  • 16. Información mutua • EJEMPLO: Transmisión Y-QAM equiprobable: p(sj) = ¼ p(r0) = ¼ (0.55+0.1+0.1+0.1) = 0.2125 p(r1) = ¼ (0.15+0.8+0.05+0.05) = p(r2) = p(r3) = 0.2625 H(S)=2 H(R) = 1.99 H(S;R)=3,19 I(S;R) = 2 + 1.99 – 3.19 = 0.8 H(S|R) = H(S) – I(S;R) = 1.2 H(R|S) = H(R) – I(R;S) = 1.19 ( )k j 0.55 0.15 0.15 0.15 0.1 0.8 0.05 0.05 P r | s 0.1 0.05 0.8 0.05 0.1 0.05 0.05 0.8      =       Re Im -j s3 s0 s2 s1 j/2 3 2 3 2 −
  • 17. Capacidad de un canal discreto • Deseamos que la información mutua sea máxima. • El canal está fijado, luego lo único que podemos modificar son las probabilidades de los diferentes símbolos transmitidos. • Cuando se maximiza I(S;R) respecto a las probabilidades de los diferentes sj j={0..J-1}, al valor máximo lo denominamos capacidad del canal: • Para obtener C será preciso tener en cuenta que: P(sj) ≥0 ∀j ( ) ( ) jp s C max I S;R= ( ) J 1 j j 0 p s 1 − = =∑
  • 18. • Ejemplo: Canal binario simétrico • p(r0|s0)=1-pe • p(r0|s1)=pe • p(r1|s0)=pe • p(r1|s1)=1-pe • p(r0,s0)=p(r0|s0)p(s0)=(1-pe)p(s0) • p(r1,s0)=pep(s0) • p(r0,s1)=pep(s1)=pe(1-p(s0)) • p(r1,s1)=(1-pe)(1-p(s0)) Capacidad de un canal discreto 0 1 0 1 1-pe 1-pe pe pe
  • 19. Ejemplo: Canal binario simétrico (2) • p(r0)= p(r0,s0)+p(r0,s1)=(1-pe)p(s0) + pe(1-p(s0)) • p(r1)= 1-p(r0) =pep(s0) +(1-pe)(1-p(s0)) I(S;R) = H(R)–H(R|S) ( ) ( ) ( ) ( ) ( ) ( ) 0 0 0 0 I S,R I S,R p r 0 p s p r p s ∂ ∂ ∂ = = ∂ ∂ ∂ ( ) ( ) jp s C maxI S;R= ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 0 0 0 0 0 I S,R H R H R | S p r 0 p s p r p r p s  ∂ ∂ ∂ ∂ = − = ÷ ÷∂ ∂ ∂ ∂  ( ) ( ) ( ) ( ) ( )0 2 1 2 0 1 1 1 H R p r log p r log p r p r     = + ÷  ÷     ( ) ( ) ( ) ( )2 2 0 0 0 H R 1 1 log log p r p r 1 p r     ∂   = − ÷  ÷  ÷  ÷∂ −     
  • 20. Ejemplo: Canal binario simétrico (3) ( ) ( )0 H R | S 0 p r ∂ = ∂ ( ) ( ) ( ) K 1 J 1 k j 2 k 0 j 0 k j 1 H R | S p r ,s log p r | s − − = =    ÷=  ÷   ∑∑ ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 0 0 2 0 1 2 0 0 0 1 1 0 2 1 1 2 1 0 1 1 1 1 H R | S p r ,s log p r ,s log p r | s p r | s 1 1 p r ,s log p r ,s log p r | s p r | s     = + + ÷  ÷ ÷  ÷         + + ÷  ÷ ÷  ÷     ( ) ( ) ( ) ( )( ) ( ) ( ) ( )( ) e 0 2 e 0 2 e e e 0 2 e 0 2 e e 1 1 H R | S 1 p p s log p 1 p s log 1 p p 1 1 p p s log 1 p 1 p s log p 1 p     = − + − + ÷  ÷ −        + + − − ÷  ÷ −   
  • 21. Ejemplo: Canal binario simétrico (4) p(r0)= p(r0,s0)+p(r0,s1)=(1-pe)p(s0) + pe(1-p(s0)) ( ) ( ) ( ) ( ) ( )2 2 e 0 0 0 I S,R 1 1 log log 1 2p 0 p s p r 1 p r     ∂   = − − = ÷  ÷  ÷  ÷∂ −      ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) 0 0 0 0 0 I S,R H R H R | S p r 0 p s p r p r p s  ∂ ∂ ∂ ∂ = − = ÷ ÷∂ ∂ ∂ ∂  ( ) ( ) ( ) ( )2 2 0 0 0 H R 1 1 log log p r p r 1 p r     ∂   = − ÷  ÷  ÷  ÷∂ −      ( ) ( )0 H R | S 0 p r ∂ = ∂ ( ) ( ) 0 e 0 p r 1 2p p s ∂ = − ∂
  • 22. Ejemplo: Canal binario simétrico (y 5) • La solución implica p(r0) = 1 – p(r0), luego p(r0) = ½ • Por tanto p(s0) = ½ , como cabía esperar. • La capacidad es: ( )e 2 e 2 e e 1 1 C 1 p log 1 p log p 1 p     = − − − ÷  ÷ −    ( ) ( ) ( ) ( ) ( )2 2 e 0 0 0 I S,R 1 1 log log 1 2p 0 p s p r 1 p r     ∂   = − − = ÷  ÷  ÷  ÷∂ −     
  • 23. • Fuente S • Genera símbolos de fuente a una velocidad Rs (símbolos de fuente/segundo) • Entropía de S es H(S) (bits información/símbolo de fuente) • Canal • Capacidad C (bits/símbolo de canal transmitido) • Transmite símbolos a un régimen Rc (símbolos de canal transmitidos/segundo) • Teorema de codificación de canal (Shannon, 1948) • Es posible enviar (con el código adecuado) con una probabilidad de error arbitrariamente pequeña si y solo si: H(S)·Rs ≤ C·Rc Teorema de codificación de canal S Cod. canal Canal Rs Rc Rc Decod. canal Destino Rs
  • 24. EJEMPLOS • EJEMPLO: Canal binario simétrico • pe = 0.03  C = 0.8 bits / símbolo de canal • Fuente S binaria equiprobable (H(S)=1 bit/símbolo de fuente) con velocidad Rs = 1 símbolo de fuente/segundo H(S)Rs ≤ CRc 1 bit/segundo ≤ 0.8 Rc Rc ≥ 1.25 símbolos de canal transmitidos / segundo • EJEMPLO: Modem V.90 • Modo 56 kbps • peb = 10-3  C = 0.988 • Permitiría transmitir datos con una probabilidad de error tan pequeña como se quiera siempre que la velocidad de información de la fuente sea inferior a 56000· 0.988 = 55361 bits información / segundo (y se haga uso de la codificación apropiada).
  • 25. Entropía diferencial • ¿Podríamos trasladar los resultados obtenidos a señales analógicas? • Calculemos la entropía de una variable aleatoria continua X como límite de una discreta con infinitos niveles: X = {xj} j = 0..J-1 ( ) ( ){ } ( ) J 1 J 1 j j j j 2 j 0 j 0 j 1 H X E I x p I x p log p − − = =   = = =  ÷ ÷   ∑ ∑ x fX(x) x0 x1 x2 . . . xJ-1 Δx p(x1) ≈ fX(x1)Δx
  • 26. Entropía diferencial Al hacer tender J a infinito p(xj) ≈ fX(xj)Δx x fX(x) x0 x1 x2 . . . xJ-1 Δx -∞ ∞dx ( ) ( ) ( )X j 2 x 0 j X j 1 H X lim f x xlog f x x ∞ ∆ → =−∞    ÷= ∆  ÷∆  ∑
  • 27. Entropía diferencial (continuación) ( ) ( ) ( ) ( ) ( )X j 2 X j 2 x 0 j jX j 1 H X lim f x xlog f x xlog x f x ∞ ∞ ∆ → =−∞ =−∞      ÷= ∆ − ∆ ∆   ÷    ∑ ∑ ( ) ( ) ( ) ( ) ( )X 2 X 2 x 0 X 1 H X f x log dx f x dx lim log x f x ∞ ∞ ∆ → −∞ −∞     = − ∆ ÷  ÷    ∫ ∫ ( ) ( )2 x 0 H X h(X) lim log x ∆ → = − ∆ ( ) ( ) ( )X 2 X 1 h X f x log dx f x ∞ −∞   =  ÷   ∫ ( ) ( ) ( )X j 2 x 0 j X j 1 H X lim f x xlog f x x ∞ ∆ → =−∞    ÷= ∆  ÷∆  ∑ ( ) ( ) ( ) ( )X 2 2 x 0 X 1 H X f x log dx lim log x f x ∞ ∆ → −∞   = − ∆ ÷   ∫
  • 28. Entropía diferencial • CONSIDERACIONES: • Cualquier variable aleatoria tiene infinita información • La entropía diferencial va a servir para compararlas entre sí • EJEMPLO: Distribución uniforme fX(x) = 1/a·[u(x) – u(x-a)] h(X) = log2(a) • EJEMPLO: Distribución gaussiana • Dada una varianza σ2 , la variable gaussiana tiene la mayor entropía diferencial de todas las posibles v.a. • La entropía diferencial es independiente de la media µ. ( ) ( )2 2 x 2 X 1 f x e 2 −µ − σ = πσ ( ) ( )2 2 1 h X log 2 e 2 = π σ
  • 29. Información mútua entre variables continuas • Partiendo de la expresión de la información mútua para variables discretas: • Información mútua entre X e Y • Propiedades • I(X,Y) = I(Y,X) • I(X,Y) ≥ 0 • I(X,Y) = h(X)+h(Y)– h(X;Y) = h(X)–h(X|Y) = h(Y)–h (Y|X) ( ) ( ) ( ) ( ) ( ) XY XY 2 X Y f x, y I X,Y f x, y log dxdy f x f y ∞ ∞ −∞ −∞   =  ÷ ÷   ∫ ∫ ( ) ( ) ( )XY 2 XY 1 h X;Y f x, y log dxdy f x, y ∞ ∞ −∞ −∞   =  ÷ ÷   ∫ ∫ ( ) ( ) ( ) ( ) ( ) K 1 J 1 j k j k 2 k 0 j 0 j k p s ,r I S;R p s ,r log p s p r − − = =    ÷=  ÷   ∑∑
  • 30. Teorema de capacidad de canal • Dado un canal con las características • Ancho de banda B (ideal dentro de la banda) • Ruido gaussiano de potencia Pn • Señal recibida de potencia Ps ¿cuál es la máxima velocidad de transmisión de información alcanzable? • Sea cual sea el esquema de codificador(es), modulador, etc. … acabaremos emitiendo una señal de ancho de banda B. • Por el teorema de Nyquist “Cualquier señal de ancho de banda B Hz puede representarse por un conjunto de muestras tomadas a frecuencia 2B” • CONCLUSIÓN: La señal emitida (y la recibida) pueden representarse con 2B muestras/segundo.
  • 31. Teorema de capacidad de canal Xk Nk Yk … k-1 k k+1 … Ruido Señal emitida Señal recibida
  • 32. Teorema de capacidad de canal • ¿Cuánta información podrá transportar cada muestra? Tendremos que obtener la capacidad del canal • La relación entre muestras emitidas y recibidas es: Yk = Xk + Nk • La capacidad de canal se obtiene maximizando la información mútua (potencia emitida limitada): C=max{I(Xk,Yk), E{Xk 2 }= Ps} I(Xk,Yk) = h(Yk) – h(Yk|Xk) h(Yk|Xk) = h(Xk+Nk|Xk) = h(Nk) pero el ruido es gaussiano  h(Nk) = ½log2(2πePn) I(Xk,Yk) = h(Yk) – h(Nk) = h(Yk) - ½log2(2πePn) que será máxima cuando Yk sea gaussiana.
  • 33. Teorema de capacidad de canal • Como Yk tiene potencia Ps+Pn, su entropía será: h(Yk) = ½log2(2πe[Ps+Pn]) • Por tanto, la capacidad de canal será: C = ½log2(2πe[Ps+Pn]) - ½log2(2πePn) C = ½log2(1+Ps/Pn) bits/muestra transmitida El número máximo de muestras independientes transmisibles es 2B muestras /segundo, luego C = B·log2(1+Ps/Pn) bits/segundo C = B·log2(1+SNR) Para el caso más habitual (ruido térmico) de densidad espectral N0/2 C = B·log2(1+Ps/(BN0))
  • 34. Teorema de capacidad de canal • EJEMPLO: Canal teléfónico: Centralitas digitales • B < 4000 Hz • SNR < 48 dB (6,02 dB/bit x 8 bits) C < 4000·log2(1+104.8 ) = 63781 bps • Centralitas analógicas • B < 3100 Hz (300 Hz – 3400 Hz) • SNR < 30 dB (estudios de canal telefónico) C < 3100·log2(1+103 ) = 30898 bps • Canal TV analógico • B  5 MHz • SNR  38 dB (canal regular) C  5·106 ·log2(1+103.8 ) = 63,1 Mbps
  • 35. Implicaciones del teorema • Consideremos un sistema ideal que transmite a la máxima velocidad Rb= C Ps = EbRb = CEb C = B·log2(1+Ps/(BN0)) Si B  ∞, Eb/N0 = ln(2) = 0.693 = -1.6 dB Por debajo de esa relación Eb/N0 es absolutamente imposible la transmisión sin errores. b 2 0 EC C log 1 B N B   = + ÷   C Bb 0 E B 2 1 N C    ÷     = − ÷  ÷  
  • 36. Implicaciones del teorema • Si el sistema transmite a una velocidad Rb < C • CONCLUSIONES: • Compromiso entre la relación Eb/N0 (relación SNR) y Rb/B (eficiencia) • Existen zonas en las que resulta posible/imposible la transmisión sin errores. • Se establece así el límite de Shannon o cota de capacidad de canal. b b 2 0 E R Blog 1 C N B   + ≤ ÷  
  • 37. Compromiso Eb/N0 y Rb/B -5 0 5 10 15 20 25 10 -1 10 0 10 1 Eb/No dB Rb/B Relació n Eb/No y Rb/B Zona posible Zona imposible
  • 38. Referencias • Communication Systems, 3rd .ed. • Simon Haykin, John Wiley & Sons, 1994. • Páginas 614 a 622 y 631 a 656. • Digital Communications, 4th ed. • John G. Proakis, McGraw-Hill, 2000. • Páginas 381 a 387 • An Introducction to Digital Communications • Jack Kurzweil, John Wiley & Sons, 1999. • Páginas 366-380 • Digital Transmission Engineering • John B. Anderson, 1999. • Páginas 268-272.