Documentos de Académico
Documentos de Profesional
Documentos de Cultura
numériques
1 / 406
Détails pratiques
Ï Examen
écrit (obligatoire)
à livre fermé
des questions de théorie et d’exercices !
Ï Transparents
version PDF en ligne à l’adresse
http://orbi.ulg.ac.be/handle/2268/1812
transparents ≡ matière d’examen
Ï Notes de cours
disponibles à l’AEES
version PDF en ligne à l’adresse
http://orbi.ulg.ac.be/handle/2268/1503
B les notes ne couvrent pas certains chapitres vus au cours
2 / 406
Table des matières
1 Introduction
2 Signaux et systèmes de télécommunications
3 Modulation d’onde continue
4 Variables aléatoires, processus stochastiques et bruit
5 Technologies du réseau Internet
6 Introduction à la numérisation
7 Transmission de signaux numériques en bande de base
8 Modulation numérique
9 Notions de code
10 Propagation et systèmes radio
11 Principes de fonctionnement du réseau GSM
12 Principes de fonctionnement de la 4G
13 Transmission sur réseau d’alimentation électrique domestique
3 / 406
Données
Voix
Télécommunications
Mobilité
5 / 406
6 / 406
Structure d’une chaı̂ne de télécommunications
Transducteur Transducteur
Émetteur Récepteur
Canal
Système de télécommunications
7 / 406
Principaux composants :
1 signal
2 canal de transmission (câble, radio)
3 électronique (amplificateurs, filtres, modems, etc)
et beaucoup d’ingénierie !
8 / 406
Ingénierie en télécommunications ?
Ï Conception
création de nouveaux systèmes, simulation, vérification, design
Ï Fabrication
production, amélioration des procédés
Ï Expertise / conseil / formation
Ï Exploitation
installation, mise en œuvre, contrôle opérationnel, gestion des
pannes
9 / 406
Ingénierie en télécommunications ?
Ï Conception
création de nouveaux systèmes, simulation, vérification, design
Ï Fabrication
production, amélioration des procédés
Ï Expertise / conseil / formation
Ï Exploitation
installation, mise en œuvre, contrôle opérationnel, gestion des
pannes
10 / 406
Structure d’une chaı̂ne de télécommunications numérique
SOURCE
Message transmis
• Codage de source
• Modulation
ÉMETTEUR • Filtrage passe-bas
• Calcul du spectre
• Codes correcteurs d’erreurs
Signal transmis
• Bande de base
CANAL DE • Porteuse
TRANSMISSION • Canal idéal
• Canal non-idéal (interférences, non-linéarités, ...)
Signal reçu
• Décision
• Récepteur optimal
RÉCEPTEUR • Démodulation : cohérente ou non-cohérente
• Filtrage passe-bande
• Synchronisation
• Performances
Message reçu
11 / 406
Modèle de référence I
Ordinateur A Ordinateur B
Application Application
Réseau
12 / 406
Modèle de référence II
13 / 406
Réseau
14 / 406
Modèle Internet : éléments de l’architecture TCP/IP
Application de l’utilisateur
IP 3. Couche Réseau
2. Couche Liaison
IEEE802.X / X.25
1. Couche Physique
15 / 406
U et V
0 1 2 3 4 5 6 f (MHz)
Bande de fréquence U et V
3 Signaux numériques.
Le débit d’information est exprimé en bit/s (parfois en byte/s)
Le nombre de symboles transmis pendant une seconde est
mesuré en baud ≡ symbole/s.
17 / 406
Remarques
Ï x(t) et X (f ) sont parfaitement équivalents !
Ï on parle de fréquences et non de pulsations ω ou de valeurs
normalisées (à 1), comme F ou Ω.
Ï peut-on parler de fréquences f négatives ?
18 / 406
Bande passante
° °
°X (f )°2
Wequ
fc f
(a)
(b)
(c)
(d)
20 / 406
Catégories de signaux
Ï analogiques ou numériques,
Ï périodiques ou apériodiques,
Ï déterministes ou stochastiques,
Ï d’énergie ou de puissance.
21 / 406
1.5
0.5 101011
0
-0.5
-1
0 2 4 6 8 10
22 / 406
Caractérisation d’un canal pour la transmission d’
Exemple
[meilleur usage des fréquences] : de la TV analogique à la TV numérique
Ï canal pour signal analogique PAL : largeur de bande de 8[MHz]
Ï télévision numérique, qualité PAL ∼ 5[Mb/s]
avec une modulation 64-QAM, dont l’efficacité spectrale est de
6b/s par Hz, un canal de 8[MHz] offre un débit de 48[Mb/s].
Conclusion : grâce à la numérique, il y a place pour 10 signaux de
télévision numérique au lieu de 1 chaı̂ne de télévision analogique.
Déterministe ou aléatoire ?
Émetteur Récepteur
Signal utile déterministe aléatoire
Bruit et interférences aléatoire aléatoire
Table – Nature des signaux dans une chaı̂ne de télécommunications.
24 / 406
Puissance instantanée
25 / 406
Énergie et puissance
Définition (Énergie)
L’énergie totale du signal g (t) est définie par
ˆ T ¯ ¯
E = lim ¯g (t)¯2 dt (6)
T →+∞ −T
ˆ +∞ ¯ ¯
= ¯g (t)¯2 dt (7)
−∞
26 / 406
Décibel
Définition (Décibel)
P [mW ]
P [dBm] = 10log10 (10)
1[mW ]
x [W ] 10log10 (x)[dBW ]
1[W ] 0[dBW ]
2[W ] 3[dBW ]
0, 5[W ] −3[dBW ]
5[W ] 7[dBW ]
10n [W ] 10 × n [dBW ]
µ ¶2
U U
10log10 = 20log10 (11)
[V ] [V ]
H (f ) = α e −2πjf τ (13)
° °
°H (f )°
−fc fc f
W
arg H (f )
−fc fc f
28 / 406
Distorsions et bruit
Ï Bruit
additif
multiplicatif
29 / 406
Ï Introduction
Signaux en jeu et hypothèses :
signal modulant ≡ information
signal de porteuse : signal sinusoı̈dal
Techniques de modulation
Ï Modulation d’amplitude
Modulation d’amplitude classique
Répartition de la puissance, réalisation, discussion
Modulations d’amplitude dérivées
Ï Modulation angulaire
Bande passante requise
Ï Partage du plan de fréquence
Multiplexage en fréquence
Récepteur super-hétérodyne
31 / 406
Acos(2πfc t) (17)
qu’au récepteur.
3 un cosinus est compatible avec des systèmes linéaires (comme
Acos(2πfc t) (17)
qu’au récepteur.
3 un cosinus est compatible avec des systèmes linéaires (comme
35 / 406
Modulation de fréquence
Amplitude Phase
37 / 406
Illustration
Porteuse : c(t)
(a)
Signal modulant : m(t)
+1
−1
(b)
Signal modulé : s(t)
Ac (1 + ka )
Ac
Ac (1 − ka )
−Ac (1 − ka ) t
−Ac
−Ac (1 + ka )
(c)
38 / 406
¯ ¯
Condition : ka m(t)¯ < 1, sinon il y a surmodulation
¯
s(t)
+Ac
t
−Ac
(a)
s(t)
Inversion de la phase
+Ac
t
−Ac
(b)
¯ ¯ ¯ ¯
Figure – (a) ¯ka m(t)¯ < 1 : tout est en ordre. (b) ¯ka m(t)¯ > 1 :
surmodulation car confusion entre deux valeurs de m(t) au démodulateur.
39 / 406
Analyse spectrale I
Contenu spectral :
Ï δ(f − fc ) + δ(f + fc ) : la porteuse
Ï M (f − fc ) : le signal modulant décalé de fc vers la droite
Ï M (f + fc ) : le signal modulant décalé de fc vers la gauche
(pour des raisons de symétrie “mathématique”)
40 / 406
Analyse spectrale II
Ac ka Ac
S (f ) = [δ(f − fc ) + δ(f + fc )] + [M (f − fc ) + M (f + fc )] (23)
2 2
° °
°M (f )°
(a)
−W 0 +W f
° °
°S (f )°
Ac Ac
(b) 2 δ(f + fc ) 2 δ(f − fc )
BLS BLS
BLI BLI
f
−fc − W −fc −fc + W 0 fc − W fc fc + W
41 / 406
Réalisation de la modulation
Modulation linéaire
c(t)
s(t)
g (t)
0.5
s(t)
−0.5
−1
−0.5 −0.4 −0.3 −0.2 −0.1 0 0.1 0.2 0.3 0.4 0.5
m(t)
Démodulation I
Détection d’enveloppe
Rs
C Rl Sortie
s(t)
44 / 406
Démodulation II
Démodulation AM synchrone ou cohérente
Ac
ps : quid de la composante continue 2 ?
45 / 406
Démodulation III
Spectre AM Spectre de la porteuse
Ac /2 Ac /2 1/2 1/2
Mélangeur
−fc fc f −fc fc f
−2fc −fc −W W f
c 2fc f
Spectre du message
Ac /2
−W W f
A0 cos(2πfl t + φ) (27)
0 Ac A0
s(t)A cos(2πfl t +φ) = m(t)(cos(2π(fl −fc )t +φ)+cos(2π(fc +fl )t +φ))
2
(28)
Même si fl et fc concordent parfaitement (c.-à-d. fl = fc ), l’écart de
phase joue l’effet d’un atténuateur car, après filtrage,
0 Ac A0
s(t)A cos(2πfl t + φ) → m(t)cos φ (29)
2
C’est problématique, surtout si φ varie au cours du temps (φ →
φ(t)), car alors il y a une confusion temporelle pour m(t)cos φ(t).
47 / 406
48 / 406
Signal modulé en amplitude par modulation à porteuse
supprimée
Spectre :
Ac
S (f ) = (M (f − fc ) + M (f + fc )) (32)
2
Avantage :
Ï économie de puissance (puisqu’il n’y a pas de porteuse)
Inconvénient :
Ï pas de résidu de porteuse. Cela peut compliquer la
démodulation cohérente (qui a besoin de la porteuse), pour un
récepteur simplifié.
49 / 406
1
2 Ac m(t)cos φ
m(t)
cos(2πfc t + φ)
Discriminateur
VCO
de phase
Signal DSB-SC
Ac m(t)cos(2πfc t)
− π2
sin(2πfc t + φ)
1
2 Ac m(t)sin φ
50 / 406
Modulation en quadrature I
Propriétés :
Ï Ac m1 (t)cos(2πfc t) et Ac m2 (t)sin(2πfc t) occupent
rigoureusement la même bande de fréquences
deux signaux occupent la même bande de fréquences →
économie relative de bande de fréquences d’un facteur 2
Ï il est possible de récupérer m1 (t) et m2 (t) au moyen d’un
démodulateur synchrone au moyen de, respectivement, cos()
et sin(), et de deux filtres passe-bas.
51 / 406
Modulation en quadrature II
m1 (t) + s(t)
+
Ac cos(2πfc t)
+ π2
Ac sin(2πfc t)
m2 (t)
1 0
2 Ac Ac m1 (t)
A0c cos(2πfc t)
s(t)
+ π2
A0c sin(2πfc t)
1 0
2 Ac Ac m2 (t)
52 / 406
Modulation à bande latérale unique I
S (f ) = U (f )H (f ) (34)
Ac
= [M (f − fc ) + M (f + fc )]H (f ) (35)
2
Considérons la détection cohérente
A0c
V (f ) = [S (f − fc ) + S (f + fc )] (37)
2
53 / 406
Ac A0c
V (f ) = M (f )[H (f − fc ) + H (f + fc )]
4
Ac A0c
+ [M (f − 2fc )H (f − fc ) + M (f + 2fc )H (f + fc )]
4
Le second terme est éliminé à la réception par simple filtrage (car
autour de 2fc ).
Théorème
À la réception, le signal en bande de base n’a subi aucune
distorsion à la condition que, ∀f ,
H (f − fc ) + H (f + fc ) = 1 (38)
54 / 406
Modulation à bande latérale unique III
55 / 406
1/2 1/2
BLI Mélangeur
−fc fc f −fc fc f
−2fc −fc −W W f
c 2fc f
Spectre du message
−W W f
56 / 406
Tableau récapitulatif des modulations d’onde continue
s(t) ||S (f )|| BP
AM
Ac (1 + ka m(t))cos(2πfc t) 2W
classique
−fc fc f
DSB-SC Ac m(t)cos(2πfc t) 2W
−fc fc f
Ac m1 (t)cos(2πfc t)
QAM 2W
+Ac m2 (t)sin(2πfc t)
SSB W
−fc fc f
(1 + α)
VSB
W
−fc fc f
Ac cos(2πfc t + 2(∆f
FM ´t
2πkf 0 m(τ)d τ) +W )
57 / 406
Ï Principes et définitions
Ï Analyse de la modulation de fréquence analogique
Ï Modulation par une cosinusoı̈de
Analyse spectrale
Bande passante requise
58 / 406
Principes
Modulation de fréquence
Amplitude Phase
Ac cos φ(t)
Modulation PM Modulation FM
φ(t)
φ(t) = 2πfc t + kp m(t)
Paramètres d’une PM
4φ(t) = φ(t) − (2πfc t + φc )
β = max |4φ(t)|
60 / 406
Tableau comparatif entre une modulation de phase et une
modulation de fréquence II
Ac cos(2πf (t)t)
Modulation PM Modulation FM
f (t)
f (t) = fc + kf m(t)
61 / 406
Modulation PM Modulation FM
φ(t) f (t)
φ(t) = 2πfc t + kp m(t) f (t) = fc + kf m(t)
62 / 406
Lien entre modulation de phase et de fréquence
Ac cos(2πfc t)
Ac cos(2πfc t)
−0.5
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
10
−10
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
10
−10
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
10
−10
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
où 4f = kf Am .
La phase instantanée vaut
ˆ t
φ(t) = 2π f (u)du (42)
0
ˆ t
= 2πfc t + 2π4f cos(2πfm u)du (43)
0
4f
= 2πfc t + sin(2πfm t) (44)
fm
66 / 406
Analyse de l’occupation spectrale III
La phase instantanée vaut donc
4f
φ(t) = 2πfc t + sin(2πfm t) (45)
fm
L’excursion maximale de phase définit l’indice de modulation :
67 / 406
68 / 406
Analyse de l’occupation spectrale V
Pour calculer le spectre du signal s(t), en particulier
cos(β sin(2πfm t)) et sin(β sin(2πfm t)), on recourt à la formule
suivante
+∞
X ³ ³ π ´´
j β sin ψ k
e = J0 (β) + 2 j Jk (β)cos k ψ − (51)
k =1 2
−Ac J1 (β) cos(2π(fc −fm )t) + Ac J1 (β) cos(2π(fc +fm )t) + . . . (60)
70 / 406
Analyse de l’occupation spectrale VII
Comme J2i (β) = J−2i (β) et J2i +1 (β) = −J−(2i +1) (β),
+∞
X
s(t) = Ac Jn (β)cos(2π(fc + nfm )t) (61)
n=−∞
Spectre
Ac +∞
X
S (f ) = Jn (β)[δ(f − fc − nfm ) + δ(f + fc + nfm )] (62)
2 n=−∞
J0 (β)
J1 (β)
0.5 J2 (β)
J3 (β)
0 β
−0.5
0 2 4 6 8 10 12 14 16 18
72 / 406
Spectre FM
0.5 β = 1, 4f = 1
0
−8 −6 −4 −2 0 2 4 6 8
1
0.5 β = 2, 4f = 2
0
−8 −6 −4 −2 0 2 4 6 8
1
0.5 β = 3, 4f = 3
0
−8 −6 −4 −2 0 2 4 6 8
1
0.5 β = 4, 4f = 4
0
−8 −6 −4 −2 0 2 4 6 8
73 / 406
Estimation empirique
[Règle de Carson] La bande passante requise est
Estimation numérique
74 / 406
Tableau récapitulatif des modulations d’onde continue
s(t) ||S (f )|| BP
AM
Ac (1 + ka m(t))cos(2πfc t) 2W
classique
−fc fc f
DSB-SC Ac m(t)cos(2πfc t) 2W
−fc fc f
Ac m1 (t)cos(2πfc t)
QAM 2W
+Ac m2 (t)sin(2πfc t)
SSB W
−fc fc f
(1 + α)
VSB
W
−fc fc f
Ac cos(2πfc t + 2(∆f
FM ´t
2πkf 0 m(τ)d τ) +W )
75 / 406
Amplitude
Signal pilote
Signal mono stéréo Signal différence (information stéréo)
RDS
G+D G-D G-D
15 19 23 38 53 57 60 f [kHz]
76 / 406
Multiplexage en fréquence
X1 (f )
f −f1 f1 f
f1
X2 (f )
f −f2 f2 f
f2
X3 (f )
f −f3 f3 f
f3
Signal multiplexé
77 / 406
Démultiplexage en fréquence
Signal multiplexé
f1 f2 f3
f1 f2 f3
X1 (f ) X2 (f ) X3 (f )
f f f
f1 f2 f3 f
f1 + fIF f2 + fIF
fIF fIF
fIF fIF
X1 (f ) X2 (f )
f f
79 / 406
0
V
−2
0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.1
10
0
−10
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
10
−10
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
10
−10
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
82 / 406
Rappel
Émetteur Récepteur
Signal utile déterministe aléatoire
Bruit et interférences aléatoire aléatoire
Table – Nature des signaux dans une chaı̂ne de télécommunications.
83 / 406
84 / 406
Un cadre pour pouvoir parler de probabilités : espace
probabilisé
85 / 406
Probabilité conditionnelle I
p(A ∩ B)
p(B |A) = (66)
p(A)
86 / 406
Probabilité conditionnelle II
Propriétés :
p(A ∩ B) = p(B |A)p(A) (67)
87 / 406
Théorie de Bayes I
S
Si Aj sont des événements disjoints, tels que j Aj = A et
PN
j =1 p(Aj ) = 1, alors
N
X
p(B) = p(B |Aj )p(Aj ) (69)
j =1
88 / 406
Théorie de Bayes II
Théorème
Forme simplifiée du théorème de Bayes
p(B |A)p(A)
p(A|B) = (71)
p(B)
Interprétation :
Ï B représente une observation.
Ï p(A) est la probabilité a priori (“prior”).
Ï p(A|B) est la probabilité a posteriori.
Le théorème permet donc le calcul des probabilités a posteriori
p(A|B) en terme de probabilités a priori p(A) et de probabilités
conditionnelles de transition p(B |A).
89 / 406
Entrée Sortie
0 0
1 1
Canal de transmission
90 / 406
Illustration du théorème de Bayes : canal symétrique II
p
p(A = 0) = α A=0 B =0
q q
A B
p(A = 1) = 1 − α A=1 B =1
p
Variables aléatoires I
Si on fait
Ï un espace témoin, composé d’événements
Ï + des probabilités associées aux événements
Ï + des valeurs associées (nombres réels) aux événements
on obtient une variable aléatoire X .
92 / 406
Variables aléatoires II
Remarques :
93 / 406
94 / 406
Moments d’une variable aléatoire I
Définition (Espérance)
ˆ +∞
µX = E {X } = xfX (x)dx (75)
−∞
µX est appelée espérance ou moyenne de la variable aléatoire X .
95 / 406
Définition
Le n-ième moment centré de la variable aléatoire X est défini par
ˆ +∞
© ª
E (X − µX )n = (x − µX )n fX (x)dx (76)
−∞
96 / 406
Variance
Définition (Variance)
n o ˆ +∞
2
σ2X = E (X − µX ) = (x − µX )2 fX (x)dx (77)
−∞
Théorème (Chebyshev)
Si Y est une variable aléatoire positive, alors
¯ ¯ σ2X
∀ε > 0 p (¯X − µX ¯ ≥ ε) ≤ 2 (79)
ε
98 / 406
Variable aléatoire gaussienne ou normale I
Soit X une variable aléatoire de moyenne µX et de variance σ2X .
Cette variable présente une densité de probabilité gaussienne ou
normale si, pour −∞ < x < +∞, elle a la forme
(x −µX )2
1 −
2σ2
fX (x) = p e X (83)
σX 2π
1.0
μ = 0, σ 2 = 0.2,
μ = 0, σ 2 = 1.0,
0.8 μ = 0, σ 2 = 5.0,
μ = −2, σ 2 = 0.5,
0.6
0.4 -3 -2 -1
0.2
0.0
−5 −4 −3 −2 −1 0 1 2 3 4 5
99 / 406
Sn = X1 + X2 + . . . + Xn (84)
p
Alors l’espérance de Sn est n µ et son écart-type vaut σ n.
De plus, quand n est assez grand, la loi normale N (nµ, nσ2 ) est
une bonne approximation de la loi de Sn .
100 / 406
Variable aléatoire gaussienne ou normale III
Quelques propriétés :
Ï Stabilité par additivité
La somme de deux variables aléatoires indépendantes de lois
normales est elle-même une variable aléatoire de loi normale.
Plus explicitement : si X1 ∼ N (µ1 , σ21 ), X2 ∼ N (µ2 , σ22 ) et X1 , X2
sont indépendantes, alors la variable aléatoire X1 + X2 suit la loi
normale N (µ1 + µ2 , σ21 + σ22 ).
Ï Stabilité par linéarité
Si α ≥ 0 et β sont deux réels et X ∼ N (µ, σ2 ), alors la variable
aléatoire αX + β suit la loi normale X ∼ N (αµ + β, α2 σ2 ).
Ï Stabilité par moyenne
Si X1 , X2 , . . . , Xn sont des variables aléatoires indépendantes suivant
respectivement les lois normales
N (µ1 , σ21 ), N (µ2 , σ22 ), . . . , N (µn , σ2n ), alors la moyenne
µ 2 2
¶ 2
1 µ1 +µ2 +...+µn σ1 +σ2 +....+σn
n (X1 + X2 + . . . + Xn ) suit la loi N n , n2
.
101 / 406
Loi de Rayleigh I
En présence de trajets multiples, plusieurs composantes arrivent au
droit du récepteur.
Acos(2πfc t) X (t)
102 / 406
Loi de Rayleigh II
0.6
0.5
0.4
0.3
0.2
0.1
0
0 σX r
103 / 406
Définition
La fonction de répartition conjointe FX ,Y (x , y ) est définie par
FX ,Y (x , y ) = p(X ≤ x , Y ≤ y ) (86)
Définition
La fonction de densité de probabilité conjointe fX ,Y (x , y ) est
définie par
∂2 FX ,Y (x , y )
fX ,Y (x , y ) = (87)
∂x ∂y
104 / 406
Moments de plusieurs variables aléatoires
Définition (Corrélation)
La corrélation de deux variables aléatoires X et Y est définie par
ˆ +∞ ˆ +∞
E {XY } = x y fX ,Y (x , y )dxdy (88)
−∞ −∞
Définition (Covariance)
La covariance de deux variables aléatoires X et Y est définie par
© ª
CXY (x , y ) = E (X − µX )(Y − µY ) (89)
= E {XY } − µX µY (90)
105 / 406
µX +Y = E {X + Y } = E {X } + E {Y } (91)
n o
2
σ2X +Y = E (X + Y − µX +Y ) = σ2X + σ2Y + 2CXY (x , y ) (92)
106 / 406
Probabilité conditionnelle et indépendance I
Définition
La fonction de densité de probabilité conditionnelle de la variable
Y , étant donné que X = x, est définie par
fX ,Y (x , y )
fY (y |x) = (93)
fX (x)
107 / 406
Exemple
Si X est un signal et N représente le bruit, il est usuel que ces deux
signaux soient statistiquement indépendants : fX ,N (x , n) = fX (x)fN (n).
Dès lors,
© ª
CXN (x , n) = E (X − µX )(N − µN ) (96)
= E {XN } −E {X }µN − µX E {N } + µX µN (97)
= E {X } E {N } −µX µN = 0 (98)
108 / 406
Probabilité conditionnelle et indépendance III
Définition
Par définition, les variables aléatoires X et Y sont dites
109 / 406
Processus stochastiques I
Si on fait
Ï un espace témoin, composé d’événements
Ï + des probabilités associées aux événements
Ï + des valeurs associées (nombres réels) aux événements
Ï + le paramètre “temps” t
on obtient un processus stochastique (ou aléatoire) : X (t)
110 / 406
Processus stochastiques II
Espace témoin Ω
ω1 X (t , ω1 )
X (tk , ω1 )
ω2 t
X (t , ω2 )
ωn X (tk , ω2 )
X (t , ωn )
t
tk
X (tk , ωn )
111 / 406
112 / 406
Moments temporels
Définition
La moyenne temporelle d’un processus aléatoire X (t) est définie
par
ˆ T
1
µX (T ) = x(t)dt (101)
2T −T
où x(t) est une réalisation du processus aléatoire.
Définition
La fonction d’autocorrélation temporelle d’un processus aléatoire
X (t) est définie par
T
1
ˆ
ΓXX (τ, T ) = x(t + τ)x(t)dt (102)
2T −T
113 / 406
Moments statistiques I
Définition
La moyenne d’un processus aléatoire X (t) observé au temps t est
définie par
ˆ +∞
© ª
µX (t) = E X (t) = xfX (t) (x)dx (103)
−∞
114 / 406
Moments statistiques II
Définition
La fonction d’autocorrélation d’un processus aléatoire X (t) est
définie par
© ª
ΓXX (t1 , t2 ) = E X (t1 )X (t2 ) (104)
ˆ +∞ ˆ +∞
= x1 x2 fX (t1 ),X (t2 ) (x1 , x2 )dx1 dx2(105)
−∞ −∞
115 / 406
Stationnarité
Deux formes :
Ï stationnarité au sens strict
Ï stationnarité au sens large (dite du second ordre)
Stationnarité au sens strict
Le processus aléatoire X (t) sera dit stationnaire au sens strict si
116 / 406
Stationnarité au sens large (dite du second ordre)
µX (t) = µX ∀t (108)
117 / 406
Propriétés importantes :
1 La moyenne du carré du processus aléatoire peut être obtenue
simplement en posant τ = 0 :
n o
2
ΓXX (τ = 0) = E X (t) (111)
2 La fonction d’autocorrélation ΓXX (τ) est une fonction paire
de τ :
ΓXX (τ) = ΓXX (−τ) (112)
3 La fonction d’autocorrélation ΓXX (τ) présente son amplitude
maximum en τ = 0 :
¯ ¯
¯ΓXX (τ)¯ ≤ ΓXX (0) (113)
118 / 406
Ergodicité
Un processus est ergodique à l’ordre n si les moyennes temporelles
jusqu’à l’ordre n sont indépendantes du choix de la réalisation. Si
le processus est ergodique à tout ordre, on dit qu’il est ergodique
au sens strict.
Définition
Un processus aléatoire stationnaire X (t) est dit ergodique dans la
moyenne si :
(1) la moyenne temporelle µX (T ) tend vers la moyenne statistique
µX lorsque l’intervalle d’observation 2T tend vers l’infini,
c’est-à-dire
lim µX (T ) = µX (114)
T →∞
119 / 406
ˆ +∞
ΓXX (τ) = γX (f )e 2πjf τ df (117)
−∞
Propriété
ˆ +∞
γX (0) = ΓXX (τ)d τ (118)
−∞
120 / 406
Densité spectrale de puissance II
Propriété : la densité spectrale de puissance représente la
répartition de la moyenne de la puissance instantanée
n o ˆ +∞ ˆ +∞
2 2πjf 0
P = E X (t) = ΓXX (τ = 0) = γX (f )e df = γX (f )df
−∞ −∞
(119)
121 / 406
© ª 2π
1
ˆ
µX (t) = E X (t) = Ac cos(2πfc t + θ ) dθ = 0 (121)
0 2π
122 / 406
Exemple : onde sinusoı̈dale avec phase aléatoire II
2 Fonction d’autocorrélation et densité spectrale ?
© ª
ΓXX (t1 , t2 ) = E X (t1 )X (t2 ) (122)
© ª
= E Ac cos(2πfc t1 + Θ)Ac cos(2πfc t2 + Θ) (123)
A2c © ª
= E cos(2πfc (t2 − t1 ))
2
A2c © ª
+ E (2πfc (t2 + t1 )) + 2Θ (124)
2
Ac2
= cos[2πfc (t2 − t1 )] (125)
2
Donc, on a bien une expression du type (τ = t2 − t1 )
A2c
ΓXX (τ) = cos[2πfc τ] (126)
2
⇒ X (t) = Ac cos(2πfc t + Θ) est bien stationnaire au sens large.
D’où
A2c
γX (f ) = [δ(f − fc ) + δ(f + fc )] (127)
4
123 / 406
124 / 406
Filtrage d’un processus stationnaire au sens large II
Moyenne
Soit h(t), la réponse impulsionnelle du filtre H (f ).
On a ˆ +∞
Y (t) = h(t) ⊗ X (t) = h(u)X (t − u)du (128)
−∞
Dès lors,
© ª
µY = E Y (t) (129)
½ˆ +∞ ¾
= E h(u)X (t − u)du (130)
−∞
ˆ +∞ © ª
= h(u)E X (t − u) du (131)
ˆ−∞
+∞
= h(u) µX du (132)
−∞
125 / 406
En conclusion,
µY = µX H (f = 0) (134)
De plus, la première condition de stationnarité au sens large est
respectée (car µX et H (f = 0) sont des constantes).
126 / 406
Filtrage d’un processus stationnaire au sens large IV
Fonction d’autocorrélation ?
© ª
ΓYY (t1 , t2 ) = E Y (t1 )Y (t2 ) (135)
½ˆ +∞ ¾ ½ˆ +∞ ¾
= E h(u1 )X (t1 − u1 )du1 E h(u2 )X (t2 − u2 )du2
−∞ −∞
ˆ +∞ ˆ +∞
© ª
= h(u1 )h(u2 )E X (t1 − u1 )X (t2 − u2 ) du1 du2 (136)
−∞ −∞
127 / 406
128 / 406
Filtrage d’un processus stationnaire au sens large VI
Calcul de γY (f )
ˆ +∞
γY (f ) = ΓYY (τ)e −2πjf τ d τ (141)
−∞
ˆ ˆ ˆ
= h(u1 )h(u2 )ΓXX (τ − u1 + u2 ) du1 du2 e −2πjf τ d τ
τ u1 u2
129 / 406
Résumé
Soient X (t) un processus stochastique stationnaire au sens large,
H (f ) la transmittance d’un filtre linéaire et Y (t) le processus à la
sortie du système linéaire (filtre)
Théorème
Moyenne en sortie
µY = µX H (f = 0) (144)
Théorème (Wiener-Kintchine)
Densité spectrale en sortie
° °2
γY (f ) = H (f )° γX (f )
° (145)
130 / 406
Somme de processus stochastiques
Y (t) = K (t) + N(t) (146)
Pour des processus stationnaires au sens large,
© ª © ª
E S(t) = E M(t)cos(2πfc t + Φ) (154)
© ª © ª
= E M(t) E cos(2πfc t + Φ) (155)
= µM × 0 = 0 (156)
134 / 406
Analyse de la modulation pour processus stochastique :
principe et analyse du mélangeur “stochastique” IV
Calcul de γS (f )
ˆ +∞
γS (f ) = ΓSS (τ)e −2πjf τ d τ (165)
−∞
1 +∞
ˆ
= ΓMM (τ)cos(2πfc τ)e −2πjf τ d τ (166)
2 −∞
1 δ (f − fc ) + δ (f + fc )
= γM (f ) ⊗ (167)
2 2
Théorème
Après stationnarisation, la densité de spectrale du signal modulé en
amplitude S(t) = M(t)cos(2πfc t), où M(t) est stationnaire au sens
large, vaut
[γM (f − fc ) + γM (f + fc )]
γS (f ) = (168)
4
135 / 406
Bruit blanc I
Définition
Le bruit blanc est un processus aléatoire stationnaire du second
ordre centré et dont la densité spectrale de puissance est constante
sur tout l’axe des fréquences :
N0
γW (f ) = (169)
2
N0 s’exprime en Watt par Hertz. La fonction d’autocorrélation
s’écrit donc
N0
ΓWW (τ) = δ (τ ) (170)
2
136 / 406
Bruit blanc gaussien I
Théorème
Puissance d’un bruit blanc (pour une largeur de bande B)
+∞ fc + B2
N0 N0
ˆ ˆ
PN = N = γN (f )df = 2 df = 2 × B × = B N0
−∞ fc − B2 2 2
(171)
137 / 406
Ï Historique
Ï Normalisation
Ï Piles de protocoles
Ï Détails de certains protocoles
Ï Performances
140 / 406
Historique
141 / 406
Applications
Ï Au début, système de transmission embarqué : “Web inside”
[début 2000]
+ possibilités de certification
+ obligation d’implémentations
143 / 406
145 / 406
Piles de protocoles
146 / 406
Protocoles Ethernet
Ï Réseau à portée locale (Local Area Network)
Ï chaque carte réseau a une adresse Ethernet fixe et unique
Ï Protocole ARP (Address Resolution Protocol) : traduction
entre le monde IP (mondial) et Ethernet (local)
147 / 406
149 / 406
Adresses IP
150 / 406
Protocole ICMP
ping www.ulg.ac.be
PING serv327.segi.ulg.ac.be (139.165.51.81) 56(84) bytes of data.
64 bytes from serv327.segi.ulg.ac.be (139.165.51.81): icmp_req=1 ttl=55 time=13.7
64 bytes from verdir.net (139.165.51.81): icmp_req=2 ttl=55 time=13.2 ms
64 bytes from verdir.org (139.165.51.81): icmp_req=3 ttl=55 time=13.4 ms
64 bytes from serv327.segi.ulg.ac.be (139.165.51.81): icmp_req=4 ttl=55 time=13.0
64 bytes from serv327.segi.ulg.ac.be (139.165.51.81): icmp_req=5 ttl=55 time=13.7
64 bytes from serv327.segi.ulg.ac.be (139.165.51.81): icmp_req=6 ttl=55 time=13.9
151 / 406
152 / 406
Protocole Domain Name Server
host www.ulg.ac.be
www.ulg.ac.be is an alias for serv327.segi.ulg.ac.be.
serv327.segi.ulg.ac.be has address 139.165.51.81
serv327.segi.ulg.ac.be has IPv6 address 2001:6a8:2d80:100::11
153 / 406
Couche transport
154 / 406
En-tête TCP
155 / 406
Flux TCP
156 / 406
Notion de port TCP
157 / 406
158 / 406
Paquet TCP/IP
159 / 406
160 / 406
Performances
Ï Throughput et goodput
Ï Délai
Ï Bit error rate ⇒ paquets invalides, retransmission, etc
Exemple
161 / 406
Ï Introduction
Ï Conversion des signaux
Échantillonnage
Interpolation
Réalisation de l’échantillonnage
Ï Anciennes techniques de “Modulations”
PAM
“Modulation” de la position des impulsions
Ï “Modulation” d’impulsions codées PCM
Quantification
Bruit de quantification
Ï Compression de données
163 / 406
Types d’information
Information
numérique
Mise en forme des signaux
Information
textuelle
Information
analogique Echantillonnage Quantification Codage Modulation Emetteur
Données Canal
binaires
Mise en forme des signaux
Information Filtrage
analogique Décodage Démodulation Récepteur
passe-bas
Information
textuelle
Information
numérique
165 / 406
Numérisation = analogique⇒numérique
analogique numérique
g (t) g [iT ], avec
i = 0, 1, 2, . . . et T , un
intervalle de temps
signal temporel échantillonnage
ensemble
d’échantillons
chaque échantillon est
codé sur n bits
(quantification)
à la fin, on a un flot
binaire : 01110...
166 / 406
De l’analogique au numérique : étapes
Filtrage Interpolation
Echantillonnage
125,3658
112,3401
Numérisation Quantification
125 125
112 112
Compression Décompression
101001 101001
Signal numérique Signal numérique
167 / 406
Théorème de Shannon I
Théorème (Shannon)
Une fonction g (t) à énergie finie et à spectre limité, c’est-à-dire
dont la transformée de Fourier G (f ) est nulle pour |f |>W , est
entièrement déterminée par ses échantillons g [nTs ], n ∈ {−∞, +∞}
pour autant que la fréquence d’échantillonnage fs soit strictement
supérieure au double de la borne supérieure du spectre
fs > 2W (174)
168 / 406
Théorème de Shannon II
Il s’ensuit que
µ ¶
1 +∞ X k
gs (t)
G (f ) ⊗ δ f− (178)
Ts k =−∞ Ts
+∞
X
gs (t)
fs G (f − kfs ) (179)
k =−∞
169 / 406
t −W 0 W f
P
δ(t − nTs )
t −fs fs f
gs (t)
t f
P+∞
Il faut éviter que les répliques k =−∞ G (f − kfs ) ne se recouvrent,
d’où la condition
fs > 2W (180)
170 / 406
Formule d’interpolation de Whittaker
Théorème
Soit g (t) un signal analogique intégrable de spectre borné
[−W , W ]. Soit {g [nTs ]} les échantillons de pas Ts = 1/fs .
La fonction g (t) s’écrit comme la série de fonctions
+∞ µ ¶
X t − nTs
g (t) = g [nTs ]sinc (181)
n=−∞ Ts
g (t)
g (0)
g (1)
g (2)
Ts 2Ts t
Considérations pratiques
172 / 406
Réalisation de l’échantillonnage I
Échantillonnage idéal :
+∞
X
gs (t) = g (t) δ(t − nTs ) (182)
n=−∞
° °
g (t) °G (f )°
t −W 0 W f
P
δ(t − nTs )
t −fs fs f
gs (t)
t f
173 / 406
Réalisation de l’échantillonnage II
Échantillonnage réel :
Le signal échantillonné gτ (t) est le produit de g (t) par un train
ps (t) de rectangles de largeur τ
+∞
X +∞
X
p s (t) = p(t) ⊗ δ(t − nTs ) = p(t − nTs )
n=−∞ n=−∞
avec ½
1 si 0<t <τ
p(t) = (183)
0 sinon
La transformée de Fourier de p(t) étant
e −πjf τ sin(πf τ) +∞
X
P s (f ) = δ(f − nfs ) (184)
Ts πf n=−∞
174 / 406
Réalisation de l’échantillonnage III
Gτ (f ) = G (f ) ⊗ P s (f ) (185)
τ +∞ X −nπjf τ sin(nπfs τ)
= e s
G (f − nfs )
Ts n=−∞ nπfs τ
175 / 406
Réalisation de l’échantillonnage IV
Amplitude du spectre du signal analogique
1
0.8
0.6
||G(f)||
0.4
0.2
0
−20 0 20 40 60 80 100
f
Amplitude du spectre d’un signal échantillonné naturel
0.3
0.2
||Gtau(f)||
0.1
0
−20 0 20 40 60 80 100
f
176 / 406
“Modulations”
177 / 406
mτ0 (t)
m(t)
τ0
Ts
178 / 406
Modulation Pulse Amplitude Modulation PAM II
· µ +∞ ¶¸
1 X
Mτ0 (f ) = P (f ) G (f ) ⊗ δ(f − nfs ) (186)
Ts n=−∞
1 +∞X
= P (f ) G (f − nfs ) (187)
Ts n=−∞
0
e −πjf τ sin(πf τ0 ) +∞
X
= G (f − nfs ) (188)
Ts πf n=−∞
179 / 406
0.8
0.6
||G(f)||
0.4
0.2
0
−20 0 20 40 60 80 100
f
Amplitude du spectre d’un signal échantillonné bloqué
15
10
||Mtau’(f)||
0
−20 0 20 40 60 80 100
f
180 / 406
Pulse Duration Modulation (PDM)
m(t)
(a)
t
Ts
(b)
(c)
(d)
Figure – (a) un signal modulant, (c) modulation PDM et (d) modulation PPM.
¯ ¯ Ts
p(t) = 0, τ = kp ¯m(t)¯max < (189)
2
181 / 406
182 / 406
Pulse Code Modulation (PCM)
Principe
Numéro v [.] v (t)
d’ordre 4
7 3, 5
6 2, 5
5 1, 5
4 0, 5
0
3 −0, 5
2 −1, 5
1 −2, 5
0 −3, 5
−4
Numéro d’ordre 5 6 5 4 3 1
Code PCM 101 110 101 100 011 001
Quantification
Définition (Quantification)
Le processus consistant à transformer un échantillon d’amplitude
m[nTs ] d’un message m(t) pris au temps t = nTs en une amplitude
v [nTs ], choisie dans un ensemble fini de valeurs possibles, est
appelé quantification (quantization en anglais).
Ik
vk
184 / 406
Fonctions “escalier de quantification”
sortie sortie
4 4
2 2
entrée entrée
−4 −2 0 2 4 −4 −2 0 2 4
−2 −2
−4 −4
(a) (b)
185 / 406
q = v −m (196)
Q = V −M (197)
186 / 406
Calcul du bruit de quantification II
Moyenne et variance ?
Si le système est bien construit, on a µM = µQ = 0.
En conséquence, ˆ +∞
σ2M = m2 fM (m)dm (198)
−∞
ˆ +∞
σ2Q = q 2 fQ (q)dq (199)
−∞
187 / 406
189 / 406
d’où
2mmax 2mmax
4= = (207)
L 2R
et ³ ´
2mmax 2
42 2R
σ2Q = = (208)
12 12
En conclusion,
1
σ2Q = mmax
2
2−2R (209)
3
190 / 406
Calcul du bruit de quantification VI
191 / 406
En décibel, on a
µ ¶ µ ¶
S σM
10log10 = 10log10 3 + 20log10 + 20R log10 2
N q mmax
µ ¶
σM
= 4, 77 + 20log10 + 6R (212)
mmax
192 / 406
Quantification non uniforme
En Europe, on utilise la loi A.
193 / 406
“Modulation” delta
m(t)
approximation
pas 4
Figure – L’erreur de quantification dans une modulation delta.
194 / 406
Numérisation : les principes en chiffres
Éléments importants :
1 bande de fréquences utilisée pour le signal
3 f : fréquence d’échantillonnage
e
règle théorique : fe > 2W
règle pratique (critère de Nyquist) : fe > 2, 2W
4 n : nombre de bits utilisés par échantillon (quantification)
5 débit = fe × n
195 / 406
A propos de la compression
fichiers texte
données médicales
Ï compression avec perte
image (JPEG) : taux de compression typique ≈ 10
son (mp3) : taux de compression typique ≈ 10
video (MPEG, divX, H264) : taux de compression typique ≈
50-100
196 / 406
Table des matières
1 Introduction
2 Signaux et systèmes de télécommunications
3 Modulation d’onde continue
4 Variables aléatoires, processus stochastiques et bruit
5 Technologies du réseau Internet
6 Introduction à la numérisation
7 Transmission de signaux numériques en bande de base
8 Modulation numérique
9 Notions de code
10 Propagation et systèmes radio
11 Principes de fonctionnement du réseau GSM
12 Principes de fonctionnement de la 4G
13 Transmission sur réseau d’alimentation électrique domestique
197 / 406
198 / 406
Nécessité du codage I
Théorème (Shannon-Hartely)
Capacité d’un canal C (conditions pour avoir un taux d’erreur
par bit Pe → 0) µ ¶
S
C [b/s] = B × log2 1 + (213)
N
où
Ï B est la largeur du canal en Hz
Ï S est le rapport signal à bruit (en Watt/Watt, pas en dB).
N
199 / 406
Nécessité du codage II
4
x 10 Capacité de canal selon Shannon
8
6
Capacité en bits/sec
0
0 10 20 30 40 50 60
S/N en dB
Deux méthodes :
Ï la transmission en bande de base, méthode correspondant à
l’émission directe sur le canal de transmission, et
Ï la transmission par modulation d’une porteuse, méthode
permettant d’adapter la fréquence et le signal au canal de
transmission.
Caractéristiques :
Ï le débit, exprimé en [b/s].
Ï les niveaux physiques associés à chaque bit (0 ou 1) ou
groupes de bits.
Ï l’encombrement spectral.
Ï la probabilité d’erreur par bit transmis (bit error rate) ⇒ Pe
201 / 406
Efficacité spectrale
Exemple
Dans le cas du GSM, l’efficacité spectrale est de l’ordre de 1 :
η GSM ≈ 1 (214)
202 / 406
Construction d’un signal d’information numérique :
P+∞
k =−∞ Ak φk (t − kT ) I
A0 A1 A2 φ0 (t) φ1 (t − T ) φ2 (t − 2T )
+1 −1 −1
−T /2 T /2 t t t
T
A0 φ0 (t)
t
Par combinaison de
A1 φ1 (t − T )
t
A2 φ2 (t − 2T )
t
+∞
X
Sortie: Ak φ(t − kT )
k =−∞ t
203 / 406
204 / 406
Spectre des signaux numériques ?
+∞
X
G (f ) = Ak F {φ(t − kT )} (216)
k =−∞
+∞
X
= F {φ(t)} Ak e −2πjfkT (217)
k =−∞
( )
+∞
X
= Φ(f )F Ak δ(t − kT ) (218)
k =−∞
P+∞
⇒ il faut donc calculer la densité spectrale de k =−∞ Ak δ(t − kT ) pour
avoir γg (f ).
205 / 406
Hypothèses :
Ï la séquence Ak est stationnaire au sens large,
Ï la moyenne vaut
µA = E {Ak } (222)
Ï la fonction d’autocorrélation de A vaut
Étapes de calcul :
+∞
X
µX |T0 (t |t0 ) = µA δ(t − kT − t0 ) (224)
k =−∞
208 / 406
Moyenne d’un train d’impulsions II
209 / 406
210 / 406
Densité spectrale d’un train d’impulsions I
Conditionnellement à T0 = t0 :
( )
© ª +∞
X +∞
X
E X (t)X (t − τ)|t0 = E Ak δ(t − kT − t0 ) Ak 0 δ(t − τ − k 0 T − t0 )
k =−∞ k 0 =−∞
+∞
X +∞
X ¡ ¢
= ΓAA k − k 0 δ(t − kT − t0 )δ(t − τ − k 0 T − t0 )
k =−∞ k 0 =−∞
211 / 406
212 / 406
Train d’impulsions de Dirac [résumé]
213 / 406
+∞
X
g (t) = Ak φ(t − kT ) (240)
k =−∞
Par Wiener-Kintchine :
° ° +∞
X ΓAA (l) −2πjlfT
γg (f ) = °Φ(f )°2 e (242)
l =−∞ T
° °
= °Φ(f )°2 γA (fT ) (243)
T
214 / 406
Cas particulier : signaux non-corrélés I
+∞
X −2πjlfT
+∞
X 1 ³ m´
γA (fT ) = ΓAA (l)e = σ2A + µ2A δ f− (244)
l =−∞ m=−∞ T T
215 / 406
° °2 σ2A
γg (f ) = °Φ(f )° (246)
T
216 / 406
Transmission d’impulsions en bande de base
Codage
Deux technologies sont mises en œuvre pour coder les signaux
numériques :
Ï les codages en ligne. On parle de codes/codages linéaires.
Ï les codages complets, qui se réfèrent à des tables de
conversion (par exemple 5B/4T, 4B/3T, 2B1Q).
Codages linéaires
On peut distinguer les principales catégories suivantes pour le
codage linéaire de signaux PCM :
1 Nonreturn-to-zero (NRZ)
2 Return-to-zero (RZ)
3 Codage de la phase
4 Codage multi-niveaux
217 / 406
Variantes de codage I
0 1 0 0 1 1 1 0 0
+V
NRZ
unipolaire −V
+V
NRZ
bipolaire −V
+V
RZ
unipolaire −V
+V
RZ
bipolaire −V
+V
Manchester
Bi-φ-L −V
218 / 406
Variantes de codage II
Démarche
Pour ces variantes, on doit calculer
· ¸
°
°
°2 1
° 2 2
+∞
X 1 ³ m´
γg (f ) = Φ(f ) σA + µA δ f− (247)
T m=−∞ T T
c’est-à-dire :
1 µA et σ2A , ce qui nécessite de connaı̂tre les probabilités et les
niveaux de tension associés aux Ak .
On s’aide d’un tableau qui a la forme de
Symbole Probabilité Ak (niveau de tension) Onde
0 1−p ... ...
1 p ... ...
2 la transformée de Fourier de l’onde de mise en forme Φ(f ).
3 et donc finalement, la densité spectrale
¡
γ (f ), avec
¢ g
m
simplifications par rapport aux δ f − T si d’application.
219 / 406
Moyenne
µA = Vp (248)
Variance n o
σ2A = E (Ak − µA ) 2
= p(1 − p)V 2 (249)
Filtre µ ¶2
° °2 2 sin( π fT )
°Φ(f )° = T (250)
πfT
Densité ° spectrale de puissance
°2 1 £ 2 P 1 m
¤
(γg (f ) = °Φ(f )° T σA + µ2A +∞m=−∞ T δ(f − T ) )
µ ¶2
sin(πfT )
γ(f ) = p(1 − p)V 2 T + p 2 V 2 δ(f ) (251)
πfT
220 / 406
Études temporelle et fréquentielle
2
1.5
0.5
V
−0.5
−1
−1.5
−2
1 2 3 4 5 6
Temps [s] −3
x 10
PSD Function
−2
10
−3
10
−4
10
−5
10
Power [W]
−6
10
−7
10
−8
10
−9
10
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Frequency [kHz] 221 / 406
γ(f )
1
0.8
0.6
0.4
0.2
80
60
40
20
222 / 406
Bande passante : choix pratique II
Largeur de bande % de puissance
0, 6/Tb 84%
1/Tb 91, 3%
2/Tb 95%
Table – Pourcentage de la puissance en fonction de la largeur de bande.
0, 6
(252)
Tb
Dès lors, l’efficacité spectrale d’un codage NRZ vaut
fb fb
η NRZ = = ≈1, 6 (253)
0, 6/Tb 0, 6fb
223 / 406
0
V
−2
1 2 3 4 5 6 7 8 9
Temps [s] −3
x 10
2
0
V
−2
0 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009 0.01
Temps [s]
2
0
V
−2
0 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009 0.01
Temps [s]
2
0
V
−2
0 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009 0.01
Temps [s]
Variance
n o
σ2A = E A2k − µ2A = pV 2 − (pV )2 = p(1 − p)V 2 (254)
Filtre µ ¶2
° °2 sin( π f αT )
°Φ(f )° = α2 T 2 (255)
πf αT
Densité ° spectrale de puissance
°2 1 £ 2 P 1 m
¤
(γg (f ) = °Φ(f )° T σA + µ2A +∞ m=−∞ T δ (f − T )
)
Si on prend α = 12 , ce qui est le choix habituel,
µ ¶
p(1 − p) 2 sin(πfT /2) 2 p 2 2
γ(f ) = V T + V δ(f )
4 πfT /2 4
+∞ µ ¶
X 1 (2n + 1)
+p 2 V 2 2 π2
δ f− (256)
n=−∞ (2n + 1) T
225 / 406
1.5
0.5
0
V
−0.5
−1
−1.5
−2
1 2 3 4 5 6
Temps [s] −3
x 10
PSD Function
−1
10
−2
10
−3
10
Power [W]
−4
10
−5
10
−6
10
−7
10
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Frequency [kHz] 226 / 406
Codage Manchester
Variance
σ2A = 4p(1 − p)V 2 (257)
Filtre
µ ¶
T sin(πfT /2) ³ −2πjfT /4 +2πjfT /4 ´
Φ(f ) = −e +e
2 πfT /2
µ ¶
sin(πfT /2)
= T j sin(πfT /2) (258)
πfT /2
µ ¶2
° °2 2 sin(π fT /2)
°Φ(f )° = T sin2 (πfT /2) (259)
πfT /2
227 / 406
P 1 (2n+1)
+ 4(2p − 1)2 V 2 +∞
n=−∞ (2n+1)2 π2 δ(f − T )
1.5
(260)
1
0.5
0
V
−0.5
−1
−1.5
−2
1 2 3 4 5 6
Temps [s] −3
x 10
PSD Function
−1
10
−2
10
−3
10
Power [W]
−4
10
−5
10
−6
10
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Frequency [kHz] 228 / 406
Études temporelle et fréquentielle II
PSD Function
2 −1
10
1.5 −2
10
1
−3
10
0.5
−4
10
Power [W]
0
V
−5
10
−0.5
−6
10
−1
−7
−1.5 10
−2 −8
10
1 2 3 4 5 6 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Temps [s] −3
x 10 Frequency [kHz]
PSD Function
2 −1
10
1.5
−2
10
1
−3
10
0.5
Power [W]
0
V
−4
10
−0.5
−5
10
−1
−6
10
−1.5
−2 −7
10
1 2 3 4 5 6 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Temps [s] −3
Frequency [kHz]
x 10
PSD Function
2 −1
10
1.5
−2
10
1
0.5
−3
Power [W] 10
0
V
−4
−0.5 10
−1
−5
10
−1.5
−2 −6
10
1 2 3 4 5 6 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Temps [s] −3
Frequency [kHz]
x 10
230 / 406
Conception d’un récepteur
Émetteur
Ï On sait comment “fabriquer” un signal sur base d’une
P
séquence binaire 101011: g (t) = +∞
k =−∞ Ak φ(t − kT )
2
1.5
0.5
V
−0.5
−1
−1.5
−2
1 2 3 4 5 6
Temps [s] −3
x 10
Récepteur
On veut retrouver 101011
P+∞
Ï sur base de g (t) = k =−∞ Ak φ(t − kT ) ⇒ φ(t) va jouer un rôle
Ï en minimisant la probabilité d’erreur par bit Pe
231 / 406
Eb
De l’importance du rapport N0 pour la détection des
signaux numériques
Prenons une bande infinie et un canal gaussien :
½ µ ¶¾
S
C = lim B log2 1 + (261)
B→ ∞ N
Comme
Ï S = Eb Rb (Eb est l’énergie d’un bit et Rb = T1b est le débit binaire)
Ï N = B N0
Dès lors,
³ ´
½ µ ¶¾ Eb Rb
Eb Rb log2 1 + x N
0
C = lim B log2 1 + = lim
B→ ∞ B N0 x →0 x
1 Eb Rb 1 Eb Rb
H log2 e lim = (262)
= x →0 1 + x Eb Rb N0 ln2 N0
N0
Eb
À capacité maximale : C = Rb , ainsi N0 = ln2 ≡ −1.59[dB] est le
rapport minimum absolu à garantir.
232 / 406
Détection de signaux binaires en présence de bruit gaussien
Signal à considérer :
+∞
X
g (t) = Ak φ(t − kT ) (263)
k =−∞
Position du problème :
1 on veut construire un récepteur (filtre + organe de décision)
2 le récepteur doit avoir une série de bonnes propriétés dont
minimiser la probabilité d’erreur par bit Pe
233 / 406
0
V
−1
−2
1 2 3 4 5 6 7 8 9
Temps [s] −3
x 10
0
V
−1
−2
0 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009 0.01
Temps [s]
234 / 406
Effet d’un bruit additif II
Ak 1 0 1 1 0
Mise en forme
g (t)
0 1 2 3 4 5
×10−3
Canal
n(t)
0 1 2 3 4 5
×10−3
0 1 2 3 4 5
Filtre adapté convolution
×10−3
h(t)
échantillonnage
0 1 2 3 4 5
×10−3
seuil Décision
λ=0
λ=0
0 1 2 3 4 5 ×10−3
A0k 1 0 1 1 0
Modélisation
2
0
V
Phase 1 Phase 2
−2
Signal x(t)
0.5 1 1.5 2 2.5 y3[T ] 3.5 4 4.5
10110
Filtre h(t) Temps [s] Décision −3
g (t) x 10
5
T
Bruit 0additif gaussien n(t) Seuil λ
V
−5
Figure – Structure d’un détecteur linéaire.
0 −3
0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
x 10 Temps [s] −3
x 10
1
Nature des
0
signaux
V
Ï x(t)
Figure = g (t) +
– Signaux n(t) est
typiques un lesignal
dans stochastique,
cas d’une ainsi
transmission en que le de
bande
base. signal à la sortie du filtre h(t)
Ï y [T ] est une variable aléatoire (et non un signal stochastique)
236 / 406
Raisonnement pour concevoir un récepteur I
Point de départ :
À la réception, on dispose de x(t) = g (t) + n(t) dont on sait que
1 l’information est numérique ; c’est-à-dire que l’information est
constante par “tranche temporelle” de T .
2 les symboles successifs sont non corrélés entre eux.
237 / 406
238 / 406
Première phase : filtrage ou corrélation I
Démarche :
1 Définition d’un critère numérique (c’est la démarche
particulière d’une analyse fonctionnelle : on définit un critère
et on en dérive une fonction).
2 Ce critère est exprimé en termes de la réponse impulsionnelle
à trouver.
3 On minimise/maximise ce critère.
4 On dérive ainsi la forme “optimale” du filtre de réception.
239 / 406
¯ ¯
Ï ¯gh (T )¯2 est la puissance du signal pour un bit. Attention,
g (t) est limité à 1 bit pour tous les développements
ultérieurs.
© ª
Ï E nh2 (t) est la puissance du bruit après filtrage.
Calcul du numérateur
Comme ˆ +∞
gh (t) = H (f )G (f )e 2πjft df (265)
−∞
le numérateur de η vaut donc
°ˆ °2
¯ ¯2 ° +∞ 2π jfT °
¯g (T )¯ = ° H (f ) G (f )e df ° (266)
h ° °
−∞
240 / 406
Première phase : filtrage ou corrélation III
Calcul du dénominateur
Pour un bruit blanc gaussien de densité spectrale N20 , après filtrage
par h(t) :
N0 °°
°2
γNh (f ) = H (f )° (267)
2
par application du théorème de Wiener-Kintchine. Dès lors
n o ˆ +∞
E nh2 (t) = γNh (f )df (268)
−∞
N0 +∞ ° °
ˆ
= °H (f )°2 df (269)
2 −∞
241 / 406
Calcul du rapport η I
L’inégalité de Schwarz établit que si
ˆ +∞ ° °
°φ1 (x)°2 dx < +∞ (270)
−∞
et +∞ ° °
ˆ
°φ2 (x)°2 dx < +∞ (271)
−∞
alors
°ˆ +∞ °2 ˆ +∞ ° +∞ °
° ° ° °
ˆ
° φ1 (x)φ2 (x)dx ° °φ1 (x)°2 dx °φ2 (x)°2 dx
° ° ≤ (272)
−∞ −∞ −∞
Le rapport à maximiser
°´ °2
° +∞ 2πjfT °
° −∞ H (f )G (f )e df °
η= (275)
N0 ´ +∞ ° °
°H (f )°2 df
2 −∞
devient donc
+∞ ° °
2
ˆ
η≤ °G (f )°2 df (276)
N0 −∞
243 / 406
Résultat
+∞ ° °
2
ˆ
η≤ °G (f )°2 df (277)
N0 −∞
D’où la valeur maximale
+∞ ° °
2 °G (f )°2 df = 2E b
ˆ
η max = (278)
N0 −∞ N0
244 / 406
Expression du filtre optimal dans le domaine temporel
°´ °2
° +∞ 2πjfT °
On avait ° −∞ H (f )G (f )e df ° et pour atteindre le
¡ 2
¢
πjfT ∗
maximum, il faut que H (f ) = k G (f )e , d’où
Résultat
½
kg (T − t) 0 ≤ t ≤ T
hopt (t) = (283)
0 ailleurs
245 / 406
Résultat
½
kg (T − t) 0 ≤ t ≤ T
hopt (t) = (283)
0 ailleurs
246 / 406
Expression du filtre optimal dans le domaine temporel
°´ °2
° +∞ 2πjfT °
On avait ° −∞ H (f )G (f )e df ° et pour atteindre le
¡ 2
¢
πjfT ∗
maximum, il faut que H (f ) = k G (f )e , d’où
Résultat
½
kg (T − t) 0 ≤ t ≤ T
hopt (t) = (283)
0 ailleurs
247 / 406
à partir de quoi
ˆ T
y [T ] = x(τ)g (τ)d τ (286)
0
3 Par intégration. Dans le cas particulier d’un fonction g (t) = 1 sur
[0, T ], la formule de z(t) se réduit à
ˆ t
z(t) = x(τ)d τ (287)
0
248 / 406
Seconde phase : détection par maximum de vraisemblance I
Ak 1 0 1 1 0
Mise en forme
g (t)
0 1 2 3 4 5
×10−3
Canal
n(t)
0 1 2 3 4 5
×10−3
0 1 2 3 4 5
Filtre adapté convolution
×10−3
h(t)
échantillonnage
0 1 2 3 4 5
×10−3
seuil Décision
λ=0
λ=0
0 1 2 3 4 5 ×10−3
A0k 1 0 1 1 0
249 / 406
Démarche II
En t = Tb ,
ˆ Tb ˆ Tb
y [Tb ] = (−V )kg0 (τ)d τ + n(τ)kg0 (τ)d τ (293)
0 0
ˆ Tb ˆ Tb
= −kV (−V )d τ + k n(τ)(−V )d τ (294)
0 0
ˆ Tb
2
= kV Tb − kV n(τ)d τ (295)
0
252 / 406
Caractérisation de la variable aléatoire Y échantillonnée en
Tb I
Ï Moyenne = −V
© ª
Ï Variance = E (Y + V )2 ?
253 / 406
254 / 406
Caractérisation de la variable aléatoire Y échantillonnée en
Tb III
N0
ΓNN (t , u) = δ(t − u) (303)
2
En conséquence,
Tb ˆ Tb
1 N0
ˆ
σ2Y = δ(t − u)dtdu (304)
Tb2 0 0 2
Tb
1 N0 1 N0
ˆ
= du = 2 Tb (305)
Tb2 0 2 Tb 2
N0
= (306)
2Tb
255 / 406
Résultats I
N0
σ2Y = (307)
2Tb
(y −µY )2
(y +V )2
1 −
2σ2 1 −N
fY (y |0) = q e Y =p e 0 /Tb (308)
2πσ2Y πN0 /Tb
+∞ (y +V )2
1
ˆ
−N
Pe0 = p e 0 /Tb dy (309)
πN0 /Tb λ
256 / 406
Résultats II
257 / 406
Densités de probabilité I
fY (y |0)
Pe0
−V λ y
fY (y |1)
Pe1
λ +V y
258 / 406
Densités de probabilité II
fY (y |0) fY (y |1)
p1
p0
y (T )
−V λ=0 +V y
259 / 406
Expression de Pe0 I
+∞ (y +V )2
1
ˆ
−N
Pe0 = p e 0 /Tb dy (313)
πN0 /Tb 0
+∞
1
ˆ
2
Pe0 = p p e −z dz (314)
π Eb /N0
260 / 406
Expression de Pe0 II
261 / 406
−2
10
−4
10
−6
10
−8
10
−10
10
−12
10
−14
10
−16
10
−2 0 2 4 6 8 10 12 14 16
Eb/No [dB]
262 / 406
Types de transmission
Deux modes logiques :
Ï Transmission synchrone
Données
Ï Transmission asynchrone
Données
n n+1 n+2
t
Start Stop
Ï parallèle
263 / 406
265 / 406
266 / 406
Exemples de modulation numérique
Hypothèse : fc = Tncb (modulation cohérente)
2
V 0
−2
0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.1
10
0
−10
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
10
−10
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
10
−10
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
+∞
X
s0 (t) = Ak Rect[0,T ] (t − kTb )cos(2πfc t) (320)
k =−∞
Occupation spectrale ?
Intuitivement : développement en série de Fourier de la forme
Ï Signal modulant
· ¸
A 4 1 4 3
m0 (t) = 0 1 + cos(2π( fb )t) − cos(2π( fb )t) + . . . (321)
2 π 2 3π 2
Ï Signal modulé
A0
s0 (t) = [cos(2πfc t)
2
2 f 2 f
+ cos(2π(fc + b )t) + cos(2π(fc − b )t)
π 2 π 2 ¸
2 3fb 2 3fb
− cos(2π(fc + )t) − cos(2π(fc − )t) + . . .
3π 2 3π 2
268 / 406
Modulation d’amplitude numérique cohérente II
269 / 406
Définition
L’efficacité spectrale est définie comme le flux binaire par Hz.
fb fb
η ASK −2 = = ≈0, 8 (322)
1, 2/Tb 1, 2fb
270 / 406
Démodulation cohérente I
−4
x 10 Diagramme de l’oeil
6
1
5
0
V
−1
4
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Temps [s] −3
x 10
2 3
0
V
2
−2
0 −4
0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
x 10 Temps [s] −3 1
x 10
0 0
V
−5
−1
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
Temps [s] −3 Temps [s] −3
x 10 x 10
271 / 406
Démodulation cohérente II
−4
x 10 Diagramme de l’oeil
8
0
V
6
−1
0
V
−5 2
0 −3
0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
x 10 Temps [s] −3
x 10
1
0
0
V
−1 −2
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
Temps [s] −3 Temps [s] −3
x 10 x 10
272 / 406
Modulation de phase numérique cohérente
s
2Eb
s0 (t) = cos(2πfc t) (323)
Tb
s s
2Eb 2Eb
s1 (t) = cos(2πfc t +π) = − cos(2πfc t) (324)
Tb Tb
273 / 406
( q
2Eb
cos(2πfi t), 0 ≤ t ≤ Tb
si (t) = Tb (326)
0, ailleurs
tels que les fréquences instantanées respectent
nc + i
fi = (327)
Tb
nc et i étant des entiers.
Ï Occupation spectrale ?
Ï Probabilité d’erreur ?
Ãs !
1 Eb
erfc (328)
2 2N0
275 / 406
277 / 406
V H P4 = V ⊕ H
0 0 0
0 1 1
1 0 1
1 1 0
Terminologie
279 / 406
Modèle
Modèle de canal
Définition
Un canal discret sans mémoire est caractérisé par un alphabet
d’entrée, un alphabet de sortie et un jeu de probabilités
conditionnelles, p(j |i), où 1 ≤ i ≤ M représente l’indice du caractère
d’entrée, 1 ≤ j ≤ Q représente l’indice du caractère de sortie, et
p(j |i) la probabilité d’avoir j en réception alors que i a été émis.
p(0|1) = p(1|0) = p
p(1|1) = p(0|0) = 1 − p
280 / 406
Probabilité d’erreur Pe vaut
Ãs !
1 Eb
Pe = erfc (329)
2 N0
Définition
Le taux de redondance d’un code est défini par le rapport
n−k
(330)
n
281 / 406
devient
0 −→ 000
1 −→ 111
Espace 1-D Espace 3-D
(1,1,1)
(0,0,0)
282 / 406
Correction par vote majoritaire
283 / 406
Codes linéaires
284 / 406
Matrice génératrice
→
−
c =→
−
mG (331)
La matrice G est appelée matrice génératrice. Elle a pour
expression générale
→
−
v1 v11 v12 . . . v1n
→
− v21 v22 . . . v2n
v2
G = = . (332)
... ..
→
−
v k vk1 vk2 . . . vkn
285 / 406
Codes à parité I
Bit de parité
0 0 0 1 0 1 0 1 0 0 1 1 1 1 0 0 1 (a)
1 1 1 0 1 0 1 1 1 1 1 1 1 1 0 1 1
0 1 0 0 0 0 1 1 0 1 1 1 0 1 1 1 0
0 0 1 1 0 0 0 0 1 1 0 0 0 0 0 1 1 (b)
1 0 0 0 0 1 1 0 1 1 1 1 0 1 1 1 1
1 1 1 0 0 1 1 0 1 0 0 0 1 1 0 1 1
1 1 1 1 1 0 0 0 0 0 1 1 0 0 0 1 0
Parité verticale
Parité horizontale
Figure – Codes de parité paire pour (a) connexion série ou (b) parallèle.
286 / 406
Codes à parité II
0
Pe 10
(24,12) (127,92)
−1
10
−2
10
−3
10
Sans encodage (1,1)
−4
10
−5
10
−6
10
−7
10
−8
10 −5 −3 −1 1 3 5 7 9 11
Eb /N0 [dB]
287 / 406
32 Bits
Source address
Destination address
288 / 406
Code systématique
Définition
Un code est dit systématique si une partie du mot codé coı̈ncide
avec le message.
G = [P | Ik ] (334)
p11 p12 ... p1(n−k) 1 0 ... 0
p p22 ... p2(n−k) 0 1 ... 0
21
=
.. ..
. . 0
pk1 pk2 ... pk(n−k) 0 0 ... 1
Et donc
→
−
c = (m1 , m2 , ..., mk )
p11 p12 ... p1(n−k) 1 0 ... 0
p 0
21 p22 ... p2(n−k) 0 1 ...
. ..
.
. . 0
pk1 pk2 ... pk(n−k) 0 0 ... 1
289 / 406
290 / 406
Détection d’erreurs
On observe que
1 0 ... 0
0 1 ... 0
..
p11 p12 ... p1(n−k) 1 0 ... 0
.
p p22 ... p2(n−k) 0 1 ... 0
21 0 0 ... 1
GH T = . .. p11 p12 ... p1(n−k) =0
.
. . 0
p21 p22 ... p2(n−k)
pk1 pk2 ... pk(n−k) 0 0 ... 1
..
.
pk1 pk2 ... pk(n−k)
Théorème
Le produit → −c H T , pour tout mot codé →
−
c au moyen de la matrice
génératrice G , est le vecteur nul :
→
− →
−
c H T = (p1 + p1 , p2 + p2 , ..., pn−k + pn−k ) = 0 (335)
→
−
Si →
−
c H T 6= 0 , alors il y a un problème → on dispose d’un moyen de
détecter une erreur lors de la transmission.
291 / 406
À la réception
Vecteur à la réception
→
−r = →
−
c +→
−
e (336)
Définition
Le vecteur →
−s = →
−r H T est appelé vecteur syndrome d’erreur ou plus
simplement syndrome.
→
−s = →−r H T (337)
292 / 406
Correction d’erreur
→
−
c ... →
−
c
1 2k
→
−
e1 →
−
c 1 +→
−
e1 ... →
−
c 2k + →
−
e1
→
−
e →
−
c +e →
− ... →
−
c +e →
−
2 1 2 2k 2
.. .. ..
. . .
→
−
ej →
−
c 1 +→
−
ej ... →
−
c +→
−
ej
2k
.. .. ..
. . .
→
−
e c 1 +→
→
− −e 2n−k ... →
−
c 2k + →
−
e 2n−k
2n−k
293 / 406
Efficacité du codage ?
Distance et poids de Hamming
Définition
Le poids de Hamming w (→
−
c ) du vecteur →
−
c est le nombre de 1 qu’il
contient.
Exemple. Voici le poids de deux vecteurs
w (→
−c 1 ) = w (100101101) = 5
→
− (341)
w ( c 2 ) = w (011110100) = 5
Définition
Soient deux vecteurs binaires → −
c 1, →
−
c 2 , la distance de Hamming
d(→
−c 1, →
−
c 2 ) est le nombre de bits qui diffèrent.
d(→
−
c 1, →
−
c 2 ) = w (→
−
c 1 ⊕→
−
c 2) (342)
294 / 406
Capacité de correction
p(→
−r |→
−
c i ) = max
→−
p(→−r |→
−
c j) (343)
cj
d(→
−r , →
−
c i ) = min
→
−
d(→−r , →
−
c j) (344)
cj
Définition
Capacité de correction (=nombre maximum de bits que l’on peut
corriger) :
dmin − 1
t = arrondi− (345)
2
295 / 406
Codes cycliques
→
−
c →
−
p →
−
m
0 0 0 0 0 0 0 0
1 1 1 0 1 0 0 1
2 0 1 1 1 0 1 0
3 1 0 1 0 0 1 1
4 1 1 1 0 1 0 0
5 0 0 1 1 1 0 1
6 1 0 0 1 1 1 0
7 0 1 0 0 1 1 1
Définition
D’une manière générale, on appelle code cyclique un code linéaire
(n, k) tel que toute permutation cyclique des bits sur un mot codé
génère un autre mot codé.
296 / 406
Autres codes
Codes de Hamming
Les codes de Hamming constituent un sous-ensemble des codes en
blocs pour lesquels (n, k) valent
pour m = 2, 3, . . .
La probabilité d’erreur s’écrit
PB ' p − p(1 − p)n−1 (347)
Code de Golay étendu
Codes Bose-Chadhuri-Hocquenghem (BCH)
Codes de Reed-Solomon
Turbo-codes
297 / 406
299 / 406
300 / 406
Propagation et systèmes radio
301 / 406
Ancienne nomenclature
302 / 406
Propagation des ondes électromagnétiques
couplées.
Ï on souhaite exprimer un résultat en terme de valeurs
→
− →
− −
ˆ ˛
∇ · S dv = − S · d → s (354)
v s
ˆ Ã →− →−!
→
− →
− →− →
− ∂D → − ∂B
˛ ˆ
− S · d→
−s = E · J dv + E· +H · dv (355)
s v v ∂t ∂t
306 / 406
→
− →
− →
−
Analyse du flux de puissance : S = E ×H II
¸ →− −
Deux composantes contribuent au flux entrant,− s S · d →
s :
´ →− → −
1
v E · J dv , la puissance dissipée,
´ → − ∂→ −
D → − ∂→ −
B
2 le terme
v ( E · ∂t + H · ∂t )dv
→
− →
− →
− →
− →
− →
−
En résumé, en considérant J = σ E , D = ² E et B = µ H ,
¯ ¯ ¯ ¯
ˆ ¯ ¯ ˆ ² ¯¯→
− ¯2
E ¯ µ
¯→
¯
− ¯2
H¯
→
− − ¯→
−¯ 2
˛
∂
− S · d→
s = σ ¯ E ¯ dv + + dv (356)
s v ∂t v 2 2
307 / 406
b = Xe j θ
x(t) = X cos(ωt + θ ) ⇒ X (357)
Ï Passage inverse : multiplier le phaseur par e j ωt et prendre la
partie réelle
³ ´
be j ωt
x(t) = Re X (358)
³ ´
j(ωt +θ )
= Re Xe (359)
= X cos(ωt + θ ) (360)
b
∇×E = −j ωB b (362)
b
∇×H = Jb + j ωDb (363)
b
∇·D = ρb (364)
b
∇·B = 0 (365)
b
∇×E = −j ωµ0 H b (366)
b
∇×H = Jbs + j ω²0 E
b (367)
309 / 406
b = ∇×A
B b (368)
De plus,
b = −j ωB
∇×E b = −j ω∇ × A
b ⇒ ∇ × (E
b + j ωA)
b =0 (369)
Eb = −j ωA
b − ∇V
b (370)
b, V
Si A b sont connus, on peut calculer E
b et ensuite B.
b
310 / 406
Solution analytique
b = 0 introduit une indétermination. On peut donc ajouter
∇ × ∇V
une contrainte qui est, dans notre cas, la condition de Lorentz qui
b = −j ωµ0 ²0 V
stipule que ∇ · A b.
311 / 406
Antennes simples
Doublet de Hertz
z
θ P
r
bI
dl
y
φ
x
b µ0 b e −j βr
Az = I dl (373)
4π r
312 / 406
Champs
br
H = 0 (374)
bθ = 0
H (375)
b µ ¶
I dl 1 1
bφ =
H β2 sin θ j + 2 2 e −j βr (376)
4π βr β r
q
µ0
Quant au champ électrique, il vaut (η 0 = ²0 = 120π = 377 [Ω])
b µ ¶
I dl 1 1
Ebr = 2 η 0 β2 cos θ 2 2 − j 3 3 e −j βr (377)
4π β r β r
b µ ¶
I dl 1 1 1
Ebθ = η 0 β2 sin θ j + 2 2 − j 3 3 e −j βr (378)
4π βr β r β r
Ebφ = 0 (379)
313 / 406
Puissance I
j βbI dl
b
H= sin θ e −j βR~aφ (380)
4π R
j η 0 βbI dl
b
E= sin θ e −j βR~aθ (381)
4πR
Aussi, comme η 0 = 120π (impédance du vide),
° °2
° ° °Ebφ °
°b °
Sav = (382)
120π
314 / 406
Puissance II
Exemple
Valeurs numériques.
Pour dl = 1[cm] et f = 300[MHz] (λ = 1[m]), la résistance
équivalente vaut 79 [mΩ]. Soit 1[W ] pour un courant de 3, 6[A].
C’est une antenne peu efficace.
315 / 406
Directivité et gain I
Lobe principal
θ3dB 0 [dB]
-3 [dB]
Lobes secondaires
316 / 406
Directivité et gain II
|S |
317 / 406
Doublet magnétique
z
θ P
r
bI
r0
dl
y
bI (z)
0
bI (z)
bI (z) bI (z)
bI (z) bI (z)
0
bI (z)
bI (z)
bI (z)
319 / 406
Antennes longues II
z
bI (z) z = l/2
θ0
bI (z) P
r0
θ
dz r
z = −l/2
θ0 ' θ
r0
z
θ r
z cos θ
320 / 406
Diagrammes de rayonnement du champ électrique
90 90 90
2 2 2
120 60 120 60 120 60
1 1 1
0 0 0
−1 −1 −1
1 1 1
l = λ2 l =λ l = 32λ
321 / 406
b −j βR cos(π/2cos θ )
Pour l = λ2 , Ebφ = 60ImRe sin θ ~aθ
0.5
−0.5
−1
1
0.5 1
0.5
0
0
−0.5
−0.5
−1 −1
322 / 406
Réseaux d’antennes I
z z
θ r2
I2 I2
d r2 d vers P
r
r y y
r1 P r1
I1 I1
φ
x x
323 / 406
Réseaux d’antennes II
d = λ0 /2
d = λ0 /2, α = 0
x I ∠α I ∠0
φ
y
d = λ0 /2
d = λ0 /2, α = π
x I ∠α I ∠0
φ
y
d = λ0 /4
d = λ0 /4, α = π/2
x I ∠α I ∠0
φ
324 / 406
“Comprendre” le fonctionnement des antennes I
325 / 406
326 / 406
Gain I
GE = 1
Antenne isotrope
d
PE
Antenne réelle
GE 6= 1
Aire A
PE Angle solide = A/d 2
d
Gain II
Définition (PIRE)
La Puissance Isotrope Rayonnée Équivalente (PIRE) est le produit
de la puissance d’émission d’une antenne par le gain dans la
direction d’observation.
Exemple
Pour l’émission, PIRE = PE GE . En réception, PIRE = PR GR .
328 / 406
Niveau du champ électrique en réception en radio-diffusion
FM
329 / 406
Aire effective
Définition
L’aire effective d’une antenne est définie comme le rapport entre la
puissance disponible à ses bornes au vecteur de Poynting incident
P
Aeff = (390)
S
Résultat théorique
La surface effective d’une antenne est liée à son gain par la relation
λ2
Aeff , E /R = GE /R (391)
4π
330 / 406
Aire effective
Définition
L’aire effective d’une antenne est définie comme le rapport entre la
puissance disponible à ses bornes au vecteur de Poynting incident
P
Aeff = (390)
S
Résultat théorique
La surface effective d’une antenne est liée à son gain par la relation
λ2
Aeff , E /R = GE /R (391)
4π
331 / 406
PR
d
PE
332 / 406
Propagation en espace libre : équation de Friis II
µ ¶ µ ¶µ 2 ¶ µ ¶
PE GE PE GE λ λ 2
PR = SR Aeff , R = Aeff , R = GR = PE GE GR
4πd 2 4π d 2 4π 4πd
µ ¶2
PE 4π d 1
²= = (392)
PR λ GE GR
333 / 406
µ ¶2
PE 4πd 1
²= = (393)
PR λ GE GR
² = 32, 5 + 20log f[MHz] + 20log d[km] − GE [dB] − GR [dB]
Autre expression de la relation de Friis.
Comme
λ2
Aeff = GE (394)
4π
µ ¶2 µ ¶2
4πd 1 4πd λ2 λ2
² = = (395)
λ GE G R λ 4πAE 4πAR
λ2 d 2 c 2d 2
= = (396)
AE AR f 2 AE AR
334 / 406
Modèles de propagation I
Directe
Source
Réfléchie
335 / 406
Modèles de propagation II
z P
d1
z0
Idl d2
β0
θ2 β1
−z0
à !
µ0
Θ
I dl e −j β0 d1
e −j β0 d2
e −j β0 d2
Θ
A= + Kv + f (d2 , θ2 ) (397)
4π d1 d2 d2
336 / 406
Autres effets I
Ionosphère
Onde
337 / 406
Autres effets II
338 / 406
Autres effets III
Illumination
0dB
−6dB
Figure – Exemple de diffraction.
339 / 406
Multitrajet
Obstacle
d2
Source Récepteur
d1
−60
−80
Attenuation [dB]
−100
−120
−140
−160
−180 2 3 4 5
10 10 10 10
d1 [km]
343 / 406
Le concept cellulaire
2
2 7 3
7 3 1
2 1 6 4
7 3 6 4 5
1 5 2
6 4 7 3
5 1
6 4
5
Figure – Figure représentant un motif élémentaire et un ensemble de
motifs.
2
2 7 3
7 3 1
2 1 6 4
7 3 6 4 5
1 5 2
6 4 7 3
5 1
6 4
5
Figure – Figure représentant un motif élémentaire et un ensemble de
motifs.
Signaux perturbateurs :
1 Les interférences de puissance totale I qui sont dues aux
signaux émis par les autres stations :
1 Les interférences inter-canaux (co-channel) qui sont dues aux
signaux émis par les autres stations de base utilisant la même
fréquence.
2 Les interférences de canaux adjacents dues aux signaux émis
par les stations de base utilisant des fréquences voisines.
2 Le bruit, de puissance N, provenant principalement du bruit
de fond du récepteur.
Dès lors, on a le rapport
C
(399)
N +I
346 / 406
Synthèse des principales caractéristiques du GSM
347 / 406
GSM DCS-1800
Bande de fréquences (↑) 890, 2 − 915[MHz] 1710 − 1785[MHz]
Bande de fréquences (↓) 935, 2 − 960[MHz] 1805 − 1880[MHz]
Nombre d’intervalles de 8 8
temps par trame TDMA
Écart duplex 45[MHz] 95[MHz]
Rapidité de modulation 271[kb/s] 271[kb/s]
Débit de la parole 13[kb/s] 13[kb/s]
Débit maximal de données 12[kb/s] 12[kb/s]
Accès multiple Multiplexage Multiplexage
fréquentiel et fréquentiel et
temporel temporel
Rayon de cellules 0, 3 à 30[km] 0, 1 à 4[km]
Puissance des terminaux 2 à 8[W ] 0, 25 et 1[W ]
349 / 406
Architecture du réseau II
VLR
BTS
BSC MSC
BTS
HLR AuC
MSC
BTS BSC
351 / 406
352 / 406
Antenne GSM (station de métro Rogier, Bruxelles)
353 / 406
Paramètres Commentaires
Données administratives
PIN/PIN2 Mot de passe demandé à chaque
connexion
Données liées à la sécurité
Clé Ki Valeur unique, connue de la seule carte
SIM et du HLR
Données relatives à l’utilisateur
IMSI Numéro international de l’abonné
MSISDN Numéro d’appel d’un téléphone GSM
Données de “roaming”
TMSI Numéro attribué temporairement par le
réseau à un abonné
Données relatives au réseau
Mobile Country Code Identifiants du réseau mobile de l’abonné
(MCC), Mobile Network 354 / 406
Le sous-système réseau, appelé Network Switching Center
(NSS)
355 / 406
356 / 406
Échange des informations de signalisation lors d’un appel
vers un mobile
357 / 406
358 / 406
Canal physique
Multiplexage fréquentiel
Aussi, si on indique par Fu les fréquences porteuses montantes et
par Fd les fréquences porteuses descendantes, les fréquence
porteuse sont :
où 1 ≤ n ≤ 124.
359 / 406
La modulation
La technique de modulation utilisée pour porter le signal à haute
fréquence est la modulation GMSK (Gaussian Minimum Shift
Keying).
Séquence
originale
t
Après XOR
t
Signal GMSK
t
Figure – Création d’un signal modulé par MSK au départ d’un train
d’impulsions.
360 / 406
Multiplexage temporel
Définition (Trame)
Ainsi, on définit une trame élémentaire de 8 intervalles pour une
durée de 8 × 0, 577 = 4, 615[ms].
361 / 406
Hiérarchie de trames
Hypertrame
0 1 2 3 4 5 2043 2044 2045 2046 2047
0 1 2 3 4 46 47 48 49 50 Supertrame 51
0 1 2 24 25 Supertrame 26
Multitrame 26 Multitrame 51
0 1 2 24 25 0 1 2 49 50
Trame
0 1 2 3 4 5 6 7
Signal Slot
level 148 bits =0.428 ms
[dB]
Fréquences
porteuse C3
porteuse C2
porteuse C1
porteuse C0
slot
363 / 406
364 / 406
Pile de protocoles
CC SMS SS CC SMS SS
MM MM
RR RR RR
Air A−bis A
365 / 406
burst d’accès
TB 41 bits de synchro 36 bits TB GP de 68,25 bits
chiffrés
burst de synchronisation
burst normal
burst de bourrage
366 / 406
Timing Advance
367 / 406
Positionnement et localisation
368 / 406
Table des matières
1 Introduction
2 Signaux et systèmes de télécommunications
3 Modulation d’onde continue
4 Variables aléatoires, processus stochastiques et bruit
5 Technologies du réseau Internet
6 Introduction à la numérisation
7 Transmission de signaux numériques en bande de base
8 Modulation numérique
9 Notions de code
10 Propagation et systèmes radio
11 Principes de fonctionnement du réseau GSM
12 Principes de fonctionnement de la 4G
13 Transmission sur réseau d’alimentation électrique domestique
369 / 406
Principes de fonctionnement de la 4G
370 / 406
Du GSM à la 4G
371 / 406
Motivations :
1 augmenter la capacité (efficacité spectrale).
2 augmenter les débits. Sur un ou deux canaux de 5 [MHz], le
HSPA+, release 8, rend possible les débits maximaux
suivants :
voie descendante : 42 [Mb/s]
voie montante : 11,5 [Mb/s]
3 réduire la latence du plan de contrôle (UMTS : 250 [ms],
HSPA : 70 [ms], HSPA+ : 30 [ms])
4 émergence de la technique de modulation Orthogonal
Frequency Division Multiplexing (OFDM)
372 / 406
Architecture du réseau
373 / 406
374 / 406
Normalisation
375 / 406
Release 12 :
Ï ...
Ï IMS Network-Independent Public User Identities
Ï User Plane Congestion management
Ï ....
Release 13 :
Ï Study on RAN Sharing Enhancements
Ï Study on Application specific Congestion control for Data
Communication
Ï Study on Usage Monitoring Control enhancement
376 / 406
Le plan de fréquences
377 / 406
En Belgique
Il est aussi possible de déployer le LTE dans la bande du DCS-1800
378 / 406
Modes de duplexage
1 Mode FDD : Frequency-division duplexing
Dans ce mode, les voies montantes et descendantes opèrent
sur deux fréquences séparées par une bande de garde.
2 Mode TDD : Time-division duplexing
Dans ce mode, les voies montantes et descendantes utilisent
la même porteuse, le partage s’effectuant dans le temps. Un
temps de garde est nécessaire pour permettre le basculement
entre les fonctions d’émission et de réception des équipements.
Caractéristiques du TDD :
Ï avantages :
Interface radio
Aspects importants :
1. Systèmes à antennes multiples
381 / 406
Avantages :
Ï les canaux sont tous à bande étroite. Dans une bande étroite,
le canal peut être “idéal”. On peut donc estimer et compenser
l’effet de canal =⇒ on peut utiliser des modulations
d’amplitude (qui ont une meilleure efficacité spectrale)
Ï possibilité de “shaping” pour optimiser le débit
Table des matières
1 Introduction
2 Signaux et systèmes de télécommunications
3 Modulation d’onde continue
4 Variables aléatoires, processus stochastiques et bruit
5 Technologies du réseau Internet
6 Introduction à la numérisation
7 Transmission de signaux numériques en bande de base
8 Modulation numérique
9 Notions de code
10 Propagation et systèmes radio
11 Principes de fonctionnement du réseau GSM
12 Principes de fonctionnement de la 4G
13 Transmission sur réseau d’alimentation électrique domestique
383 / 406
Ï Introduction
Ï Canal de transmission
Ï Quelques caractéristiques de produits “standardisés”
Ï Un exemple concret d’un dispositif industriel
384 / 406
Exemple de mise en œuvre
Questions :
Ï Quelle est la vitesse de transmission maximale (soit la
capacité de canal) ?
Ï De quoi dépend cette vitesse ?
385 / 406
Marché
Ï Consortium HomePlug
Ï PLC Forum
386 / 406
Principales caractéristiques d’un réseau d’alimentation
électrique
Ï Structure hiérarchique :
haute tension (transport à grande distance) → moyenne
tension → basse tension 230[V ] à 50[Hz])
présence de transformateurs dans le réseau de distribution
électrique (les transformateurs filtrent les signaux)
les opérateurs transmettent des signaux sur le réseau électrique,
par exemple pour le basculement des compteurs bi-horaires
le réseau n’est pas conçu pour la transmission de signaux
387 / 406
389 / 406
Principes de base
Ï Utilisation de bandes de fréquence spécifiques :
de 93 à 148[KHz] en Europe, de 150 à 450[KHz] aux
États-Unis pour les bas débits
de 1, 6 à 30[MHz] pour les débits plus importants
Ï Modulations numériques de type ASK (amplitude), FSK
(fréquence), DQPSK (différentiel en quadrature de phase),
QAM (quadrature) avec un mécanisme à multiporteuses de
type OFDM (Orthogonal Frequency Division Multiplexing)
Ï Mécanismes de détection et correction d’erreurs
Ï Pile de protocoles et de techniques capables de gérer un “bus”,
c’est-à-dire un bus commun en temps et en fréquence. Par
exemple,
CSMA/CA Carrier Sense Multiple Access/Collision Avoidance
(identique à celui du Wi-Fi)
Ï Problèmes de sécurité : accès au réseau et confidentialité du
contenu des communications
390 / 406
Canal de transmission : mesures expérimentales
391 / 406
392 / 406
Variation du niveau de bruit due à la présence d’une charge
perturbatrice dans le réseau
393 / 406
394 / 406
Bruit radio (capté par le câble)
395 / 406
Modèles de canal I
Modèle de transmission à multitrajets
396 / 406
Modèles de canal II
où :
Ï gi est un paramètre complexe dépendant de la topologie du
réseau
Ï α(f ) est le coefficient d’atténuation qui tient compte de l’effet
de peau et des pertes diélectriques
Ï τi est le délai dû au trajet i
Ï di est le distance parcourue par le signal i
Ï N est le nombre de multitrajets importants.
397 / 406
398 / 406
Le standard HomePlug
Caractéristiques principales :
Ï Transmission à multiporteuses (917 pour la variante
400 / 406
Débits nominaux et réels des réseaux HomePlug
401 / 406
Caractéristiques :
Ï modulateur/démodulateur (modem) d’amplitude à deux états
(ASK-2).
Plus particulièrement : modulation OOK (0 ⇒ A = 0,
1 ⇒ A 6= 0,).
Ï bande de fréquence 95 − 150[kHz].
402 / 406
Couplage avec la ligne
Principe :
Ï superposer un signal de fréquence plus élevée (100[kHz] à
404 / 406
Fonction de transfert du filtre
405 / 406
406 / 406