✬ ✩
GEOMETRIE STOCHASTIQUE ET THEORIE DE L’INFORMATION
- F. Baccelli
INRIA & ENS
En collaboration avec V. Anantharam, UC Berkeley SMAI 2011, Mai 2011
✫ ✪
GEOMETRIE STOCHASTIQUE ET THEORIE DE LINFORMATION F. Baccelli - - PowerPoint PPT Presentation
GEOMETRIE STOCHASTIQUE ET THEORIE DE LINFORMATION F. Baccelli INRIA & ENS En collaboration avec V. Anantharam, UC Berkeley SMAI 2011, Mai 2011 1 Structure of the Lecture Shannon Capacity and Error
✬ ✩
✫ ✪
✬ ✩
1
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
2
k }: points of µn (codewords).
n: Palm probability of µn.
k}: i.i.d. sequence of displacements, independent of µn:
k = (Dn k(1), . . . , Dn k(n))
k = T n k + Dn k: displacement of the p.p. (received messages)
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
3
k }: Voronoi cell of T n k in µn.
n(Zn 0 /
0 ) = I
n(Dn 0 /
0 ) = lim A→∞
k ∈Bn(0,A)1Zn k /
∈Vn
k
k ∈Bn(0,A)
2 log(2πeσ2), there exists a sequence of point pro-
2 log(2πeσ2), for all sequences of point processes µn
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
4
0 | = Vn(√nLn),
n(Dn 0 /
0 ) ≥ I
n(Dn 0 /
n
n
0(i)2 ≥ L2 n
n
n
0(i)2 − σ2
n(Dn 0 /
0 ) ≥ I
n(σ2 − ǫ ≥ L2 n) − ηǫ(n)
n(Vn(
0 |) − ηǫ(n)
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
5
Proof of 2 [AB 08] (continued)
n(|Vn 0 | > Vn(
n(|Vn 0 |)
n(|Vn 0 |) = 1
n 2rn
2 + 1) ∼
n 2rn
2e
2
n(|Vn 0 |)
2 log(2πe(σ2−ǫ)) →n→∞ 0
2 log(2πeσ2).
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
6
k}: i.i.d. sequence of centered displacements, independent
k = (Dn k(1), . . . , Dn k(n)): i.i.d. coordinates with a density f
R
2 log(2πeσ2)
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
7
k} of I
n(Dn 0 /
0) →n→∞ 0
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
8
δ =
n
0 ((Dn 0(1), . . . , Dn 0(n)) ∈ An δ) →n→∞ 1
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
9
Proof of 1 (continued)
k contains
k + An δ and to
l + An δ;
k than to any other point;
k than to any other point.
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
10
Proof of 1 (continued)
n
n(Dn 0 /
0) ≤ I
n(Dn 0 /
δ) + I
n(Dn 0 ∈ An δ,
0 − An δ) > 0)
0 − An δ) > 0) ≤ I
0 − An δ))
δ)) = enR|An δ|
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
11
Proof of 1 (continued)
0 ∈ An δ) =
δ
n
δ
n
n
i=1 log(f(y(i)))dy
δ
δ|
δ| ≤ en(h(D)+δ)
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
12
δ sets for white noise with variance σ2:
√ 2.
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
13
k = (Dk(1), . . . , Dk(n)) with density fn on I
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
14
ADDITIVE STATIONARY AND ERGODIC DISPLACEMENT OF A POINT PROCESS (continued)
n→∞
n→∞ −1
Rn
δ =
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
15
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
16
2π
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
17
COLORED GAUSSIAN NOISE EXAMPLE (continued)
π
δ =
n xn − 1 + d(n)
π
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
18
R2
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
19
0(µn(Bn(r
σ(r)
σ(r) = 1r>0e− r2
2σ2 1
∞
B(r)gn
σ(r)dr = ∞
B(rσ)gn
1(r)dr ,
B(r) the volume of the ball Bn(0, r).
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
20
0 iff the open ball Bn(x, |x|) has no point of µn:
0 (Dn 0 ∈ Vn 0 ) = Pn 0 (µn(Bn(Dn 0, |Dn 0|)) = 0) .
0| has for density gn σ(x) = gn 1(x/σ)/σ on I
0| = r, the angle is uniform on Sn−1.
0(µn(Bn(r
B(r). G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
21
k ) > S(xn), ∀k = 0
n ln(fn(xn)). Let
f (r) = Vol {yn ∈ I
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
22
REPRESENTATION OF ASEN MLE ERROR PROB. (continued)
Rn
0((µn − ǫ0)(F(xn)) = 0)fn(xn)dxn .
R
f (r)
n ln(fn(Dn)).
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
23
REPRESENTATION OF ASEN MLE ERROR PROB. (continued)
R
f (r)
n ln(fn(Dn))
f (r) = {yn ∈ I
f (r) of Sn f (r).
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
24
REPRESENTATION OF ASEN MLE ERROR PROB. (continued)
k(D) of point T n k :
k(D) = {xn s.t. S(xn − T n k ) < inf l=k S(xn − T n l )}
k ) = S(xn − T n l ) for some l = k} ∩ Vn k .
k smaller than
k ) = ∞ for all k) which are closer to T n k
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
25
k}k jointly stationary partition.
e (n, µn, Cn, α, D)
e,opt(n, α, D) = inf µn,Cn ppp e (n, µn, Cn, α, D)
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
26
ERROR EXPONENTS (continued)
n
e,opt(n, α, D) ,
n
e,opt(n, α, D) ,
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
27
ERROR EXPONENTS (continued)
n
e (n, µn, Cn, α, D)
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
28
2 − 1 2 − log(α)
2 − log(2) + log(α)
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
29
∞
n(r)dr
n(vσ√n) = e −n
2 −1 2−log(v)+o(1)
n 2 log 2πeσ2α2, 1 − e−λnVn(vσ√n) = e−n((log α−log v)++o(1)) and
∞
2 −1 2−log v+(log α−log v)++o(1))dv
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
30
n→∞
n→∞ −1
Rn
n→∞
R
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
31
POISSON LOWER BOUNDS ON SEN ERROR EXPONENTS (continued)
n→∞
θ
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
32
POISSON LOWER BOUNDS ON SEN ERROR EXPONENTS (continued)
R
dφ. This is ∞ unless τ is absolutely continuous
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
33
POISSON LOWER BOUNDS ON SEN ERROR EXPONENTS (continued)
n
D on I
τ∈M1(S): −
τ∈M1(S): K(τ||φ)+h(τ)=u
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
34
POISSON LOWER BOUNDS ON SEN ERROR EXPONENTS (continued)
n
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
35
POISSON LOWER BOUNDS ON SEN ERROR EXPONENTS (continued)
D satisfies an LDP with good and convex rate function
τ∈SymM1(S):
τ∈SymM1(S): K(τ||τ1⊗P)+h(τ2|τ1)=u
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
36
POISSON LOWER BOUNDS ON SEN ERROR EXPONENTS (continued)
s<u(s − I(s)) ≤ lim inf n→∞
D(u)) ≤ lim sup n→∞
D(u)) ≤ sup s≤u
s≤u
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
37
POISSON LOWER BOUNDS ON SEN ERROR EXPONENTS (continued)
r {F(r) + I(r)} ,
s≤r
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
38
f (r) ≤ min(1, λnV n
f (r))
f (r))
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
39
θ
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
40
π
2 − 1 2 − ln α
1 2 − ln 2 + ln α
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
41
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
42
1 n ln(M)
1 n
i=1 tm(i)2 ≤ P for all m;
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
43
AWGN CAPACITY AND ERROR EXPONENTS WITH CONSTRAINTS (continued)
n
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
44
AWGN CAPACITY AND ERROR EXPONENTS WITH CONSTRAINTS (continued)
n
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
45
AWGN CAPACITY AND ERROR EXPONENTS WITH CONSTRAINTS (continued)
n
n
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
46
n→∞
T n, E(n
i=1 |Ti|2)<nP
i=1 |Ti|2) < nP.
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
47
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
48
n
n
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
49
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
50
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
51
IDEA OF PROOF (continued)
e (n, µn, Cn, α, D) =
k s.t. T n
k ∈Bn(0,
√ nP) pe,k
B(
k + Dn k /
k given {T n l , Cn l }l.
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
52
IDEA OF PROOF (continued)
e (n, µn, Cn, α, D)
k ∈Bn(0,
√ nP)
√ nP))≥(2πeP)
n 2e−nh(D)e−n ln(α+γ)
B(
n 2e−nh(D)e−n ln(α+γ)
n 2
B(
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
53
IDEA OF PROOF (continued)
e (n, µn, Cn, α, D))
n 2e−nh(D)e−n(α+γ)
n 2
B(
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
54
2 ln 1 2πeα2σ2
B((α−ǫ)σ√n)
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
55
8
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
56
Rn
Rn
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
57
α 2 − ln(α) − 1 + 2 ln(2)
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
58
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
59
ǫ→0,y→x Fǫ(y) ≥ F(x),
ǫ→0 −ǫ ln
ǫ Pǫ(dx)
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪
✬ ✩
60
n
2π
2π
∞
G´ eom´ etrie Stochastique et Th´ eorie de l’Information
✫ ✪