Bài giảng Xác suất thống kê và quá trình nhẫu nhiên - Tô Văn Ban

Tóm tắt Bài giảng Xác suất thống kê và quá trình nhẫu nhiên - Tô Văn Ban: ...(cũng có thể có ý nghĩa khác) và chúng ta gọi { }tX , t I∈ là QTNN. Hơn nữa, nếu I là tập đếm được thì ta gọi { }tX , t I∈ là QTNN với thời gian rời rạc hay dãy các BNN. Đặc biệt, ta gọi { }nX , n∈N hoặc { }n 0 0X , n n ,n 1,...= + là dãy các BNN một phía. Nếu I =Z thì ta gọi { }nX , n∈Z là ... 2T− − ⎡ ⎤ ⎡ ⎤σ = = −µ −µ⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦∫ ∫ ( )( ) ( )( )T T2 T T 1 E X t X s dtds 4T − − ⎡ ⎤= −µ −⎣ ⎦∫ ∫ µ ( )T T X2 T T 1 C t s dtd 4T − − = −∫ ∫ s s . Đối với tích phân kép cuối cùng, bằng cách đổi biến u t s , v t= − = + ta đi tới: ( )2T X 2T 1 1 C 2T 2T− ⎛ ⎞τ d− τ τ⎜ ⎟⎝ ... . Khi đó ( ) ( )t a Y t X s ds= ∫ * ( ){ }Y t , t [a;b]∈ là quá trình MS - khả vi và ( ) ( )Y t X t′ = . * Hàm kỳ vọng và hàm tự tương quan của { }Y(t) cho bởi: t t t Y X a a a (t) E[ X(s)ds] E[X(s)]ds (s)ds;µ = = = µ∫ ∫ ∫ t t Y a a R (t,s) E X(u)du X(v)dv ⎡ ⎤= ⎢ ⎥⎣ ⎦∫ ∫ . (5.4.1...

pdf83 trang | Chia sẻ: havih72 | Lượt xem: 308 | Lượt tải: 0download
Nội dung tài liệu Bài giảng Xác suất thống kê và quá trình nhẫu nhiên - Tô Văn Ban, để tải tài liệu về máy bạn click vào nút DOWNLOAD ở trên
i 1
a X t
=
∑ 1 n0 t ... t , ai≤ < < là các 
hằng số thực. Chúng ta viết lại tổng này như sau: 
( ) ( ) ( ) ( )
( ) ( ) ( ) ( ) (
n
i i 1 n 1
i 1
2 n 2 n n n n 1
a X t a ... a X t X 0
a ... a X t X t ... a X t X t .
=
−
= + + ⎡ − ⎤ +⎣ ⎦
)+ + + ⎡ − ⎤ + + ⎡ − ⎤⎣ ⎦ ⎣
∑
⎦
Từ đòi hỏi (3) và (4) ở định nghĩa, vế phải của đồng nhất thức vừa viết là tổ 
hợp tuyến tính của các BNN chuẩn, độc lập, suy ra đó là BNN chuẩn. Theo định 
nghĩa, ( ){ }X t là quá trình Gauss. 
ii) Xét hàm số ( )g t D[X(t)].= Theo các đòi hỏi ở định nghĩa chúng ta có: 
. t,s 0∀ ≥
( ) ( ) ( ) ( ) ( )g t s D X t s X s X s X 0+ = ⎡ + − + −⎣ ⎦⎤ 
( ) ( ) ( ) ( )D X t s X s D X s X 0= ⎡ + − ⎤+ ⎡ − ⎤⎣ ⎦ ⎣ ⎦ 
( ) ( ) ( ) ( )
( ) ( )
D X t X 0 D X s X 0
g t g s .
= ⎡ − ⎤ + ⎡ − ⎤⎣ ⎦ ⎣
= +
⎦ 
Như vậy g(t) thoả mãn phương trình hàm Cauchy, suy ra tồn tại hằng số k 
để g(t) = kt. Lại do ( ) ( )k g 1 D[X 1 ]= = ta nhận được 
 ( ) 2D[X t ] t=σ với . 2 D[X(1)]σ =
iii) Bây giờ với 0 chúng ta có s t≤ <
( ) ( ) ( ) ( ) ( )D[X t ] D X t X s X s X 0= ⎡ − + − ⎤⎣ ⎦ 
 [ ]D X(t) X(s) D[X(s)].= − + 
Vậy ( ) ( ) ( ) ( )D X t X s D[X t ] D[X s ]⎡ − ⎤ = −⎣ ⎦ ( )2 t s= σ − . (*) 
 75
 iv) Trong trường hợp 0 chúng ta biến đổi như sau s t≤ <
( ) ( ) ( ) ( )( )D X t X s D[X(t)] D[X(s)] 2Cov X t ,X s .⎡ − ⎤ = + −⎣ ⎦ 
Từ đó, sử dụng (*) và (ii) chúng ta nhận được 
( ) ( )( ) ( ) ( ) ( ) ( ){ }1Cov X t ,X s D[X t ] D[X s ] D X t X s2= + − ⎡ − ⎤⎣ ⎦ 
( ){ } ( )2 2 2t s t s s min t,s
2
σ= + − − =σ = σ . 
Tương tự cho trường hợp 0 t s≤ < . 
v) Suy từ chỗ 1 2 1 n nX(t ),X(t ) X(t ),...,X(t ) X(t )1−− − là các BNN độc lập, 
.  i i 1X(t ) X(t )−− : 2 i i 1N(0, (t t ))−σ −
Ngoài các tính chất vừa nêu, người ta còn chứng minh được các tính chất sau đây 
nói về quỹ đạo của QT Wiener (xem chứng minh trong [3, Phần III] trang 180). 
Hầu hết các quỹ đạo của QT Wiener không có biến phân giới nội trên đoạn 
hữu hạn [a;b] bất kỳ và do đó, hầu hết các quỹ đạo của nó đều không khả vi tại 
một điểm bất kỳ. 
Tính chất này làm cho mỗi quỹ đạo của QT Wiener trở nên “khủng khiếp”, 
“không vẽ nổi”, “không tưởng tượng nổi”. Thế nhưng chúng ta vẫn phải hình 
dung cho tốt về nó! 
c) Sinh một phần quỹ đạo của quá trình Wiener 
Vì mỗi quỹ đạo của một QT Wiener không có biến phân giới nội nên ta 
không có cách gì sinh ra một quỹ đạo đầy đủ bất kỳ. Tuy nhiên chúng ta lại có thể 
sinh được giá trị của quỹ đạo tại một số điểm quan tâm cho trước. 
Giả sử cần sinh giá trị của QT Wiener tại các điểm với 
. Ta có 
0 1 nt , t ,..., t
0 1t 0 t ... t= < < < n
( ) ( ) ( ) ( ) ( )( ) ( ) ( )( )k k k 1 k 1 k 2 1 0
1 k
X t X t X t X t X t ... X t X t
S ... S ,
− − −= − + − + + −
= + + 
trong đó ( ) ( ) ( )( )2i i i 1 i i 1S X t X t N 0; t t−= − σ − ,−: {Si} là dãy độc lập. 
Từ đó chúng ta có thể sử dụng thuật toán sau đây. 
1. Tạo dãy các thời điểm quan tâm { }nt ,i 0,1,...,n ;= t0 = 0. Tính 
. i i i 1 0t t ; 0−∆ = − ∆ =
2. Sinh các BNN chuẩn tắc { }iG ,i 1,...,n= . 
3. Tính số gia i iS G= σ ∆ i . 
4. ( )k 0 1 kX t S S ... S , k 0,1,...,n .= + + + = 
 76
Hình 5.11 đưa ra hình ảnh của 50 hàm mẫu của QT Wiener với 
. i1; 0,1σ= ∆ =
Hình 5.11. Các quỹ đạo của QT Wiener. 
5.5.3.Giới thiệu về các QTNN loại khác 
Các QTNN loại khác có nhiều ứng dụng trong kỹ thuật là: 
*QTNN Markov (rời rạc, liên tục) (xem [3], [7], [9], [10], [13]) 
*QT Martingal (xem [3]) 
*QT sinh, tử. 
*QTNN véc tơ (xem [11]) 
§5.6. QUÁ TRÌNH NGẪU NHIÊN PHỨC 
Tín hiệu phức là một công cụ rất hiệu quả để nghiên cứu tín hiệu nói riêng và 
kỹ thuật điện tử nói chung. Cùng với QTNN thực, người ta nghiên cứu QTNN 
phức: 
 Z(t) X(t) jY(t)= +
trong đó { } { }X(t) , Y(t) là những QTNN thực. 
Hàm kỳ vọng, hàm tự tương quan và hàm tự hiệp phương sai được định 
nghĩa hơi khác với trường hợp QT thực, đó là: 
Z(t) E[X(t)] jE[Y(t)];µ = + 
*
ZR (t,s) E[Z(t) Z (s)];= 
*
ZC (t,s) E[(Z(t) E[Z(t)]) (Z(s) E[Z(s)]) ].= − − 
Nhiều tính chất của hàm tự tương quan, tự hiệp phương sai với QT thực vẫn 
bảo toàn, song tính chất đối xứng đã thay đổi một chút, đó là: 
*
Z ZR (t,s) R (s, t);= 
*
Z ZC (t,s) C (s, t).= 
Định nghĩa hàm tương quan chéo của hai QT phức cũng được thay đổi cho 
phù hợp: 
*
ZWR (t,s) E[Z(t) W (s)]= 
( )( )*ZW Z WC (t,s) E[ Z(t) (t) W(s) (s) ]= −µ −µ . 
Tính chất đối xứng bây giờ trở thành 
 77
 78
. ZW WZR (t,s) R (s, t)
∗=
Khái niệm về tính dừng cũng như dừng đồng thời vẫn không thay đổi: 
QTNN phức { }Z(t) là dừng nếu hàm kỳ vọng Z(t)µ là hằng số và hàm tự 
tương quan chỉ phụ thuộc hiệu thời gian: ZR (t,s)
Z ZR (t ,s) R ( ).+ τ = τ 
Hai QTNN phức {Z(t)}, {W(t)} được gọi là dừng đồng thời nếu mỗi quá 
trình {Z(t)}, {W(t)} là dừng; hơn nữa, hàm tương quan chéo của chúng chỉ phụ 
thuộc vào hiệu thời gian: 
ZW ZWR (t , t) R ( ).+ τ = τ 
Ví dụ 5.18. Tổng hợp dao động điều hoà phức cùng tần số. 
Xét QTNN { }V(t) cho bởi 
N
j( t U )o n
n
n 1
V(t) A e ω +
=
= ∑ 
trong đó{ }n mA ,U ,n,m i,..., N= là các BNN độc lập, phân bố đều trên [mU ]0;2 .π 
Để ý đến tính độc lập, ta có: 
2N
j( t u)o
n
n 1 0
1E[V(t)] E[A ] e du 0
2
π ω +
=
= =π∑ ∫ ; 
N N
j( (t ) U ) j( t U )o n o m
V n m
n 1 m 1
R (t , t) E A e A eω +τ + − ω +
= =
⎡ ⎤+ τ = ⎢ ⎥⎣ ⎦∑ ∑ 
= 
N
j j(U U )o n m
n m
n,m 1
E[A A ]e E[e ].ω τ −
=
∑
Với m n thì ≠
2 2
j(U U )n m
2
0 0
1E[e ] (cos(u-v)+jsin(u-v))dudv = 0.
(2 )
π π− = π ∫ ∫ 
Vậy 
N
j 2o
V n
n 1
R (t , t) e E[A ].ω τ
=
+ τ = ∑
Từ đó, { là QT dừng, quy tâm với . }V(t) Nj 2oV n
n 1
R ( ) e E[A ]ω τ
=
τ = ∑
Theoretical Questions for Chapter V 
5.1. Basic definitions about random sequences and processes, rough 
classifications, sample functions (orbits or realizations) of the processes. 
5.2. Family of finite-dimensional joint cdf’s (cumulative distribution 
functions) of a RP (random process), two properties of this family. 
5.3.The second order process: definition, mean, autocorrelation function 
and auto-covariance function of a RP and cross-correlation function of 2 RP’s. 
5.4. Process with independent increments: definition, examples, process 
with noncorrelation increments. 
5.5. Strict-sense stationary (SSS) process: definition, some properties of 
SSS processes. 
5.6. Wide-sense stationary (WSS) process: definition, properties of the 
autocorrelation function of a WSS process, necessary and sufficient conditions 
for a given real function to be the autocorrelation function of a WSS process. 
5.7. Two jointly stationary processes: def., properties of their cross-
correlation function. 
5.8. Gaussian process: def., the n-dimensional joint probability density 
functions. Characteristics of stationary gaussian processes. 
5.9. Mean ergodic: def., condition for a WSS process to be mean ergodic. 
Measurement of cross-correlation functions and autocorrelation ones. 
5.10. Continuity in probability and in mean square, condition in terms of 
the autocorrelation function for a RP to be continuous in mean square. 
5.11. MS-derivative (derivative in mean square sense): def., condition in 
terms of the autocorrelation function for a RP to have the MS-derivative at a point . ot
5.12. MS-integral (integral in mean square sense): def., condition in terms 
of for a RP to have the MS-integral over the inteval [a, . XR (t,s) b]
5.13. Poisson process: def., meaning of the parameter λ . 
5.14. Poisson process: n-dimensianal jpmf’s (joint probability mass 
functions) and autocorrelation function. 
5.15. Poisson process: computing the rate of arrivals and generating 
realizations of a Poisson process. 
5.16. Wiener process: def., some fundamental properties. 
5.17. Wiener process: def., generating a part of the sample function of the 
process. 
5.18. Complex random process: def., mean function, autocorrelation 
function, autocovariance function, some their properties, case of stationary 
processes with complex values. 
 79
Câu hỏi ôn tập chương V 
5.1. Những định nghĩa cơ bản về dãy và quá trình ngẫu nhiên, sơ bộ phân 
loại của chúng; quĩ đạo (hay thể hiện) của QTNN, sự phân loại theo quỹ đạo. 
5.2. Họ phân bố hữu hạn chiều của QTNN, hai tính chất của họ hàm này. 
5.3. QT cấp hai: định nghĩa, hàm kỳ vọng, hàm tự tương quan, hàm tự hiệp 
phương sai, hàm tương quan chéo của 2 QT. 
5.4. QT số gia độc lập: định nghĩa, ví dụ, QT số gia không tương quan. 
5.5. QT dừng theo nghĩa hẹp: định nghĩa, một vài điều kiện cần của QT 
dừng theo nghĩa hẹp. 
5.6. QT dừng theo nghĩa rộng: định nghĩa, tính chất của hàm tương quan 
của QT dừng; điều kiện cần và đủ và điều kiện đủ để hàm thực cho trước là hàm 
tương quan của QT dừng 
5.7. Dừng đồng thời: định nghĩa 2 QT dừng đồng thời; tính chất hàm tương 
quan chéo của chúng. 
5.8. Quá trình Gauss: định nghĩa; hàm mật độ đồng thời; tính đặc thù của 
QT Gauss dừng. 
5.9. Ergodic kỳ vọng: định nghĩa, điều kiện để một quá trình dừng là 
ergodic kỳ vọng. Đo hàm tương quan chéo và tự tương quan. 
5.10. Liên tục theo xác suất, liên tục theo bình phương trung bình; điều 
kiện thông qua hàm tự tương quan để xảy ra liên tục theo trung bình. 
5.11. Khả vi theo bình phương trung bình: định nghĩa, điều kiện thông qua 
hàm tự tương quan để QT khả vi theo bình phương trung bình. XR (t,s)
5.12 Tích phân theo bình phương trung bình: định nghĩa, điều kiện thông 
qua hàm để QT khả tích theo bình phương trung bình. XR (t,s)
5.13 QT Poisson: định nghĩa, ý nghĩa của tham số λ . 
5.14 QT Poisson: xác suất đồng thời n chiều và hàm tự tương quan. 
5.15 QT Poisson: vấn đề xác định cường độ dãy đến và sinh các qũi đạo. 
5.16 QT Wiener: định nghĩa, các tính chất sơ bộ. 
5.17. QT Wiener: định nghĩa, sinh một phần quỹ đạo của QT. 
5.18. QTNN phức: định nghĩa, hàm kỳ vọng, hàm tự tương quan, hàm tự 
hiệp phương sai, vài tính chất, trường hợp QT phức, dừng. 
 80
Problems for Chapter V 
5.1. A process X has 5 following realizations with the same probabilities: 
1
2
x (t) 2cos(t)
x (t) 2sin(t)
= −
= − 
4
5
x (t) cos(t) sin(t)
x (t) sin(t) cos(t)
= −
= − 
3x (t) 2[cos(t) sin(t)]= + . 
a) Describe the ensembe, sketch and find the mean function 
X (t) E[X(t)]µ = . 
b) Calculate one-dimensional comulative distribution function XF (x;1).
Hint: X (t) 0µ = ; the comulative distribution function of X(1) defines from 
the following table of probabilities 
X(1) -1.6829 -1.0806 -0.3012 0.3012 2.7635 
P 0.2 0.2 0.2 0.2 0.2 
5.2. Consider the RP { defined by X(t) = Ycos (}X(t) t), t 0ω ≥ , where ω 
is a constant and Y is uniformly distributed in (0; 1 ). 
a) Sketch some realizations. Find the (one-dimensional) probability density 
function of the process at and at t 0= t / 4.= π 
b) Find the mean function E[X(t)] and the autocorrelation function 
 XR (t,s).
Ans. b) ; 
1 x [0;1]
0 x [0;1]
∈⎧⎨ ∉⎩
2 x 0; 1/ 2
0 x 0; 1/ 2
⎧ ⎡ ⎤∈⎪ ⎣ ⎦⎨ ⎡ ⎤∉⎪ ⎣ ⎦⎩
; 
5.3. Suppose that is a sequence of IID (independent identically 
distributed) random variables with 
1 2Z , Z ,...
nP{Z 1} p,= = nP{Z 1} q 1 p,= − = = − . Put 
 oX 0;=
n
n i
i 1
X Z , n 1,2,...
=
= =∑
+
The random process is called a (simple) random walk. n{X ,n 0}≥
a) Describle the random walk (which class of random processes does it 
belong to? The state space, the set of parameters). 
b) Plot a realization of . n{X }
c) Put Plot a realization of the RP{ } . nX(t) X , n t n 1.= ≤ < X(t)
Sol. a) This is a discret-time random process (a random sequence). The 
state space is { }E ..., 2, 1,0,1,2,...= = − −¢ , it is also the rang of the process and 
the index parameter set is { }T 0,1,2,...= . 
 81
b) A realization (a sample sequence) {x(n)} of a simple random walk can be 
produced by tossing a coin every second and letting x(n) increase by unity if a 
head appears and decrease by unity if a tail appears, for instance 
 n 0 1 2 3 4 5 6 7 8 9 10 11  
Tossing a coin T H H T T T H T H H H  
 x(n) 0 -1 0 1 0 -1 -2 -1 -2 -1 0 1  
The sample function of { }X(n) and { }X(t) is as the following figure. 
t
 X(n), X(t) 
 1 
 0 
 -1 
 -2 
5.4. Suppose that { }X(n) is a random walk, find the one-dimensional 
distribution function. 
Ans. We have to evaluate { }n np (k) P X k= = . It’s clear that { }oP X 0 1= = . 
Note that if np (k) 0= n k< because the random walk cannot get to level k in 
less than k steps. Thus, n k≥ . 
Let and be the random variables denoting the numbers of +1s and 
-1s, respectively, in the first n steps. Thus 
nN
+
nN
−
n nN B(n,p); N B(n,q);
+ −: : 
 . n n n nn N N ;X N N
+ − += + = − n−
And now n n
1N (n X
2
+ = + ) nn Xor 2Nn+ = + . It implies that 
nX k= ⇔ n 1N (n2
+ k)= + . 
 Than is even if n is even, is odd if n is odd. Thus nX nX
(n k) / 2 (n k) / 2 (n k) / 2
n np (k) C p q
+ + −= , n k≥ , n and k are both even or odd. 
5.5. Find the mean function, the variance function and the autocorrelation 
function of a random walk. Consider the case when p q 1/ 2.= = 
Ans. 2X X(n) n(p q); (n) 4npq;µ = − σ =
2
X 2
m (nm m)(p q) m n
R (n,m)
n m(nm n)(p q) n m
⎧
.
+ − − <⎪= ⎨ + − − <⎪⎩
 82
Xp q 1/ 2 : R (n,m) min(n,m) n,m 0.= = = > 
5.6. Let { }X(n) be a random sequence, where are independent 
random variables with identically distributed function mean and 
variance . 
1 2X ,X ,...
XF (x), µ
2σ
a) Find the finite-dimensional cdf. 
b) Find the mean function and the autocorrelation function . XR (n,m)
c) Find the autocovariance function and the variance one XC (n,m)
2
X (n).σ
d) Prove that it is a stationary sequence. 
Ans. 1 m 1 mF(x ,..., x ;n ,..., n ) = X 1 X mF (x )...F (x ); 
2
2
22 2
0 n mn m
; ;
n mn m
⎧ ≠⎧µ ≠⎪ ⎪µ σ⎨ ⎨σ =⎪µ + σ =⎪ ⎩⎩
; . 
5.7. Prove that if a second order process is SSS, it is also WSS. 
5.8. Prove that a WSS process {X(t)} is MS-cotinuous if and only if its 
autocorrelation function is continuous at 0τ = . 
5.9. Consider two RPs X(t) sin( t )= ω +Θ and Y(t) cos( t )= ω +Θ , where 
 is a constant and . Are two processes X and Y jointly wide-sense 
stationary? Find covariance functions of every process X and Y and their cross-
correlation coefficient. 
ω U[0;1]Θ :
Ans. XYR ( ) (1/ 2)sin( )τ = ωτ . 
5.10. Consider a random process { }X(t) defined by 
 , X(t) Ucos( t)+Vsin( t), < t < += ω ω −∞ ∞
}
where ω is a constant, U and V are two random variables. 
a) Prove that the condition 
E[U] E[V] 0= = 
is nesessary for { to be a stationary process. X(t)
b) With that condition, prove that the process { }X(t) is stationary if and 
only if U and V are uncorrelated random variables and have the same variance; in 
other words, . 2 2E[UV] 0 and E[U ] E[V ]= = 2= σ
}5.11. Suppose that { is a gaussian stationary process with zero mean 
and the autocorrelation function 
X(t)
[ ]
[ ]X
1 T
R ( ) T
0 T
⎧ τ− τ∈ −⎪τ = ⎨⎪ τ∉ −⎩
;T
;T .
 83
Suppose that { }iX(t ),i 1,2,...,n= is the sample sequence of the process 
 at equidistant times {X(t)} i Tt i 2= , i = 1, 2, ...,n. 
Find the mean and the variance of the sample mean 
n
n i
i 1
1ˆ X(t )
n =
µ = ∑ . 
 Ans. n n 2
2n 1ˆ ˆE( ) 0; D( ) .
n
−µ = µ = 
5.12. A random process {X(t)} has two sample functions 
and . The sample functions are chosen by tossing a coin: if a head 
appears (with probability p) then is chosen, if a tail appears (with 
probability ) then is chosen. 
1x (t) sin( t / 2)= π
2x (t) 2=
1x (t)
q 1 p= − 2x (t)
 a) Sketch the sample functions, find distribution functions 
XF (x;1) and
XF (x, y;1,2).
b) Find the ensemble average and the time average . How 
do they depend on time and outcomes of the experiment? How is ergodicity of 
the process? 
E[X(t)] A[X(t)]
Hint a) Put , X(1) U, X(2) V= = Xg(x, y) F (x, y;1,2) P{U x; V y}= = < < . 
The range of U is { , of V is { . 1;2} 0;2}
{U 1} {V 0}= = = ={a head appears} with probability p, 
{U 2} {V 2}= = = = {a tail appears} with probability q. 
 84
Then the function is as 
in the following figure 
XF (x;1) XF (x;1)
1
 p
O 1 2 x 
* or x 1≤ y 0≤ : g(x, y) 0= 
*1 x 2;0 y 2 : g(x, y) P{U 1; V 0} p< ≤ < ≤ = = = =
* 2 x;0 y 2 : g(x, y) P{V 0} p< < ≤ = = =
*1 x 2; 2 y : g(x, y) P{U 1} p< ≤ < = = =
* . 2 x; 2 y : g(x, y) 1< < =
X
0 x 1 or y 0
F (x, y;1,2) p 1 x 2 or 0 y 2
1 2 x, 2 y
≤ ≤⎧⎪⇒ = < ≤ <⎨⎪ < <⎩
≤
b) tE[X(t)] psin 2q
2
π= + , depends on t, not on outcomes of the experiment. 
0 if a tail appears
A[X(t)]
2 if a head appears
⎧= ⎨⎩ 
does’nt depend on t but on outcomes of the experiment. The process is not 
ergodic. 
5.13. Prove that if { is a gaussian process and its MS-derivative {}X(t) }X (t)′ 
exists, then the derivative process { }X (t)′ is also a gaussian process. 
5.14. Find the autocorrelation function and the autovariance 
function of a Poisson process with parameter 
XR (t,s)
XC (t,s) λ . 
Ans: E[X(t)] t D[X(t)]= λ = ; 
 2X XC (t,s) min(t,s); R (t,s) min(t,s) ts.= λ = λ + λ 
5.15. Denote be the nth arrival instant (time of nth arrival) of a Poisson 
process with parameter . Prove that is gamma (Erlang in this case) random 
variable with parameters 
nA
λ nA
(n, ).λ
5.16. Sketch a realization of shot noise being an output of a RL circuit with 
an impulse response and a Poisson process with parameter (rate) 
 as an input. 
th(t) e u(t)−α=
1λ =
Hint. Generate some values of the sequence ; evalute and then put 
. 
n{S } nA
n
i 1
Y(t) h(t A )
∞
=
= −∑
The function has a sawtooth waveform. 
5.17. Patients visit a doctor’s office according to a Poisson process with 
rate (minute). The doctor only starts working when there are 3 patients 
in the waiting room. 
1/10λ =
a) Find the average waiting time from the moment at that the office’s door 
is opened until the first patient is admitted. 
b) Evaluate the probability so that there is no patient admitted in the first 
hour. 
Hint. Put - the arriving instant of the nnA
th patient. 
 n 1 n iA S ... S , S E(1/10).= + + : 
 a) (minutes); 3E(A ) 3.10 30= =
b) { } 6P P N(60) N(0) 2 e (1 6 18) 0,062−= − ≤ = + + ≈ 
5.18. Suppose that {N(t)} is a Poisson process with a rate λ . Find 
 with . 2E{[X(t) X(s)] }− t s>
 85
Ans. 2 2(t s) (t s) .λ − + λ −
5.19. Prove that a Wiener process { }X(t) is a gaussian one. 
Hint: Set up an arbitrary linear combination. 
5.20. Prove that a Wiener process { }X(t) is a MS-continuous one. 
5.21. Prove that a Wiener process { }X(t) does’nt have MS-derivatives at 
any point (but has a generalized one, that is a white noise, see Problem 5.23). ot
5.22. Let {X(t)} be a Wiener process with a parameter . Put 
 Find the mean function, the autocorrelation function and the 
autocovariance function of {Y(t)}. 
2σ
t
0
Y(t) X( )d .= α α∫
Hint. 
t
s
Y(t) Y(s) [X( ) - X(s)]d + (t - s)X(s) (0 s t)= + α α ≤ <∫ . 
2 3
2 2 2
Y Y
t 1[Y(t)] 0; (t) ; R (t,s) s (3t s), (t s 0)
3 6
σ= σ = = σ − > ≥Ans. E 
min(t,s)s
2 2 2
Y
0 0
C (t,s) u(t )d 1d min(t,s)= σ −β β = σ β = σ∫ ∫ . 
5.23. Let {X(t)} be gaussian white noise. Put 
t
0
Y(t) X( )d .= α α∫ 
a) Find the autocorrelation function of {Y(t)}. 
b) Prove that {Y(t)} is a Wiener process. 
(So we can regard gaussian white noise as a generalized derivative of a 
Wiener process). 
Sol. According to (5.4.7), exist the integral with every positive t. (We can 
also prove the exist of the integral through a limit of integral sums). Using 
(5.4.10) we get 
t s s t
2
Y X
0 0 0 0
R (t,s) R ( , )d d [ ( )d ]d= α β α β = σ δ β −α α β∫ ∫ ∫ ∫ 
min(t,s)s
2 2 2
0 0
u(t )d 1d min(t,s)= σ −β β = σ β = σ∫ ∫ . 
b) Y(0) = 0; {Y(t)} is gaussian process and has zero mean because {X(t)} is 
gaussian and zero mean one; {Y(t)} has independent increments because white 
noise {X(t)} has independent increments. We see that the autocorrelation of 
{Y(t)} is equal to the autocorrelation function of the Wiener, and it is trivial to 
show that it is a process with stationary independent increments. Thus {Y(t)} is a 
Wiener process. 
 86

File đính kèm:

  • pdfbai_giang_xac_suat_thong_ke_va_qua_trinh_nhau_nhien_to_van_b.pdf