Bài giảng Xác suất thống kê và quá trình nhẫu nhiên - Tô Văn Ban
Tóm tắt Bài giảng Xác suất thống kê và quá trình nhẫu nhiên - Tô Văn Ban: ...(cũng có thể có ý nghĩa khác) và chúng ta gọi { }tX , t I∈ là QTNN. Hơn nữa, nếu I là tập đếm được thì ta gọi { }tX , t I∈ là QTNN với thời gian rời rạc hay dãy các BNN. Đặc biệt, ta gọi { }nX , n∈N hoặc { }n 0 0X , n n ,n 1,...= + là dãy các BNN một phía. Nếu I =Z thì ta gọi { }nX , n∈Z là ... 2T− − ⎡ ⎤ ⎡ ⎤σ = = −µ −µ⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦∫ ∫ ( )( ) ( )( )T T2 T T 1 E X t X s dtds 4T − − ⎡ ⎤= −µ −⎣ ⎦∫ ∫ µ ( )T T X2 T T 1 C t s dtd 4T − − = −∫ ∫ s s . Đối với tích phân kép cuối cùng, bằng cách đổi biến u t s , v t= − = + ta đi tới: ( )2T X 2T 1 1 C 2T 2T− ⎛ ⎞τ d− τ τ⎜ ⎟⎝ ... . Khi đó ( ) ( )t a Y t X s ds= ∫ * ( ){ }Y t , t [a;b]∈ là quá trình MS - khả vi và ( ) ( )Y t X t′ = . * Hàm kỳ vọng và hàm tự tương quan của { }Y(t) cho bởi: t t t Y X a a a (t) E[ X(s)ds] E[X(s)]ds (s)ds;µ = = = µ∫ ∫ ∫ t t Y a a R (t,s) E X(u)du X(v)dv ⎡ ⎤= ⎢ ⎥⎣ ⎦∫ ∫ . (5.4.1...
i 1
a X t
=
∑ 1 n0 t ... t , ai≤ < < là các
hằng số thực. Chúng ta viết lại tổng này như sau:
( ) ( ) ( ) ( )
( ) ( ) ( ) ( ) (
n
i i 1 n 1
i 1
2 n 2 n n n n 1
a X t a ... a X t X 0
a ... a X t X t ... a X t X t .
=
−
= + + ⎡ − ⎤ +⎣ ⎦
)+ + + ⎡ − ⎤ + + ⎡ − ⎤⎣ ⎦ ⎣
∑
⎦
Từ đòi hỏi (3) và (4) ở định nghĩa, vế phải của đồng nhất thức vừa viết là tổ
hợp tuyến tính của các BNN chuẩn, độc lập, suy ra đó là BNN chuẩn. Theo định
nghĩa, ( ){ }X t là quá trình Gauss.
ii) Xét hàm số ( )g t D[X(t)].= Theo các đòi hỏi ở định nghĩa chúng ta có:
. t,s 0∀ ≥
( ) ( ) ( ) ( ) ( )g t s D X t s X s X s X 0+ = ⎡ + − + −⎣ ⎦⎤
( ) ( ) ( ) ( )D X t s X s D X s X 0= ⎡ + − ⎤+ ⎡ − ⎤⎣ ⎦ ⎣ ⎦
( ) ( ) ( ) ( )
( ) ( )
D X t X 0 D X s X 0
g t g s .
= ⎡ − ⎤ + ⎡ − ⎤⎣ ⎦ ⎣
= +
⎦
Như vậy g(t) thoả mãn phương trình hàm Cauchy, suy ra tồn tại hằng số k
để g(t) = kt. Lại do ( ) ( )k g 1 D[X 1 ]= = ta nhận được
( ) 2D[X t ] t=σ với . 2 D[X(1)]σ =
iii) Bây giờ với 0 chúng ta có s t≤ <
( ) ( ) ( ) ( ) ( )D[X t ] D X t X s X s X 0= ⎡ − + − ⎤⎣ ⎦
[ ]D X(t) X(s) D[X(s)].= − +
Vậy ( ) ( ) ( ) ( )D X t X s D[X t ] D[X s ]⎡ − ⎤ = −⎣ ⎦ ( )2 t s= σ − . (*)
75
iv) Trong trường hợp 0 chúng ta biến đổi như sau s t≤ <
( ) ( ) ( ) ( )( )D X t X s D[X(t)] D[X(s)] 2Cov X t ,X s .⎡ − ⎤ = + −⎣ ⎦
Từ đó, sử dụng (*) và (ii) chúng ta nhận được
( ) ( )( ) ( ) ( ) ( ) ( ){ }1Cov X t ,X s D[X t ] D[X s ] D X t X s2= + − ⎡ − ⎤⎣ ⎦
( ){ } ( )2 2 2t s t s s min t,s
2
σ= + − − =σ = σ .
Tương tự cho trường hợp 0 t s≤ < .
v) Suy từ chỗ 1 2 1 n nX(t ),X(t ) X(t ),...,X(t ) X(t )1−− − là các BNN độc lập,
. i i 1X(t ) X(t )−− : 2 i i 1N(0, (t t ))−σ −
Ngoài các tính chất vừa nêu, người ta còn chứng minh được các tính chất sau đây
nói về quỹ đạo của QT Wiener (xem chứng minh trong [3, Phần III] trang 180).
Hầu hết các quỹ đạo của QT Wiener không có biến phân giới nội trên đoạn
hữu hạn [a;b] bất kỳ và do đó, hầu hết các quỹ đạo của nó đều không khả vi tại
một điểm bất kỳ.
Tính chất này làm cho mỗi quỹ đạo của QT Wiener trở nên “khủng khiếp”,
“không vẽ nổi”, “không tưởng tượng nổi”. Thế nhưng chúng ta vẫn phải hình
dung cho tốt về nó!
c) Sinh một phần quỹ đạo của quá trình Wiener
Vì mỗi quỹ đạo của một QT Wiener không có biến phân giới nội nên ta
không có cách gì sinh ra một quỹ đạo đầy đủ bất kỳ. Tuy nhiên chúng ta lại có thể
sinh được giá trị của quỹ đạo tại một số điểm quan tâm cho trước.
Giả sử cần sinh giá trị của QT Wiener tại các điểm với
. Ta có
0 1 nt , t ,..., t
0 1t 0 t ... t= < < < n
( ) ( ) ( ) ( ) ( )( ) ( ) ( )( )k k k 1 k 1 k 2 1 0
1 k
X t X t X t X t X t ... X t X t
S ... S ,
− − −= − + − + + −
= + +
trong đó ( ) ( ) ( )( )2i i i 1 i i 1S X t X t N 0; t t−= − σ − ,−: {Si} là dãy độc lập.
Từ đó chúng ta có thể sử dụng thuật toán sau đây.
1. Tạo dãy các thời điểm quan tâm { }nt ,i 0,1,...,n ;= t0 = 0. Tính
. i i i 1 0t t ; 0−∆ = − ∆ =
2. Sinh các BNN chuẩn tắc { }iG ,i 1,...,n= .
3. Tính số gia i iS G= σ ∆ i .
4. ( )k 0 1 kX t S S ... S , k 0,1,...,n .= + + + =
76
Hình 5.11 đưa ra hình ảnh của 50 hàm mẫu của QT Wiener với
. i1; 0,1σ= ∆ =
Hình 5.11. Các quỹ đạo của QT Wiener.
5.5.3.Giới thiệu về các QTNN loại khác
Các QTNN loại khác có nhiều ứng dụng trong kỹ thuật là:
*QTNN Markov (rời rạc, liên tục) (xem [3], [7], [9], [10], [13])
*QT Martingal (xem [3])
*QT sinh, tử.
*QTNN véc tơ (xem [11])
§5.6. QUÁ TRÌNH NGẪU NHIÊN PHỨC
Tín hiệu phức là một công cụ rất hiệu quả để nghiên cứu tín hiệu nói riêng và
kỹ thuật điện tử nói chung. Cùng với QTNN thực, người ta nghiên cứu QTNN
phức:
Z(t) X(t) jY(t)= +
trong đó { } { }X(t) , Y(t) là những QTNN thực.
Hàm kỳ vọng, hàm tự tương quan và hàm tự hiệp phương sai được định
nghĩa hơi khác với trường hợp QT thực, đó là:
Z(t) E[X(t)] jE[Y(t)];µ = +
*
ZR (t,s) E[Z(t) Z (s)];=
*
ZC (t,s) E[(Z(t) E[Z(t)]) (Z(s) E[Z(s)]) ].= − −
Nhiều tính chất của hàm tự tương quan, tự hiệp phương sai với QT thực vẫn
bảo toàn, song tính chất đối xứng đã thay đổi một chút, đó là:
*
Z ZR (t,s) R (s, t);=
*
Z ZC (t,s) C (s, t).=
Định nghĩa hàm tương quan chéo của hai QT phức cũng được thay đổi cho
phù hợp:
*
ZWR (t,s) E[Z(t) W (s)]=
( )( )*ZW Z WC (t,s) E[ Z(t) (t) W(s) (s) ]= −µ −µ .
Tính chất đối xứng bây giờ trở thành
77
78
. ZW WZR (t,s) R (s, t)
∗=
Khái niệm về tính dừng cũng như dừng đồng thời vẫn không thay đổi:
QTNN phức { }Z(t) là dừng nếu hàm kỳ vọng Z(t)µ là hằng số và hàm tự
tương quan chỉ phụ thuộc hiệu thời gian: ZR (t,s)
Z ZR (t ,s) R ( ).+ τ = τ
Hai QTNN phức {Z(t)}, {W(t)} được gọi là dừng đồng thời nếu mỗi quá
trình {Z(t)}, {W(t)} là dừng; hơn nữa, hàm tương quan chéo của chúng chỉ phụ
thuộc vào hiệu thời gian:
ZW ZWR (t , t) R ( ).+ τ = τ
Ví dụ 5.18. Tổng hợp dao động điều hoà phức cùng tần số.
Xét QTNN { }V(t) cho bởi
N
j( t U )o n
n
n 1
V(t) A e ω +
=
= ∑
trong đó{ }n mA ,U ,n,m i,..., N= là các BNN độc lập, phân bố đều trên [mU ]0;2 .π
Để ý đến tính độc lập, ta có:
2N
j( t u)o
n
n 1 0
1E[V(t)] E[A ] e du 0
2
π ω +
=
= =π∑ ∫ ;
N N
j( (t ) U ) j( t U )o n o m
V n m
n 1 m 1
R (t , t) E A e A eω +τ + − ω +
= =
⎡ ⎤+ τ = ⎢ ⎥⎣ ⎦∑ ∑
=
N
j j(U U )o n m
n m
n,m 1
E[A A ]e E[e ].ω τ −
=
∑
Với m n thì ≠
2 2
j(U U )n m
2
0 0
1E[e ] (cos(u-v)+jsin(u-v))dudv = 0.
(2 )
π π− = π ∫ ∫
Vậy
N
j 2o
V n
n 1
R (t , t) e E[A ].ω τ
=
+ τ = ∑
Từ đó, { là QT dừng, quy tâm với . }V(t) Nj 2oV n
n 1
R ( ) e E[A ]ω τ
=
τ = ∑
Theoretical Questions for Chapter V
5.1. Basic definitions about random sequences and processes, rough
classifications, sample functions (orbits or realizations) of the processes.
5.2. Family of finite-dimensional joint cdf’s (cumulative distribution
functions) of a RP (random process), two properties of this family.
5.3.The second order process: definition, mean, autocorrelation function
and auto-covariance function of a RP and cross-correlation function of 2 RP’s.
5.4. Process with independent increments: definition, examples, process
with noncorrelation increments.
5.5. Strict-sense stationary (SSS) process: definition, some properties of
SSS processes.
5.6. Wide-sense stationary (WSS) process: definition, properties of the
autocorrelation function of a WSS process, necessary and sufficient conditions
for a given real function to be the autocorrelation function of a WSS process.
5.7. Two jointly stationary processes: def., properties of their cross-
correlation function.
5.8. Gaussian process: def., the n-dimensional joint probability density
functions. Characteristics of stationary gaussian processes.
5.9. Mean ergodic: def., condition for a WSS process to be mean ergodic.
Measurement of cross-correlation functions and autocorrelation ones.
5.10. Continuity in probability and in mean square, condition in terms of
the autocorrelation function for a RP to be continuous in mean square.
5.11. MS-derivative (derivative in mean square sense): def., condition in
terms of the autocorrelation function for a RP to have the MS-derivative at a point . ot
5.12. MS-integral (integral in mean square sense): def., condition in terms
of for a RP to have the MS-integral over the inteval [a, . XR (t,s) b]
5.13. Poisson process: def., meaning of the parameter λ .
5.14. Poisson process: n-dimensianal jpmf’s (joint probability mass
functions) and autocorrelation function.
5.15. Poisson process: computing the rate of arrivals and generating
realizations of a Poisson process.
5.16. Wiener process: def., some fundamental properties.
5.17. Wiener process: def., generating a part of the sample function of the
process.
5.18. Complex random process: def., mean function, autocorrelation
function, autocovariance function, some their properties, case of stationary
processes with complex values.
79
Câu hỏi ôn tập chương V
5.1. Những định nghĩa cơ bản về dãy và quá trình ngẫu nhiên, sơ bộ phân
loại của chúng; quĩ đạo (hay thể hiện) của QTNN, sự phân loại theo quỹ đạo.
5.2. Họ phân bố hữu hạn chiều của QTNN, hai tính chất của họ hàm này.
5.3. QT cấp hai: định nghĩa, hàm kỳ vọng, hàm tự tương quan, hàm tự hiệp
phương sai, hàm tương quan chéo của 2 QT.
5.4. QT số gia độc lập: định nghĩa, ví dụ, QT số gia không tương quan.
5.5. QT dừng theo nghĩa hẹp: định nghĩa, một vài điều kiện cần của QT
dừng theo nghĩa hẹp.
5.6. QT dừng theo nghĩa rộng: định nghĩa, tính chất của hàm tương quan
của QT dừng; điều kiện cần và đủ và điều kiện đủ để hàm thực cho trước là hàm
tương quan của QT dừng
5.7. Dừng đồng thời: định nghĩa 2 QT dừng đồng thời; tính chất hàm tương
quan chéo của chúng.
5.8. Quá trình Gauss: định nghĩa; hàm mật độ đồng thời; tính đặc thù của
QT Gauss dừng.
5.9. Ergodic kỳ vọng: định nghĩa, điều kiện để một quá trình dừng là
ergodic kỳ vọng. Đo hàm tương quan chéo và tự tương quan.
5.10. Liên tục theo xác suất, liên tục theo bình phương trung bình; điều
kiện thông qua hàm tự tương quan để xảy ra liên tục theo trung bình.
5.11. Khả vi theo bình phương trung bình: định nghĩa, điều kiện thông qua
hàm tự tương quan để QT khả vi theo bình phương trung bình. XR (t,s)
5.12 Tích phân theo bình phương trung bình: định nghĩa, điều kiện thông
qua hàm để QT khả tích theo bình phương trung bình. XR (t,s)
5.13 QT Poisson: định nghĩa, ý nghĩa của tham số λ .
5.14 QT Poisson: xác suất đồng thời n chiều và hàm tự tương quan.
5.15 QT Poisson: vấn đề xác định cường độ dãy đến và sinh các qũi đạo.
5.16 QT Wiener: định nghĩa, các tính chất sơ bộ.
5.17. QT Wiener: định nghĩa, sinh một phần quỹ đạo của QT.
5.18. QTNN phức: định nghĩa, hàm kỳ vọng, hàm tự tương quan, hàm tự
hiệp phương sai, vài tính chất, trường hợp QT phức, dừng.
80
Problems for Chapter V
5.1. A process X has 5 following realizations with the same probabilities:
1
2
x (t) 2cos(t)
x (t) 2sin(t)
= −
= −
4
5
x (t) cos(t) sin(t)
x (t) sin(t) cos(t)
= −
= −
3x (t) 2[cos(t) sin(t)]= + .
a) Describe the ensembe, sketch and find the mean function
X (t) E[X(t)]µ = .
b) Calculate one-dimensional comulative distribution function XF (x;1).
Hint: X (t) 0µ = ; the comulative distribution function of X(1) defines from
the following table of probabilities
X(1) -1.6829 -1.0806 -0.3012 0.3012 2.7635
P 0.2 0.2 0.2 0.2 0.2
5.2. Consider the RP { defined by X(t) = Ycos (}X(t) t), t 0ω ≥ , where ω
is a constant and Y is uniformly distributed in (0; 1 ).
a) Sketch some realizations. Find the (one-dimensional) probability density
function of the process at and at t 0= t / 4.= π
b) Find the mean function E[X(t)] and the autocorrelation function
XR (t,s).
Ans. b) ;
1 x [0;1]
0 x [0;1]
∈⎧⎨ ∉⎩
2 x 0; 1/ 2
0 x 0; 1/ 2
⎧ ⎡ ⎤∈⎪ ⎣ ⎦⎨ ⎡ ⎤∉⎪ ⎣ ⎦⎩
;
5.3. Suppose that is a sequence of IID (independent identically
distributed) random variables with
1 2Z , Z ,...
nP{Z 1} p,= = nP{Z 1} q 1 p,= − = = − . Put
oX 0;=
n
n i
i 1
X Z , n 1,2,...
=
= =∑
+
The random process is called a (simple) random walk. n{X ,n 0}≥
a) Describle the random walk (which class of random processes does it
belong to? The state space, the set of parameters).
b) Plot a realization of . n{X }
c) Put Plot a realization of the RP{ } . nX(t) X , n t n 1.= ≤ < X(t)
Sol. a) This is a discret-time random process (a random sequence). The
state space is { }E ..., 2, 1,0,1,2,...= = − −¢ , it is also the rang of the process and
the index parameter set is { }T 0,1,2,...= .
81
b) A realization (a sample sequence) {x(n)} of a simple random walk can be
produced by tossing a coin every second and letting x(n) increase by unity if a
head appears and decrease by unity if a tail appears, for instance
n 0 1 2 3 4 5 6 7 8 9 10 11
Tossing a coin T H H T T T H T H H H
x(n) 0 -1 0 1 0 -1 -2 -1 -2 -1 0 1
The sample function of { }X(n) and { }X(t) is as the following figure.
t
X(n), X(t)
1
0
-1
-2
5.4. Suppose that { }X(n) is a random walk, find the one-dimensional
distribution function.
Ans. We have to evaluate { }n np (k) P X k= = . It’s clear that { }oP X 0 1= = .
Note that if np (k) 0= n k< because the random walk cannot get to level k in
less than k steps. Thus, n k≥ .
Let and be the random variables denoting the numbers of +1s and
-1s, respectively, in the first n steps. Thus
nN
+
nN
−
n nN B(n,p); N B(n,q);
+ −: :
. n n n nn N N ;X N N
+ − += + = − n−
And now n n
1N (n X
2
+ = + ) nn Xor 2Nn+ = + . It implies that
nX k= ⇔ n 1N (n2
+ k)= + .
Than is even if n is even, is odd if n is odd. Thus nX nX
(n k) / 2 (n k) / 2 (n k) / 2
n np (k) C p q
+ + −= , n k≥ , n and k are both even or odd.
5.5. Find the mean function, the variance function and the autocorrelation
function of a random walk. Consider the case when p q 1/ 2.= =
Ans. 2X X(n) n(p q); (n) 4npq;µ = − σ =
2
X 2
m (nm m)(p q) m n
R (n,m)
n m(nm n)(p q) n m
⎧
.
+ − − <⎪= ⎨ + − − <⎪⎩
82
Xp q 1/ 2 : R (n,m) min(n,m) n,m 0.= = = >
5.6. Let { }X(n) be a random sequence, where are independent
random variables with identically distributed function mean and
variance .
1 2X ,X ,...
XF (x), µ
2σ
a) Find the finite-dimensional cdf.
b) Find the mean function and the autocorrelation function . XR (n,m)
c) Find the autocovariance function and the variance one XC (n,m)
2
X (n).σ
d) Prove that it is a stationary sequence.
Ans. 1 m 1 mF(x ,..., x ;n ,..., n ) = X 1 X mF (x )...F (x );
2
2
22 2
0 n mn m
; ;
n mn m
⎧ ≠⎧µ ≠⎪ ⎪µ σ⎨ ⎨σ =⎪µ + σ =⎪ ⎩⎩
; .
5.7. Prove that if a second order process is SSS, it is also WSS.
5.8. Prove that a WSS process {X(t)} is MS-cotinuous if and only if its
autocorrelation function is continuous at 0τ = .
5.9. Consider two RPs X(t) sin( t )= ω +Θ and Y(t) cos( t )= ω +Θ , where
is a constant and . Are two processes X and Y jointly wide-sense
stationary? Find covariance functions of every process X and Y and their cross-
correlation coefficient.
ω U[0;1]Θ :
Ans. XYR ( ) (1/ 2)sin( )τ = ωτ .
5.10. Consider a random process { }X(t) defined by
, X(t) Ucos( t)+Vsin( t), < t < += ω ω −∞ ∞
}
where ω is a constant, U and V are two random variables.
a) Prove that the condition
E[U] E[V] 0= =
is nesessary for { to be a stationary process. X(t)
b) With that condition, prove that the process { }X(t) is stationary if and
only if U and V are uncorrelated random variables and have the same variance; in
other words, . 2 2E[UV] 0 and E[U ] E[V ]= = 2= σ
}5.11. Suppose that { is a gaussian stationary process with zero mean
and the autocorrelation function
X(t)
[ ]
[ ]X
1 T
R ( ) T
0 T
⎧ τ− τ∈ −⎪τ = ⎨⎪ τ∉ −⎩
;T
;T .
83
Suppose that { }iX(t ),i 1,2,...,n= is the sample sequence of the process
at equidistant times {X(t)} i Tt i 2= , i = 1, 2, ...,n.
Find the mean and the variance of the sample mean
n
n i
i 1
1ˆ X(t )
n =
µ = ∑ .
Ans. n n 2
2n 1ˆ ˆE( ) 0; D( ) .
n
−µ = µ =
5.12. A random process {X(t)} has two sample functions
and . The sample functions are chosen by tossing a coin: if a head
appears (with probability p) then is chosen, if a tail appears (with
probability ) then is chosen.
1x (t) sin( t / 2)= π
2x (t) 2=
1x (t)
q 1 p= − 2x (t)
a) Sketch the sample functions, find distribution functions
XF (x;1) and
XF (x, y;1,2).
b) Find the ensemble average and the time average . How
do they depend on time and outcomes of the experiment? How is ergodicity of
the process?
E[X(t)] A[X(t)]
Hint a) Put , X(1) U, X(2) V= = Xg(x, y) F (x, y;1,2) P{U x; V y}= = < < .
The range of U is { , of V is { . 1;2} 0;2}
{U 1} {V 0}= = = ={a head appears} with probability p,
{U 2} {V 2}= = = = {a tail appears} with probability q.
84
Then the function is as
in the following figure
XF (x;1) XF (x;1)
1
p
O 1 2 x
* or x 1≤ y 0≤ : g(x, y) 0=
*1 x 2;0 y 2 : g(x, y) P{U 1; V 0} p< ≤ < ≤ = = = =
* 2 x;0 y 2 : g(x, y) P{V 0} p< < ≤ = = =
*1 x 2; 2 y : g(x, y) P{U 1} p< ≤ < = = =
* . 2 x; 2 y : g(x, y) 1< < =
X
0 x 1 or y 0
F (x, y;1,2) p 1 x 2 or 0 y 2
1 2 x, 2 y
≤ ≤⎧⎪⇒ = < ≤ <⎨⎪ < <⎩
≤
b) tE[X(t)] psin 2q
2
π= + , depends on t, not on outcomes of the experiment.
0 if a tail appears
A[X(t)]
2 if a head appears
⎧= ⎨⎩
does’nt depend on t but on outcomes of the experiment. The process is not
ergodic.
5.13. Prove that if { is a gaussian process and its MS-derivative {}X(t) }X (t)′
exists, then the derivative process { }X (t)′ is also a gaussian process.
5.14. Find the autocorrelation function and the autovariance
function of a Poisson process with parameter
XR (t,s)
XC (t,s) λ .
Ans: E[X(t)] t D[X(t)]= λ = ;
2X XC (t,s) min(t,s); R (t,s) min(t,s) ts.= λ = λ + λ
5.15. Denote be the nth arrival instant (time of nth arrival) of a Poisson
process with parameter . Prove that is gamma (Erlang in this case) random
variable with parameters
nA
λ nA
(n, ).λ
5.16. Sketch a realization of shot noise being an output of a RL circuit with
an impulse response and a Poisson process with parameter (rate)
as an input.
th(t) e u(t)−α=
1λ =
Hint. Generate some values of the sequence ; evalute and then put
.
n{S } nA
n
i 1
Y(t) h(t A )
∞
=
= −∑
The function has a sawtooth waveform.
5.17. Patients visit a doctor’s office according to a Poisson process with
rate (minute). The doctor only starts working when there are 3 patients
in the waiting room.
1/10λ =
a) Find the average waiting time from the moment at that the office’s door
is opened until the first patient is admitted.
b) Evaluate the probability so that there is no patient admitted in the first
hour.
Hint. Put - the arriving instant of the nnA
th patient.
n 1 n iA S ... S , S E(1/10).= + + :
a) (minutes); 3E(A ) 3.10 30= =
b) { } 6P P N(60) N(0) 2 e (1 6 18) 0,062−= − ≤ = + + ≈
5.18. Suppose that {N(t)} is a Poisson process with a rate λ . Find
with . 2E{[X(t) X(s)] }− t s>
85
Ans. 2 2(t s) (t s) .λ − + λ −
5.19. Prove that a Wiener process { }X(t) is a gaussian one.
Hint: Set up an arbitrary linear combination.
5.20. Prove that a Wiener process { }X(t) is a MS-continuous one.
5.21. Prove that a Wiener process { }X(t) does’nt have MS-derivatives at
any point (but has a generalized one, that is a white noise, see Problem 5.23). ot
5.22. Let {X(t)} be a Wiener process with a parameter . Put
Find the mean function, the autocorrelation function and the
autocovariance function of {Y(t)}.
2σ
t
0
Y(t) X( )d .= α α∫
Hint.
t
s
Y(t) Y(s) [X( ) - X(s)]d + (t - s)X(s) (0 s t)= + α α ≤ <∫ .
2 3
2 2 2
Y Y
t 1[Y(t)] 0; (t) ; R (t,s) s (3t s), (t s 0)
3 6
σ= σ = = σ − > ≥Ans. E
min(t,s)s
2 2 2
Y
0 0
C (t,s) u(t )d 1d min(t,s)= σ −β β = σ β = σ∫ ∫ .
5.23. Let {X(t)} be gaussian white noise. Put
t
0
Y(t) X( )d .= α α∫
a) Find the autocorrelation function of {Y(t)}.
b) Prove that {Y(t)} is a Wiener process.
(So we can regard gaussian white noise as a generalized derivative of a
Wiener process).
Sol. According to (5.4.7), exist the integral with every positive t. (We can
also prove the exist of the integral through a limit of integral sums). Using
(5.4.10) we get
t s s t
2
Y X
0 0 0 0
R (t,s) R ( , )d d [ ( )d ]d= α β α β = σ δ β −α α β∫ ∫ ∫ ∫
min(t,s)s
2 2 2
0 0
u(t )d 1d min(t,s)= σ −β β = σ β = σ∫ ∫ .
b) Y(0) = 0; {Y(t)} is gaussian process and has zero mean because {X(t)} is
gaussian and zero mean one; {Y(t)} has independent increments because white
noise {X(t)} has independent increments. We see that the autocorrelation of
{Y(t)} is equal to the autocorrelation function of the Wiener, and it is trivial to
show that it is a process with stationary independent increments. Thus {Y(t)} is a
Wiener process.
86
File đính kèm:
bai_giang_xac_suat_thong_ke_va_qua_trinh_nhau_nhien_to_van_b.pdf



