Bài giảng Xác suất thống kê và quá trình nhẫu nhiên - Tô Văn Ban
Tóm tắt Bài giảng Xác suất thống kê và quá trình nhẫu nhiên - Tô Văn Ban: ...(cũng có thể có ý nghĩa khác) và chúng ta gọi { }tX , t I∈ là QTNN. Hơn nữa, nếu I là tập đếm được thì ta gọi { }tX , t I∈ là QTNN với thời gian rời rạc hay dãy các BNN. Đặc biệt, ta gọi { }nX , n∈N hoặc { }n 0 0X , n n ,n 1,...= + là dãy các BNN một phía. Nếu I =Z thì ta gọi { }nX , n∈Z là ... 2T− − ⎡ ⎤ ⎡ ⎤σ = = −µ −µ⎢ ⎥ ⎢ ⎥⎣ ⎦ ⎣ ⎦∫ ∫ ( )( ) ( )( )T T2 T T 1 E X t X s dtds 4T − − ⎡ ⎤= −µ −⎣ ⎦∫ ∫ µ ( )T T X2 T T 1 C t s dtd 4T − − = −∫ ∫ s s . Đối với tích phân kép cuối cùng, bằng cách đổi biến u t s , v t= − = + ta đi tới: ( )2T X 2T 1 1 C 2T 2T− ⎛ ⎞τ d− τ τ⎜ ⎟⎝ ... . Khi đó ( ) ( )t a Y t X s ds= ∫ * ( ){ }Y t , t [a;b]∈ là quá trình MS - khả vi và ( ) ( )Y t X t′ = . * Hàm kỳ vọng và hàm tự tương quan của { }Y(t) cho bởi: t t t Y X a a a (t) E[ X(s)ds] E[X(s)]ds (s)ds;µ = = = µ∫ ∫ ∫ t t Y a a R (t,s) E X(u)du X(v)dv ⎡ ⎤= ⎢ ⎥⎣ ⎦∫ ∫ . (5.4.1...
i 1 a X t = ∑ 1 n0 t ... t , ai≤ < < là các hằng số thực. Chúng ta viết lại tổng này như sau: ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( n i i 1 n 1 i 1 2 n 2 n n n n 1 a X t a ... a X t X 0 a ... a X t X t ... a X t X t . = − = + + ⎡ − ⎤ +⎣ ⎦ )+ + + ⎡ − ⎤ + + ⎡ − ⎤⎣ ⎦ ⎣ ∑ ⎦ Từ đòi hỏi (3) và (4) ở định nghĩa, vế phải của đồng nhất thức vừa viết là tổ hợp tuyến tính của các BNN chuẩn, độc lập, suy ra đó là BNN chuẩn. Theo định nghĩa, ( ){ }X t là quá trình Gauss. ii) Xét hàm số ( )g t D[X(t)].= Theo các đòi hỏi ở định nghĩa chúng ta có: . t,s 0∀ ≥ ( ) ( ) ( ) ( ) ( )g t s D X t s X s X s X 0+ = ⎡ + − + −⎣ ⎦⎤ ( ) ( ) ( ) ( )D X t s X s D X s X 0= ⎡ + − ⎤+ ⎡ − ⎤⎣ ⎦ ⎣ ⎦ ( ) ( ) ( ) ( ) ( ) ( ) D X t X 0 D X s X 0 g t g s . = ⎡ − ⎤ + ⎡ − ⎤⎣ ⎦ ⎣ = + ⎦ Như vậy g(t) thoả mãn phương trình hàm Cauchy, suy ra tồn tại hằng số k để g(t) = kt. Lại do ( ) ( )k g 1 D[X 1 ]= = ta nhận được ( ) 2D[X t ] t=σ với . 2 D[X(1)]σ = iii) Bây giờ với 0 chúng ta có s t≤ < ( ) ( ) ( ) ( ) ( )D[X t ] D X t X s X s X 0= ⎡ − + − ⎤⎣ ⎦ [ ]D X(t) X(s) D[X(s)].= − + Vậy ( ) ( ) ( ) ( )D X t X s D[X t ] D[X s ]⎡ − ⎤ = −⎣ ⎦ ( )2 t s= σ − . (*) 75 iv) Trong trường hợp 0 chúng ta biến đổi như sau s t≤ < ( ) ( ) ( ) ( )( )D X t X s D[X(t)] D[X(s)] 2Cov X t ,X s .⎡ − ⎤ = + −⎣ ⎦ Từ đó, sử dụng (*) và (ii) chúng ta nhận được ( ) ( )( ) ( ) ( ) ( ) ( ){ }1Cov X t ,X s D[X t ] D[X s ] D X t X s2= + − ⎡ − ⎤⎣ ⎦ ( ){ } ( )2 2 2t s t s s min t,s 2 σ= + − − =σ = σ . Tương tự cho trường hợp 0 t s≤ < . v) Suy từ chỗ 1 2 1 n nX(t ),X(t ) X(t ),...,X(t ) X(t )1−− − là các BNN độc lập, . i i 1X(t ) X(t )−− : 2 i i 1N(0, (t t ))−σ − Ngoài các tính chất vừa nêu, người ta còn chứng minh được các tính chất sau đây nói về quỹ đạo của QT Wiener (xem chứng minh trong [3, Phần III] trang 180). Hầu hết các quỹ đạo của QT Wiener không có biến phân giới nội trên đoạn hữu hạn [a;b] bất kỳ và do đó, hầu hết các quỹ đạo của nó đều không khả vi tại một điểm bất kỳ. Tính chất này làm cho mỗi quỹ đạo của QT Wiener trở nên “khủng khiếp”, “không vẽ nổi”, “không tưởng tượng nổi”. Thế nhưng chúng ta vẫn phải hình dung cho tốt về nó! c) Sinh một phần quỹ đạo của quá trình Wiener Vì mỗi quỹ đạo của một QT Wiener không có biến phân giới nội nên ta không có cách gì sinh ra một quỹ đạo đầy đủ bất kỳ. Tuy nhiên chúng ta lại có thể sinh được giá trị của quỹ đạo tại một số điểm quan tâm cho trước. Giả sử cần sinh giá trị của QT Wiener tại các điểm với . Ta có 0 1 nt , t ,..., t 0 1t 0 t ... t= < < < n ( ) ( ) ( ) ( ) ( )( ) ( ) ( )( )k k k 1 k 1 k 2 1 0 1 k X t X t X t X t X t ... X t X t S ... S , − − −= − + − + + − = + + trong đó ( ) ( ) ( )( )2i i i 1 i i 1S X t X t N 0; t t−= − σ − ,−: {Si} là dãy độc lập. Từ đó chúng ta có thể sử dụng thuật toán sau đây. 1. Tạo dãy các thời điểm quan tâm { }nt ,i 0,1,...,n ;= t0 = 0. Tính . i i i 1 0t t ; 0−∆ = − ∆ = 2. Sinh các BNN chuẩn tắc { }iG ,i 1,...,n= . 3. Tính số gia i iS G= σ ∆ i . 4. ( )k 0 1 kX t S S ... S , k 0,1,...,n .= + + + = 76 Hình 5.11 đưa ra hình ảnh của 50 hàm mẫu của QT Wiener với . i1; 0,1σ= ∆ = Hình 5.11. Các quỹ đạo của QT Wiener. 5.5.3.Giới thiệu về các QTNN loại khác Các QTNN loại khác có nhiều ứng dụng trong kỹ thuật là: *QTNN Markov (rời rạc, liên tục) (xem [3], [7], [9], [10], [13]) *QT Martingal (xem [3]) *QT sinh, tử. *QTNN véc tơ (xem [11]) §5.6. QUÁ TRÌNH NGẪU NHIÊN PHỨC Tín hiệu phức là một công cụ rất hiệu quả để nghiên cứu tín hiệu nói riêng và kỹ thuật điện tử nói chung. Cùng với QTNN thực, người ta nghiên cứu QTNN phức: Z(t) X(t) jY(t)= + trong đó { } { }X(t) , Y(t) là những QTNN thực. Hàm kỳ vọng, hàm tự tương quan và hàm tự hiệp phương sai được định nghĩa hơi khác với trường hợp QT thực, đó là: Z(t) E[X(t)] jE[Y(t)];µ = + * ZR (t,s) E[Z(t) Z (s)];= * ZC (t,s) E[(Z(t) E[Z(t)]) (Z(s) E[Z(s)]) ].= − − Nhiều tính chất của hàm tự tương quan, tự hiệp phương sai với QT thực vẫn bảo toàn, song tính chất đối xứng đã thay đổi một chút, đó là: * Z ZR (t,s) R (s, t);= * Z ZC (t,s) C (s, t).= Định nghĩa hàm tương quan chéo của hai QT phức cũng được thay đổi cho phù hợp: * ZWR (t,s) E[Z(t) W (s)]= ( )( )*ZW Z WC (t,s) E[ Z(t) (t) W(s) (s) ]= −µ −µ . Tính chất đối xứng bây giờ trở thành 77 78 . ZW WZR (t,s) R (s, t) ∗= Khái niệm về tính dừng cũng như dừng đồng thời vẫn không thay đổi: QTNN phức { }Z(t) là dừng nếu hàm kỳ vọng Z(t)µ là hằng số và hàm tự tương quan chỉ phụ thuộc hiệu thời gian: ZR (t,s) Z ZR (t ,s) R ( ).+ τ = τ Hai QTNN phức {Z(t)}, {W(t)} được gọi là dừng đồng thời nếu mỗi quá trình {Z(t)}, {W(t)} là dừng; hơn nữa, hàm tương quan chéo của chúng chỉ phụ thuộc vào hiệu thời gian: ZW ZWR (t , t) R ( ).+ τ = τ Ví dụ 5.18. Tổng hợp dao động điều hoà phức cùng tần số. Xét QTNN { }V(t) cho bởi N j( t U )o n n n 1 V(t) A e ω + = = ∑ trong đó{ }n mA ,U ,n,m i,..., N= là các BNN độc lập, phân bố đều trên [mU ]0;2 .π Để ý đến tính độc lập, ta có: 2N j( t u)o n n 1 0 1E[V(t)] E[A ] e du 0 2 π ω + = = =π∑ ∫ ; N N j( (t ) U ) j( t U )o n o m V n m n 1 m 1 R (t , t) E A e A eω +τ + − ω + = = ⎡ ⎤+ τ = ⎢ ⎥⎣ ⎦∑ ∑ = N j j(U U )o n m n m n,m 1 E[A A ]e E[e ].ω τ − = ∑ Với m n thì ≠ 2 2 j(U U )n m 2 0 0 1E[e ] (cos(u-v)+jsin(u-v))dudv = 0. (2 ) π π− = π ∫ ∫ Vậy N j 2o V n n 1 R (t , t) e E[A ].ω τ = + τ = ∑ Từ đó, { là QT dừng, quy tâm với . }V(t) Nj 2oV n n 1 R ( ) e E[A ]ω τ = τ = ∑ Theoretical Questions for Chapter V 5.1. Basic definitions about random sequences and processes, rough classifications, sample functions (orbits or realizations) of the processes. 5.2. Family of finite-dimensional joint cdf’s (cumulative distribution functions) of a RP (random process), two properties of this family. 5.3.The second order process: definition, mean, autocorrelation function and auto-covariance function of a RP and cross-correlation function of 2 RP’s. 5.4. Process with independent increments: definition, examples, process with noncorrelation increments. 5.5. Strict-sense stationary (SSS) process: definition, some properties of SSS processes. 5.6. Wide-sense stationary (WSS) process: definition, properties of the autocorrelation function of a WSS process, necessary and sufficient conditions for a given real function to be the autocorrelation function of a WSS process. 5.7. Two jointly stationary processes: def., properties of their cross- correlation function. 5.8. Gaussian process: def., the n-dimensional joint probability density functions. Characteristics of stationary gaussian processes. 5.9. Mean ergodic: def., condition for a WSS process to be mean ergodic. Measurement of cross-correlation functions and autocorrelation ones. 5.10. Continuity in probability and in mean square, condition in terms of the autocorrelation function for a RP to be continuous in mean square. 5.11. MS-derivative (derivative in mean square sense): def., condition in terms of the autocorrelation function for a RP to have the MS-derivative at a point . ot 5.12. MS-integral (integral in mean square sense): def., condition in terms of for a RP to have the MS-integral over the inteval [a, . XR (t,s) b] 5.13. Poisson process: def., meaning of the parameter λ . 5.14. Poisson process: n-dimensianal jpmf’s (joint probability mass functions) and autocorrelation function. 5.15. Poisson process: computing the rate of arrivals and generating realizations of a Poisson process. 5.16. Wiener process: def., some fundamental properties. 5.17. Wiener process: def., generating a part of the sample function of the process. 5.18. Complex random process: def., mean function, autocorrelation function, autocovariance function, some their properties, case of stationary processes with complex values. 79 Câu hỏi ôn tập chương V 5.1. Những định nghĩa cơ bản về dãy và quá trình ngẫu nhiên, sơ bộ phân loại của chúng; quĩ đạo (hay thể hiện) của QTNN, sự phân loại theo quỹ đạo. 5.2. Họ phân bố hữu hạn chiều của QTNN, hai tính chất của họ hàm này. 5.3. QT cấp hai: định nghĩa, hàm kỳ vọng, hàm tự tương quan, hàm tự hiệp phương sai, hàm tương quan chéo của 2 QT. 5.4. QT số gia độc lập: định nghĩa, ví dụ, QT số gia không tương quan. 5.5. QT dừng theo nghĩa hẹp: định nghĩa, một vài điều kiện cần của QT dừng theo nghĩa hẹp. 5.6. QT dừng theo nghĩa rộng: định nghĩa, tính chất của hàm tương quan của QT dừng; điều kiện cần và đủ và điều kiện đủ để hàm thực cho trước là hàm tương quan của QT dừng 5.7. Dừng đồng thời: định nghĩa 2 QT dừng đồng thời; tính chất hàm tương quan chéo của chúng. 5.8. Quá trình Gauss: định nghĩa; hàm mật độ đồng thời; tính đặc thù của QT Gauss dừng. 5.9. Ergodic kỳ vọng: định nghĩa, điều kiện để một quá trình dừng là ergodic kỳ vọng. Đo hàm tương quan chéo và tự tương quan. 5.10. Liên tục theo xác suất, liên tục theo bình phương trung bình; điều kiện thông qua hàm tự tương quan để xảy ra liên tục theo trung bình. 5.11. Khả vi theo bình phương trung bình: định nghĩa, điều kiện thông qua hàm tự tương quan để QT khả vi theo bình phương trung bình. XR (t,s) 5.12 Tích phân theo bình phương trung bình: định nghĩa, điều kiện thông qua hàm để QT khả tích theo bình phương trung bình. XR (t,s) 5.13 QT Poisson: định nghĩa, ý nghĩa của tham số λ . 5.14 QT Poisson: xác suất đồng thời n chiều và hàm tự tương quan. 5.15 QT Poisson: vấn đề xác định cường độ dãy đến và sinh các qũi đạo. 5.16 QT Wiener: định nghĩa, các tính chất sơ bộ. 5.17. QT Wiener: định nghĩa, sinh một phần quỹ đạo của QT. 5.18. QTNN phức: định nghĩa, hàm kỳ vọng, hàm tự tương quan, hàm tự hiệp phương sai, vài tính chất, trường hợp QT phức, dừng. 80 Problems for Chapter V 5.1. A process X has 5 following realizations with the same probabilities: 1 2 x (t) 2cos(t) x (t) 2sin(t) = − = − 4 5 x (t) cos(t) sin(t) x (t) sin(t) cos(t) = − = − 3x (t) 2[cos(t) sin(t)]= + . a) Describe the ensembe, sketch and find the mean function X (t) E[X(t)]µ = . b) Calculate one-dimensional comulative distribution function XF (x;1). Hint: X (t) 0µ = ; the comulative distribution function of X(1) defines from the following table of probabilities X(1) -1.6829 -1.0806 -0.3012 0.3012 2.7635 P 0.2 0.2 0.2 0.2 0.2 5.2. Consider the RP { defined by X(t) = Ycos (}X(t) t), t 0ω ≥ , where ω is a constant and Y is uniformly distributed in (0; 1 ). a) Sketch some realizations. Find the (one-dimensional) probability density function of the process at and at t 0= t / 4.= π b) Find the mean function E[X(t)] and the autocorrelation function XR (t,s). Ans. b) ; 1 x [0;1] 0 x [0;1] ∈⎧⎨ ∉⎩ 2 x 0; 1/ 2 0 x 0; 1/ 2 ⎧ ⎡ ⎤∈⎪ ⎣ ⎦⎨ ⎡ ⎤∉⎪ ⎣ ⎦⎩ ; 5.3. Suppose that is a sequence of IID (independent identically distributed) random variables with 1 2Z , Z ,... nP{Z 1} p,= = nP{Z 1} q 1 p,= − = = − . Put oX 0;= n n i i 1 X Z , n 1,2,... = = =∑ + The random process is called a (simple) random walk. n{X ,n 0}≥ a) Describle the random walk (which class of random processes does it belong to? The state space, the set of parameters). b) Plot a realization of . n{X } c) Put Plot a realization of the RP{ } . nX(t) X , n t n 1.= ≤ < X(t) Sol. a) This is a discret-time random process (a random sequence). The state space is { }E ..., 2, 1,0,1,2,...= = − −¢ , it is also the rang of the process and the index parameter set is { }T 0,1,2,...= . 81 b) A realization (a sample sequence) {x(n)} of a simple random walk can be produced by tossing a coin every second and letting x(n) increase by unity if a head appears and decrease by unity if a tail appears, for instance n 0 1 2 3 4 5 6 7 8 9 10 11 Tossing a coin T H H T T T H T H H H x(n) 0 -1 0 1 0 -1 -2 -1 -2 -1 0 1 The sample function of { }X(n) and { }X(t) is as the following figure. t X(n), X(t) 1 0 -1 -2 5.4. Suppose that { }X(n) is a random walk, find the one-dimensional distribution function. Ans. We have to evaluate { }n np (k) P X k= = . It’s clear that { }oP X 0 1= = . Note that if np (k) 0= n k< because the random walk cannot get to level k in less than k steps. Thus, n k≥ . Let and be the random variables denoting the numbers of +1s and -1s, respectively, in the first n steps. Thus nN + nN − n nN B(n,p); N B(n,q); + −: : . n n n nn N N ;X N N + − += + = − n− And now n n 1N (n X 2 + = + ) nn Xor 2Nn+ = + . It implies that nX k= ⇔ n 1N (n2 + k)= + . Than is even if n is even, is odd if n is odd. Thus nX nX (n k) / 2 (n k) / 2 (n k) / 2 n np (k) C p q + + −= , n k≥ , n and k are both even or odd. 5.5. Find the mean function, the variance function and the autocorrelation function of a random walk. Consider the case when p q 1/ 2.= = Ans. 2X X(n) n(p q); (n) 4npq;µ = − σ = 2 X 2 m (nm m)(p q) m n R (n,m) n m(nm n)(p q) n m ⎧ . + − − <⎪= ⎨ + − − <⎪⎩ 82 Xp q 1/ 2 : R (n,m) min(n,m) n,m 0.= = = > 5.6. Let { }X(n) be a random sequence, where are independent random variables with identically distributed function mean and variance . 1 2X ,X ,... XF (x), µ 2σ a) Find the finite-dimensional cdf. b) Find the mean function and the autocorrelation function . XR (n,m) c) Find the autocovariance function and the variance one XC (n,m) 2 X (n).σ d) Prove that it is a stationary sequence. Ans. 1 m 1 mF(x ,..., x ;n ,..., n ) = X 1 X mF (x )...F (x ); 2 2 22 2 0 n mn m ; ; n mn m ⎧ ≠⎧µ ≠⎪ ⎪µ σ⎨ ⎨σ =⎪µ + σ =⎪ ⎩⎩ ; . 5.7. Prove that if a second order process is SSS, it is also WSS. 5.8. Prove that a WSS process {X(t)} is MS-cotinuous if and only if its autocorrelation function is continuous at 0τ = . 5.9. Consider two RPs X(t) sin( t )= ω +Θ and Y(t) cos( t )= ω +Θ , where is a constant and . Are two processes X and Y jointly wide-sense stationary? Find covariance functions of every process X and Y and their cross- correlation coefficient. ω U[0;1]Θ : Ans. XYR ( ) (1/ 2)sin( )τ = ωτ . 5.10. Consider a random process { }X(t) defined by , X(t) Ucos( t)+Vsin( t), < t < += ω ω −∞ ∞ } where ω is a constant, U and V are two random variables. a) Prove that the condition E[U] E[V] 0= = is nesessary for { to be a stationary process. X(t) b) With that condition, prove that the process { }X(t) is stationary if and only if U and V are uncorrelated random variables and have the same variance; in other words, . 2 2E[UV] 0 and E[U ] E[V ]= = 2= σ }5.11. Suppose that { is a gaussian stationary process with zero mean and the autocorrelation function X(t) [ ] [ ]X 1 T R ( ) T 0 T ⎧ τ− τ∈ −⎪τ = ⎨⎪ τ∉ −⎩ ;T ;T . 83 Suppose that { }iX(t ),i 1,2,...,n= is the sample sequence of the process at equidistant times {X(t)} i Tt i 2= , i = 1, 2, ...,n. Find the mean and the variance of the sample mean n n i i 1 1ˆ X(t ) n = µ = ∑ . Ans. n n 2 2n 1ˆ ˆE( ) 0; D( ) . n −µ = µ = 5.12. A random process {X(t)} has two sample functions and . The sample functions are chosen by tossing a coin: if a head appears (with probability p) then is chosen, if a tail appears (with probability ) then is chosen. 1x (t) sin( t / 2)= π 2x (t) 2= 1x (t) q 1 p= − 2x (t) a) Sketch the sample functions, find distribution functions XF (x;1) and XF (x, y;1,2). b) Find the ensemble average and the time average . How do they depend on time and outcomes of the experiment? How is ergodicity of the process? E[X(t)] A[X(t)] Hint a) Put , X(1) U, X(2) V= = Xg(x, y) F (x, y;1,2) P{U x; V y}= = < < . The range of U is { , of V is { . 1;2} 0;2} {U 1} {V 0}= = = ={a head appears} with probability p, {U 2} {V 2}= = = = {a tail appears} with probability q. 84 Then the function is as in the following figure XF (x;1) XF (x;1) 1 p O 1 2 x * or x 1≤ y 0≤ : g(x, y) 0= *1 x 2;0 y 2 : g(x, y) P{U 1; V 0} p< ≤ < ≤ = = = = * 2 x;0 y 2 : g(x, y) P{V 0} p< < ≤ = = = *1 x 2; 2 y : g(x, y) P{U 1} p< ≤ < = = = * . 2 x; 2 y : g(x, y) 1< < = X 0 x 1 or y 0 F (x, y;1,2) p 1 x 2 or 0 y 2 1 2 x, 2 y ≤ ≤⎧⎪⇒ = < ≤ <⎨⎪ < <⎩ ≤ b) tE[X(t)] psin 2q 2 π= + , depends on t, not on outcomes of the experiment. 0 if a tail appears A[X(t)] 2 if a head appears ⎧= ⎨⎩ does’nt depend on t but on outcomes of the experiment. The process is not ergodic. 5.13. Prove that if { is a gaussian process and its MS-derivative {}X(t) }X (t)′ exists, then the derivative process { }X (t)′ is also a gaussian process. 5.14. Find the autocorrelation function and the autovariance function of a Poisson process with parameter XR (t,s) XC (t,s) λ . Ans: E[X(t)] t D[X(t)]= λ = ; 2X XC (t,s) min(t,s); R (t,s) min(t,s) ts.= λ = λ + λ 5.15. Denote be the nth arrival instant (time of nth arrival) of a Poisson process with parameter . Prove that is gamma (Erlang in this case) random variable with parameters nA λ nA (n, ).λ 5.16. Sketch a realization of shot noise being an output of a RL circuit with an impulse response and a Poisson process with parameter (rate) as an input. th(t) e u(t)−α= 1λ = Hint. Generate some values of the sequence ; evalute and then put . n{S } nA n i 1 Y(t) h(t A ) ∞ = = −∑ The function has a sawtooth waveform. 5.17. Patients visit a doctor’s office according to a Poisson process with rate (minute). The doctor only starts working when there are 3 patients in the waiting room. 1/10λ = a) Find the average waiting time from the moment at that the office’s door is opened until the first patient is admitted. b) Evaluate the probability so that there is no patient admitted in the first hour. Hint. Put - the arriving instant of the nnA th patient. n 1 n iA S ... S , S E(1/10).= + + : a) (minutes); 3E(A ) 3.10 30= = b) { } 6P P N(60) N(0) 2 e (1 6 18) 0,062−= − ≤ = + + ≈ 5.18. Suppose that {N(t)} is a Poisson process with a rate λ . Find with . 2E{[X(t) X(s)] }− t s> 85 Ans. 2 2(t s) (t s) .λ − + λ − 5.19. Prove that a Wiener process { }X(t) is a gaussian one. Hint: Set up an arbitrary linear combination. 5.20. Prove that a Wiener process { }X(t) is a MS-continuous one. 5.21. Prove that a Wiener process { }X(t) does’nt have MS-derivatives at any point (but has a generalized one, that is a white noise, see Problem 5.23). ot 5.22. Let {X(t)} be a Wiener process with a parameter . Put Find the mean function, the autocorrelation function and the autocovariance function of {Y(t)}. 2σ t 0 Y(t) X( )d .= α α∫ Hint. t s Y(t) Y(s) [X( ) - X(s)]d + (t - s)X(s) (0 s t)= + α α ≤ <∫ . 2 3 2 2 2 Y Y t 1[Y(t)] 0; (t) ; R (t,s) s (3t s), (t s 0) 3 6 σ= σ = = σ − > ≥Ans. E min(t,s)s 2 2 2 Y 0 0 C (t,s) u(t )d 1d min(t,s)= σ −β β = σ β = σ∫ ∫ . 5.23. Let {X(t)} be gaussian white noise. Put t 0 Y(t) X( )d .= α α∫ a) Find the autocorrelation function of {Y(t)}. b) Prove that {Y(t)} is a Wiener process. (So we can regard gaussian white noise as a generalized derivative of a Wiener process). Sol. According to (5.4.7), exist the integral with every positive t. (We can also prove the exist of the integral through a limit of integral sums). Using (5.4.10) we get t s s t 2 Y X 0 0 0 0 R (t,s) R ( , )d d [ ( )d ]d= α β α β = σ δ β −α α β∫ ∫ ∫ ∫ min(t,s)s 2 2 2 0 0 u(t )d 1d min(t,s)= σ −β β = σ β = σ∫ ∫ . b) Y(0) = 0; {Y(t)} is gaussian process and has zero mean because {X(t)} is gaussian and zero mean one; {Y(t)} has independent increments because white noise {X(t)} has independent increments. We see that the autocorrelation of {Y(t)} is equal to the autocorrelation function of the Wiener, and it is trivial to show that it is a process with stationary independent increments. Thus {Y(t)} is a Wiener process. 86
File đính kèm:
- bai_giang_xac_suat_thong_ke_va_qua_trinh_nhau_nhien_to_van_b.pdf