Xác định vị trí mắt người trong video bằng cách kết hợp dò tìm và theo viết
Tóm tắt Xác định vị trí mắt người trong video bằng cách kết hợp dò tìm và theo viết: ...háp sử dụng mạng nơ ron đa lớp: bộ dò tìm vị trí mắt người được huấn luyện thông qua mạng nơ ron có thể xác định được vị trí của mắt người trong các trường hợp mắt xoay, co dãn và có thể hoạt động tốt với các điều kiện ánh sáng môi trường thay đổi. Tuy nhiên, các phương pháp này chỉ huấn luyện vớ... khung hình tiếp theo. - N : số lượng particles xung quanh 2 điểm (x1, y1), (x2, y2). Trong thực nghiệm, chúng tôi tạo ra 300 particles ngẫu nhiên xung quanh vị trí mắt người để dự đoán vị trí các điểm tiếp theo. Do vùng mắt người trên ảnh là khá nhỏ, nên số lượng particles quá lớn sẽ dẫn đến nh... học và độ chính xác được đánh giá với tỉ lệ lỗi chuẩn hoá trong khoảng từ [0, 0.5]. Bảng 1. Thực nghiệm trên cơ sở dữ liệu TRECVID2009 và BOSTON Hình 4a thể hiện biểu đồ độ chính xác của hệ thống kết hợp đề xuất và độ chính xác của bộ dò tìm và bộ theo vết được sử dụng riêng lẻ với cơ sở dữ liệ...
a bộ dò tìm mắt người và bộ theo vết mắt người. 3.1. Dò tìm mắt người sử dụng kỹ thuật isophote Một trong những phương pháp dò tìm vị trí mắt người đạt được hiệu quả cao nhất hiện nay có thể kể đến là phương pháp sử dụng “isophote voting” [3]. Dựa trên đặc điểm về dạng hình học của mắt là các đường cong và đối xứng, phương pháp này tìm cách xác định các XÁC ĐỊNH VỊ TRÍ MẮT NGƯỜI TRONG VIDEO 177 Hình 2. Mô hình hệ thống kết hợp bộ dò tìm và bộ theo vết vùng có nhiều dạng đường cong đối xứng trong ảnh nhằm tìm được vùng biên của mắt. Sau đó, kĩ thuật bầu chọn (voting) có trọng số sẽ được áp dụng để tìm ra vị trí tâm mắt sao cho chính xác nhất. Trong phương pháp này, tác giả sử dụng một khái niệm là “isophote”. Đây chính là các đường cong kết nối các điểm ảnh có cùng độ sáng. Hình 3 minh họa cho các isophote của ảnh. Hình 3. Minh hoạ Isophote của ảnh mắt người. a) Ảnh nguyên bản; b) Các đường cong isophote tương ứng Nhờ các isophote này độc lập với các phép xoay và thay đổi tuyến tính của ánh sáng, phương pháp của Valenti đã thể hiện được nhiều ưu điểm trong quá trình xác định vị trí của mắt. Các thực nghiệm cũng đã cho thấy phương pháp này đạt hiệu năng khá cao ngay cả với các điều kiện ánh sáng khác nhau hay tư thế đầu người thay đổi ít. Với những ưu điểm trên, bộ dò tìm này sẽ được tích hợp vào hệ thống xác định vị trí mắt người. Và kết quả thực nghiệm sẽ chứng minh việc kết hợp với bộ theo vết, độ chính xác sẽ được nâng cao và có thể xác định tốt khi điều kiện ngoại cảnh thay đổi (hướng của khuôn mặt thay đổi nhiều, mắt nhắm,...) 3.2. Theo vết mắt người sử dụng particle filter framework Bộ theo vết mắt người được sử dụng là mô hình theo vết sử dụng particle filter kết hợp với biểu đồ đặc trưng màu do Perez và các cộng sự [14] đề xuất. Mỗi đối tượng được theo vết (mắt người) sẽ được biểu diễn bởi N particle, mỗi particle tại thời điểm t được mô tả bởi vector St = (xt, yt, st) với (xt, yt) là vị trí của particle (vị trí của mắt) và st là tỉ lệ (kích thước của mắt) của particle. Như vậy, trạng thái của mắt người được xác định như một dãy 178 CÁP PHẠM ĐÌNH THĂNG ccs. các trạng thái của particle như sau: Xt = {(Sit , piit)|i = 1..N} và pi là trọng số của particle, trong đó Σ(i = 1) Npiit = 1. Ý tưởng chính của mô hình particle filter là xấp xỉ xác xuất hậu nghiệm p(Xt, Zt) bởi một tập mẫu được gán trọng số. Trong đó Zt là trạng thái của mắt người được quan sát được tại thời điểm t. Và trọng số của mỗi particle được tính dựa trên khoảng cách Bhattacharyya giữa biểu đồ đặc trưng màu của particle tương ứng với biểu đồ đặc trưng màu mẫu được tính tại thời điểm khởi tạo. 3.3. Xác định vị trí mắt người bằng cách kết hợp bộ dò tìm và bộ theo vết mắt người Để có thể duy trì quá trình theo vết với độ chính xác cao, bộ theo vết mắt người cần phải đảm bảo trọng số của các particle được tính toán hợp lý. Nếu các trọng số của particle không được tính toán hợp lý sẽ làm cho hệ thống dễ dàng mất dấu của đối tượng và rất khó có thể phục hồi trong các khung hình tiếp theo. Do đó, trọng số của particle là một trong những yếu tố quan trọng nhất quyết định hiệu năng của bộ theo vết. Trong mô hình đề xuất, ngoài việc sử dụng bộ dò tìm để khởi tạo tự động cho bộ theo vết mắt người, kết quả của bộ dò tìm còn được tích hợp vào bước tính toán và cập nhật trọng số cho các particle trong các giai đoạn theo vết nhằm đảm bảo từng bước trong hệ thống được tính toán một cách hợp lý nhất và nhờ vậy nâng cao đáng kể độ chính xác của toàn bộ hệ thống.Mô hình đề xuất gồm có 4 bước xử lý chính như sau: (a) Khởi tạo. Nhằm tránh việc khởi tạo thủ công cho bộ theo vết, ngay tại thời điểm đầu tiên bộ dò tìm xác định vị trí của mắt người, các tham số cho bộ theo vết sẽ được khởi tạo. Các tham số này gồm có: - Biểu đồ đặc trưng màu tại tọa độ mắt trái và mắt phải (x1, y1), (x2, y2) có được từ bộ dò tìm. Biểu đồ màu này sẽ được dùng làm biểu đồ tham chiếu cho vùng mắt người ở các khung hình tiếp theo. - N : số lượng particles xung quanh 2 điểm (x1, y1), (x2, y2). Trong thực nghiệm, chúng tôi tạo ra 300 particles ngẫu nhiên xung quanh vị trí mắt người để dự đoán vị trí các điểm tiếp theo. Do vùng mắt người trên ảnh là khá nhỏ, nên số lượng particles quá lớn sẽ dẫn đến nhiều particles được sinh ra sẽ ra cách xa vị trí thực của mắt. Ngược lại nếu số lượng particles quá nhỏ sẽ không phủ hết được các vị trí cần thiết dùng cho dự đoán. (b) Dự đoán. Một mô hình chuyển động được áp dụng để ước lượng vị trí mới của n particle trong khung hình tiếp theo. Ta định nghĩa vector trạng thái như sau: St = (xt, yt, st) trong đó (xt, yt) là toạ độ vị trí mắt người và st là kích thước của mắt người tại thời điểm t. Cho lan truyền tập mẫu này và ước lượng sự chuyển động của mắt người thông qua một mô hình hồi qui động cấp 2 (a second order autoregressive dynamic model). Công thức chuyển động cụ thể như sau xt+1 = Axt +Bxt−1 + Cvt, vt ∼ N(0, σt) yt+1 = Ayt +Byt−1 + Cvt, vt ∼ N(0, σt) XÁC ĐỊNH VỊ TRÍ MẮT NGƯỜI TRONG VIDEO 179 st+1 = Ast +Bst−1 + Cvt, vt ∼ N(0, σt) trong đó ma trận A,B đại diện cho thành phần bất biến và ma trận C đại diện cho thành phần ngẫu nhiên và σtlà phương sai của phân phối chuẩn Gauss. Như vậy vt sẽ được tỉ lệ với một phân phối Gaussian như sau vt = 1√ 2piσ2t e−z 2 t /2σ 2 t (4) trong đó zt là giá trị phát sinh ngẫu nhiên trong [−1, 1]. Trong thực nghiệm các giá trị a[i, j], b[i, j], c[i, j] lần lượt là 2, -1, 1 để mô phỏng phương trình chuyển động không đều. (c) Cập nhật trọng số. Để tính toán trọng số wit cho mỗi particle của bộ theo vết, chúng tôi ước lượng một xác suất điều kiện được mô tả như sau wit ∝ p(yt|xit) (5) và được chuẩn hoá vào đoạn [0, 1] wit = wit ΣNi=1w i t . (6) Đây là bước quan trọng nhất trong việc cải tiến mô hình kết hợp đề ra, trong Mục 3.4 sẽ trình bày chi tiết về cách tính trọng số và cách kết hợp trọng số của bộ dò tìm và bộ theo vết. (d) Chọn lọc mẫu. Những particle nào có trọng số thấp sẽ bị loại bỏ và những particle có trọng số cao sẽ được giữ lại, tạo ra bộ mẫu tốt cho xác định vị trí mắt. Các bước 2, 3, 4 tiếp tục lặp lại cho đến khung hình cuối cùng của video. 3.4. Cập nhật trọng số tích hợp với thông tin từ bộ dò tìm mắt người Để gán trọng số cho tập mẫu chúng tôi tính hệ số Bhattacharyya giữa biểu đồ tham chiếu (reference histogram) và biểu đồ mục tiêu (target histogram). Sau đó sử dụng một phân phối xác suất Gauss cho hệ số Bhattacharyya này. Khoảng cách Bhattacharyya ngắn nhất thể hiện trọng số cao nhất. Cụ thể như sau piiB = 1√ 2piσ2B e−(d 2 B)/(2σ 2 B) (7) trong đó dB là khoảng cách Bhattacharyya giữa biểu đồ tham chiếu và biểu đồ của particle thứ i, piiB là trọng số chưa chuẩn hoá và σ 2 B là phương sai của phân phối chuẩn Gauss, trong thực nghiệm chọn bằng 10 để cho kết quả tối ưu. Tiếp theo, thông tin của bộ dò tìm mắt người được sử dụng ngay thời điểm này để kết hợp nó với thành phần Gauss Bhattacharyya. Trong trường hợp này ta tính phân phối chuẩn Gauss cho khoảng cách Euclidean của mỗi vị trí particle với vị trí cung cấp bởi bộ dò tìm mắt người, cụ thể như sau 180 CÁP PHẠM ĐÌNH THĂNG ccs. piiE = 1√ 2piσ2E e−(d 2 E)/(2σ 2 E) (8) trong đó dE là khoảng cách Euclidean giữa vị trí của mỗi particle và vị trí được cung cấp bởi bộ dò tìm mắt người, piiE là trọng số thu được từ tính toán của bộ dò tìm và σ 2 E là phương sai của phân phối chuẩn Gauss, trong thực nghiệm ta sử dụng phân phối chuẩn hoá σ2E = 1. Sau đó, các trọng số này cũng được chuẩn hoá vào đoạn [0,1] wi = pii ΣNi=1pii (9) trong đó pii là trọng số thu được từ bộ dò tìm hoặc bộ theo vết. Và cuối cùng thông tin của bộ dò tìm và bộ theo vết được kết hợp như sau wi =∝ ∗wiB + (1− ∝) ∗ wiE trong đó ∝ là trọng số kết hợp của bộ theo vết và bộ dò tìm. ∝ được gán gần bằng 1 cho video có nhiều chuyển động của khuôn mặt, ngược lại ∝ gán gần 0 cho trường hợp sử dụng độ chính xác của bộ dò tìm và ít chuyển động của mặt người. Trong bài báo này, việc sử dụng kết hợp trực tiếp hai trọng số mang tính tổng quát và đảm bảo cho chi phí tính toán thấp do đó có thể đáp ứng được cho các hệ thống thực thi thời gian thực. Hơn nữa, kết quả thực nghiệm ở Mục 4.2 chứng minh được hiệu quả của mô hình đề xuất so với các phương pháp nhận dạng và theo vết riêng lẻ. 4. THỰC NGHIỆM 4.1. Cơ sở dữ liệu và đánh giá Tiến hành thực nghiệm trên một video được chọn ngẫu nhiên từ cơ sở dữ liệu TRECVID 2009. Các khuôn mặt người trong video xuất hiện với các hướng nhìn khác nhau, kích cỡ khác nhau, nhiều thay đổi biểu hiện trên khuôn mặt khác nhau và với môi trường hậu cảnh khác nhau. Cơ sở dữ liệu của đại học Boston bao gồm 45 video của 5 người thực hiện 9 động tác thay đổi tư thế đầu người trong điều kiện ánh sáng phòng thí nghiệm. Cơ sở dữ liệu này có mặt người và đầu người luôn xuất hiện trừ những trường hợp đặc biệt do cá nhân đối tượng tự mình làm che khuất một phần. Ngoài ra, còn thực nghiệm trên video thu từ đài truyền hình Việt Nam. Mỗi video gồm khoảng 1000 khung hình chứa ảnh mặt người với các động tác và tư thế của đầu người khác nhau. Để đánh giá độ chính xác chúng tôi sử dụng độ đo cho vị trí mắt người được công bố bởi Jesorsky và các cộng sự [15], độ đo này đã được sử dụng trong nhiều công trình đã công bố [3, 11]. Công thức đo lường tỉ lệ lỗi chuẩn hoá (normalize error) như sau e = max(dleft, dright) d (11) XÁC ĐỊNH VỊ TRÍ MẮT NGƯỜI TRONG VIDEO 181 trong đó dleft và dright là khoảng cách Euclidean giữa vị trí mắt người được xác định bởi mô hình và vị trí của chính mắt người đó trong bảng xác thực dữ liệu (ground truth), d là khoảng cách giữa mắt trái và mắt phải trong bản xác thực cơ sở dữ liệu. Trong phần kết hợp giữa bộ dò tìm và bộ theo vết, tham số ∝ là trọng số kết hợp. Do vậy trước khi đánh giá kết quả của toàn bộ hệ thống thì ta thực nghiệm đánh giá độ ảnh hưởng của trọng số kết hợp này khi thay đổi giá trị của nó. Hình 4c cho thấy kết quả của hệ thống khi trọng số ∝ thay đổi với cơ sở dữ liệu của đại học Boston. Kết quả này cho thấy trong tất cả các trường hợp độ chính xác của hệ thống gần như là tương đương nhau. Do đó trong thực nghiệm, chúng tôi chọn ∝=0.5 cho cân bằng giữa bộ dò tìm và bộ theo vết. Bảng 1 thể hiện kết quả của hệ thống của chúng tôi trên cơ sở dữ liệu TRECVID 2009, Boston và VTV. Thông số kích thước của vùng mắt được tính dựa vào nhân trắc học và độ chính xác được đánh giá với tỉ lệ lỗi chuẩn hoá trong khoảng từ [0, 0.5]. Bảng 1. Thực nghiệm trên cơ sở dữ liệu TRECVID2009 và BOSTON Hình 4a thể hiện biểu đồ độ chính xác của hệ thống kết hợp đề xuất và độ chính xác của bộ dò tìm và bộ theo vết được sử dụng riêng lẻ với cơ sở dữ liệu TRECVID. Từ kết quả cho thấy rằng, khi bộ theo vết (tracker) bị lỗi hay hội tụ cục bộ thì trọng số của các particle gần vị trí mà bộ dò tìm (detector) trả về sẽ lớn hơn các particle ở xa, do đó giảm thiểu được lỗi của bộ theo vết và tăng độ chính xác của bộ theo vết. Chính vì vậy khi so sánh giữa hệ thống kết hợp đề xuất (detector + tracker) và bộ theo vết (tracker) sử dụng riêng lẻ, độ chính xác ở e < 0.1 tăng 17% và ở e < 0.5 tăng 12%. Ngược lại, nếu bộ dò tìm (detector) bị lỗi thì bộ theo vết vẫn có thể ước lượng được vị trí của mắt người trong những khung hình tiếp theo. Kết quả so sánh độ chính xác của hệ thống đề xuất và bộ dò tìm riêng lẻ (detector) ở e < 0.25 tăng 2% và ở e < 0.5 tăng 3%. Đối với cơ sở dữ liệu của đại học Boston, các thông số thử nghiệm đánh giá giống với các thông số sử dụng đánh giá trên cơ sở dữ liệu Trecvid. Kết quả thử nghiệm đánh giá trình bày ở Bảng 1 và biểu đồ 4b, kết quả cũng cho thấy rằng khi sử dụng kết hợp cả bộ dò tìm và bộ theo vết thì độ chính xác của cả hệ thống tăng lên đáng kể so với việc chỉ sử dụng riêng lẻ. Ngoài ra, với kết quả thực nghiệm trên video thu được từ VTV đài truyền hình Việt Nam cũng cho thấy được kết quả ổn định của hệ thống kết hợp đề xuất. Hình 5 thể hiện kết quả của hệ thống kết hợp trên cơ sở dữ liệu của đại học Boston với các trường hợp khác nhau như mặt người có đeo kính, ánh sáng môi trường thay đổi và các tư thế của đầu người thay đổi (ngước lên, ngước xuống, quay trái, phải). 182 CÁP PHẠM ĐÌNH THĂNG ccs. (a) (b) (c) Hình 4. (a) Kết quả thực nghiệm trên cơ sở dữ liệu TRECVID 2009; (b) Kết quả thực nghiệm trên cơ sở dữ liệu của Đại Học Boston; (c) Kết quả về ảnh hưởng của trọng số kết hợp khi thay đổi giá trị Hình 5. Kết quả thực nghiệm trên cơ sở dữ liệu của đại học Boston với các trường hợp khác nhau (a) (b) (c) Hình 6. Kết quả so sánh: a) Hệ thống kết hợp, b) bộ dò tìm, c) bộ theo vết Thực nghiệm ở Hình 6 so sánh kết quả của hệ thống kết hợp bộ theo vết và bộ dò tìm so với kết quả của bộ dò tìm và bộ theo vết riêng lẻ. Khung hình thứ 155 được trích từ video của cơ sở dữ liệu Boston. Trong trường hợp này, đầu người trong tư thế nghiêng sang phải và bộ dò tìm bị lỗi do không dò tìm được mặt người trong khung hình (Hình 6b), trong khi đó bộ theo vết và hệ thống kết hợp vẫn xác định được vị trí của mắt người. Mặt khác khi so sánh giữa bộ theo vết và hệ thống kết hợp thì kết quả thu được từ hệ thống kết hợp chính xác hơn do hệ thống kết hợp đã giảm được tỉ lệ lỗi từ các bước trước đó nhờ kết quả của bộ dò tìm. Một trường hợp khác, ở thí nghiệm như Hình 7: tại khung hình 31 hệ thống bị lỗi nhưng nhờ bộ dò tìm (khung hình 53) giúp cho bộ theo vết giảm lỗi tích luỹ và cho kết quả chính xác hơn (khung hình 54, 55). Thực nghiệm tích hợp vị trí mắt người vào hệ thống chuẩn hoá và nhận dạng ảnh mặt người Chuẩn hoá ảnh mặt người là một giai đoạn đầu tiên và quan trọng trong hệ thống nhận dạng mặt người. Việc xác định tự động vị trí mắt sẽ giúp cho hệ thống nhận dạng mặt người không chỉ giảm thiểu chi phí và thời gian mà còn nâng cao độ chính xác cho hệ thống. Bước XÁC ĐỊNH VỊ TRÍ MẮT NGƯỜI TRONG VIDEO 183 Hình 7. Bộ dò tìm giúp cho bộ theo vết giảm thiểu lỗi tích luỹ đầu tiên, bộ dò tìm mặt người sẽ xác định vùng chứa mặt người. Sau đó khoản cách giữa hai vị trí trung tâm của mắt trái và phải sẽ là đầu vào quan trọng cho công đoạn chuẩn hoá ảnh mặt người. Trong phần thực nghiệm này sẽ tích hợp kết quả xác định vị trí của mắt người vào hệ thống chuẩn hoá và nhận dạng mặt người của trường đại học Colorado State của Hoa Kỳ. Trong đó, các trường hợp ảnh mặt người với tư thế đầu nhìn nghiêng và xoay được chuẩn hoá lại. Hình 8 là ví dụ về các trường hợp sử dụng vị trí mắt người để chuẩn hoá ảnh mặt người dạng nhìn nghiêng và trong tư thế xoay. Và kết quả là các ảnh mặt người sẽ được chuẩn hoá thành dạng nhìn thẳng dựa vào khoảng cách hai mắt. Hình 8. Kết quả sử dụng vị trí mắt người trong chuẩn hoá ảnh mặt người Đối với việc nhận dạng mặt người, cũng tiến hành thực nghiệm trên cơ sở dữ liệu Boston. Số ảnh mặt người của cơ sở dữ liệu Boston là 8955 ảnh của 5 người khác nhau. Thực nghiệm trên 2 trường hợp: có sử dụng vị trí mắt người và không sử dụng. Khi không sử dụng vị trí mắt người thu được 8158 ảnh mặt người cho kết quả đúng. Và khi sử dụng vị trí mắt thì kết quả là 8591 ảnh đúng. Đối với cơ sở dữ liệu Boston nhờ kết quả của vị trí mắt được tích hợp nên đã giúp cho hệ thống nhận dạng được những khuôn mặt trong tư thế nhìn nghiêng và xoay (những trường hợp này bộ dò tìm mặt người bị lỗi) nhờ đó nâng cao độ chính xác của toàn hệ thống. Hơn nữa, việc xác định vị trí mắt tự động giúp cho giảm thiểu nhiều thời gian và chi phí cho việc gán nhãn mắt cho công đoạn chuẩn hoá ảnh mặt người. 184 CÁP PHẠM ĐÌNH THĂNG ccs. 5. KẾT LUẬN Bài báo đã đề xuất một phương pháp xác định vị trí mắt người dựa trên việc kết hợp một bộ theo vết mắt người sử dụng particle filter với một bộ dò tìm mắt người. Qua đó cho thấy những lợi thế của việc sử dụng các thông tin về thời gian và chuyển động của video. Cả bộ dò tìm và bộ theo vết sử dụng particle filter đều cho thấy hiệu quả của nó trong việc kết hợp để tăng độ chính xác của cả hệ thống. Thực nghiệm cho thấy được ưu thế của việc kết hợp này đối với các trường hợp tư thế đầu người thay đổi, mắt nhắm hoặc mắt người bị che khuất một phần. Kết quả thực nghiệm cũng cho thấy độ chính xác của hệ thống kết hợp tăng từ 3% ± 5% so với bộ dò tìm riêng lẻ và tăng từ 12% ± 17% so với bộ theo vết riêng lẻ trên cả cơ sở dữ liệu TRECVID 2009 và đại học Boston. Ngoài ra thực nghiệm còn cho thấy kết quả của vị trí mắt còn đạt được nhiều lợi thế khi được tích hợp vào trong hệ thống chuẩn hoá và nhận dạng ảnh mặt người. TÀI LIỆU THAM KHẢO [1] P. Campadelli, R. Lanzarotti, and G. Lipori, Eye localization: a survey, The Fundamentals of Verbal and Non-verbal Communication and the Biometrical Issue, NATO Science Series, 2007. [2] W. Peng, MB. Green, J. Qiang, J. Wayman, Automatic eye detection and its validation, Proc. 2005 IEEE CS Conf. Computer Vision and Pattern Recognition 3 (2005) 164–164. [3] R. Valenti and T. Gevers, Accurate eye center location and tracking using isophote curvature, Proc. 2008 IEEE CS Conf. Computer Vision and Pattern Recognition 0 (2008) 1–8. [4] L. Bai, L. Shen, and Y. Wang, A novel eye location algorithm based on radial symmetry trans- form, International Conf. on Pattern Recognition 3 (2006) 511—514. [5] A. L. Yuille, P. W. Hallinan, and D. S. Cohen, Feature extraction from faces using deformable templates, International Journal of Computer Vision 8 (2) (1992) 99–111. [6] S. Asteriadis, N. Nikolaidis, A. Hajdu, and I. Pitas, An eye detec-tion algorithm using pixel to edge information, IEEE CS Conf. on Control, Communications, and Signal Processing 2 (2006) 1–4. [7] P. Campadelli, R. Lanzarotti, and G. Lipori, Precise eye and mouth lo-calization, International Journal of Pattern Recognition and Artificial Intelligencece 23 (3) (2009) 359–379. [8] C. Garcia and M. Delakis, Convolutional face finder: A neural architecture for fast and robust face detection, IEEE Transactions on Pattern Analysis and Machine Intelligence 26 (11) (2004) 1408–1423. [9] X. Tang, Z. Ou, T. Su, H. Sun, and P. Zhao, Robust precise eye location by adaBoost and SVM techniques, Advances in Neural Networks 3497 (2) (2005) 93—98. [10] J. Huang and H. Wechsler, Eye detection using optimal wavelet packets and radial basis functions, Journal of Pattern Recognition and Artificial Intelligence 13 (7) (1999) 1009–1026. [11] F. Yang, J. Huang, P. Yang, D. Metaxas, Eye localization through multiscale sparse dictionaries, IEEE Conf. on Automatic Face and Gesture Recognition 9 (0) (2011) 514–518. [12] K. Grauman, M. Betke, J. Gips and G. R. Bradski, Communication via eye blinks detection and duration analysis in real time, Proc. 2008 IEEE CS Conf.Computer Vision and Pattern Recognition 1 (0) (2001) 1010–1017. XÁC ĐỊNH VỊ TRÍ MẮT NGƯỜI TRONG VIDEO 185 [13] Wu Junwen and Trivedi Mohan M., An eye localization, tracking and blink pattern recognition system: Algorithm and evaluation, ACM Transactions on Multimedia Computing, Commu- nications, and Applications 6 (2) (2010). [14] Prez Patrick, Hue Carine, Vermaak Jaco, and Gangnet Michel, Color-based probabilistic track- ing, European Conference on Computer Vision 1 (3) (2002) 661–675. [15] J. Oliver, K. J. Kirchberg, and F. Robert, Robust face detection using the hausdorff distance, International Conf. on Audio- and Video-Based Biometric Person Authentication 2091 (2) (2001) 90–95. [16] A. T. Duchowski, Eye Tracking Methodology: Theory and Practice, Springer, 2007. [17] Z. Zhu and Q. Ji, Robust real-time eye detection and tracking under variable lighting conditions and various face orientations, Journal of Computer Vision and Image Understanding 98 (1) (2005) 124–154. [18] c. Morimoto, D. Koons, A. Amir, and Flickner, Pupil detection and tracking using multiple light sources, Journal of Image and Vision Computing 18 (4) (2000) 331–335. [19] K. Lam and H. Yan, Locating and extracting the eye in human face images, Journal of Pattern Recognition 29 (5) (1996) 771—779. Ngày nhận bài 10 - 1 - 2013 Nhận lại sau sửa ngày 04 - 6 - 2013
File đính kèm:
- xac_dinh_vi_tri_mat_nguoi_trong_video_bang_cach_ket_hop_do_t.pdf