Xác định vị trí mắt người trong video bằng cách kết hợp dò tìm và theo viết

Tóm tắt Xác định vị trí mắt người trong video bằng cách kết hợp dò tìm và theo viết: ...háp sử dụng mạng nơ ron đa lớp: bộ dò tìm vị trí mắt người được huấn luyện thông qua mạng nơ ron có thể xác định được vị trí của mắt người trong các trường hợp mắt xoay, co dãn và có thể hoạt động tốt với các điều kiện ánh sáng môi trường thay đổi. Tuy nhiên, các phương pháp này chỉ huấn luyện vớ... khung hình tiếp theo. - N : số lượng particles xung quanh 2 điểm (x1, y1), (x2, y2). Trong thực nghiệm, chúng tôi tạo ra 300 particles ngẫu nhiên xung quanh vị trí mắt người để dự đoán vị trí các điểm tiếp theo. Do vùng mắt người trên ảnh là khá nhỏ, nên số lượng particles quá lớn sẽ dẫn đến nh... học và độ chính xác được đánh giá với tỉ lệ lỗi chuẩn hoá trong khoảng từ [0, 0.5]. Bảng 1. Thực nghiệm trên cơ sở dữ liệu TRECVID2009 và BOSTON Hình 4a thể hiện biểu đồ độ chính xác của hệ thống kết hợp đề xuất và độ chính xác của bộ dò tìm và bộ theo vết được sử dụng riêng lẻ với cơ sở dữ liệ...

pdf13 trang | Chia sẻ: havih72 | Lượt xem: 305 | Lượt tải: 0download
Nội dung tài liệu Xác định vị trí mắt người trong video bằng cách kết hợp dò tìm và theo viết, để tải tài liệu về máy bạn click vào nút DOWNLOAD ở trên
a bộ dò tìm mắt người
và bộ theo vết mắt người.
3.1. Dò tìm mắt người sử dụng kỹ thuật isophote
Một trong những phương pháp dò tìm vị trí mắt người đạt được hiệu quả cao nhất hiện
nay có thể kể đến là phương pháp sử dụng “isophote voting” [3]. Dựa trên đặc điểm về dạng
hình học của mắt là các đường cong và đối xứng, phương pháp này tìm cách xác định các
XÁC ĐỊNH VỊ TRÍ MẮT NGƯỜI TRONG VIDEO 177
Hình 2. Mô hình hệ thống kết hợp bộ dò tìm và bộ theo vết
vùng có nhiều dạng đường cong đối xứng trong ảnh nhằm tìm được vùng biên của mắt. Sau
đó, kĩ thuật bầu chọn (voting) có trọng số sẽ được áp dụng để tìm ra vị trí tâm mắt sao cho
chính xác nhất.
Trong phương pháp này, tác giả sử dụng một khái niệm là “isophote”. Đây chính là các
đường cong kết nối các điểm ảnh có cùng độ sáng. Hình 3 minh họa cho các isophote của ảnh.
Hình 3. Minh hoạ Isophote của ảnh mắt người. a) Ảnh nguyên bản; b) Các đường cong
isophote tương ứng
Nhờ các isophote này độc lập với các phép xoay và thay đổi tuyến tính của ánh sáng,
phương pháp của Valenti đã thể hiện được nhiều ưu điểm trong quá trình xác định vị trí của
mắt. Các thực nghiệm cũng đã cho thấy phương pháp này đạt hiệu năng khá cao ngay cả với
các điều kiện ánh sáng khác nhau hay tư thế đầu người thay đổi ít.
Với những ưu điểm trên, bộ dò tìm này sẽ được tích hợp vào hệ thống xác định vị trí mắt
người. Và kết quả thực nghiệm sẽ chứng minh việc kết hợp với bộ theo vết, độ chính xác sẽ
được nâng cao và có thể xác định tốt khi điều kiện ngoại cảnh thay đổi (hướng của khuôn
mặt thay đổi nhiều, mắt nhắm,...)
3.2. Theo vết mắt người sử dụng particle filter framework
Bộ theo vết mắt người được sử dụng là mô hình theo vết sử dụng particle filter kết hợp
với biểu đồ đặc trưng màu do Perez và các cộng sự [14] đề xuất. Mỗi đối tượng được theo
vết (mắt người) sẽ được biểu diễn bởi N particle, mỗi particle tại thời điểm t được mô tả
bởi vector St = (xt, yt, st) với (xt, yt) là vị trí của particle (vị trí của mắt) và st là tỉ lệ (kích
thước của mắt) của particle. Như vậy, trạng thái của mắt người được xác định như một dãy
178 CÁP PHẠM ĐÌNH THĂNG ccs.
các trạng thái của particle như sau: Xt = {(Sit , piit)|i = 1..N} và pi là trọng số của particle,
trong đó Σ(i = 1)
Npiit = 1.
Ý tưởng chính của mô hình particle filter là xấp xỉ xác xuất hậu nghiệm p(Xt, Zt) bởi một
tập mẫu được gán trọng số. Trong đó Zt là trạng thái của mắt người được quan sát được tại
thời điểm t. Và trọng số của mỗi particle được tính dựa trên khoảng cách Bhattacharyya giữa
biểu đồ đặc trưng màu của particle tương ứng với biểu đồ đặc trưng màu mẫu được tính tại
thời điểm khởi tạo.
3.3. Xác định vị trí mắt người bằng cách kết hợp bộ dò tìm và bộ theo vết mắt
người
Để có thể duy trì quá trình theo vết với độ chính xác cao, bộ theo vết mắt người cần phải
đảm bảo trọng số của các particle được tính toán hợp lý. Nếu các trọng số của particle không
được tính toán hợp lý sẽ làm cho hệ thống dễ dàng mất dấu của đối tượng và rất khó có thể
phục hồi trong các khung hình tiếp theo. Do đó, trọng số của particle là một trong những yếu
tố quan trọng nhất quyết định hiệu năng của bộ theo vết.
Trong mô hình đề xuất, ngoài việc sử dụng bộ dò tìm để khởi tạo tự động cho bộ theo vết
mắt người, kết quả của bộ dò tìm còn được tích hợp vào bước tính toán và cập nhật trọng số
cho các particle trong các giai đoạn theo vết nhằm đảm bảo từng bước trong hệ thống được
tính toán một cách hợp lý nhất và nhờ vậy nâng cao đáng kể độ chính xác của toàn bộ hệ
thống.Mô hình đề xuất gồm có 4 bước xử lý chính như sau:
(a) Khởi tạo. Nhằm tránh việc khởi tạo thủ công cho bộ theo vết, ngay tại thời điểm đầu tiên
bộ dò tìm xác định vị trí của mắt người, các tham số cho bộ theo vết sẽ được khởi tạo. Các
tham số này gồm có:
- Biểu đồ đặc trưng màu tại tọa độ mắt trái và mắt phải (x1, y1), (x2, y2) có được từ bộ
dò tìm. Biểu đồ màu này sẽ được dùng làm biểu đồ tham chiếu cho vùng mắt người ở các
khung hình tiếp theo.
- N : số lượng particles xung quanh 2 điểm (x1, y1), (x2, y2). Trong thực nghiệm, chúng tôi
tạo ra 300 particles ngẫu nhiên xung quanh vị trí mắt người để dự đoán vị trí các điểm tiếp
theo. Do vùng mắt người trên ảnh là khá nhỏ, nên số lượng particles quá lớn sẽ dẫn đến nhiều
particles được sinh ra sẽ ra cách xa vị trí thực của mắt. Ngược lại nếu số lượng particles quá
nhỏ sẽ không phủ hết được các vị trí cần thiết dùng cho dự đoán.
(b) Dự đoán. Một mô hình chuyển động được áp dụng để ước lượng vị trí mới của n particle
trong khung hình tiếp theo. Ta định nghĩa vector trạng thái như sau: St = (xt, yt, st) trong
đó (xt, yt) là toạ độ vị trí mắt người và st là kích thước của mắt người tại thời điểm t. Cho
lan truyền tập mẫu này và ước lượng sự chuyển động của mắt người thông qua một mô hình
hồi qui động cấp 2 (a second order autoregressive dynamic model). Công thức chuyển động
cụ thể như sau
xt+1 = Axt +Bxt−1 + Cvt, vt ∼ N(0, σt)
yt+1 = Ayt +Byt−1 + Cvt, vt ∼ N(0, σt)
XÁC ĐỊNH VỊ TRÍ MẮT NGƯỜI TRONG VIDEO 179
st+1 = Ast +Bst−1 + Cvt, vt ∼ N(0, σt)
trong đó ma trận A,B đại diện cho thành phần bất biến và ma trận C đại diện cho thành
phần ngẫu nhiên và σtlà phương sai của phân phối chuẩn Gauss. Như vậy vt sẽ được tỉ lệ với
một phân phối Gaussian như sau
vt =
1√
2piσ2t
e−z
2
t /2σ
2
t (4)
trong đó zt là giá trị phát sinh ngẫu nhiên trong [−1, 1].
Trong thực nghiệm các giá trị a[i, j], b[i, j], c[i, j] lần lượt là 2, -1, 1 để mô phỏng phương
trình chuyển động không đều.
(c) Cập nhật trọng số. Để tính toán trọng số wit cho mỗi particle của bộ theo vết, chúng tôi
ước lượng một xác suất điều kiện được mô tả như sau
wit ∝ p(yt|xit) (5)
và được chuẩn hoá vào đoạn [0, 1]
wit =
wit
ΣNi=1w
i
t
. (6)
Đây là bước quan trọng nhất trong việc cải tiến mô hình kết hợp đề ra, trong Mục 3.4 sẽ
trình bày chi tiết về cách tính trọng số và cách kết hợp trọng số của bộ dò tìm và bộ theo vết.
(d) Chọn lọc mẫu. Những particle nào có trọng số thấp sẽ bị loại bỏ và những particle có
trọng số cao sẽ được giữ lại, tạo ra bộ mẫu tốt cho xác định vị trí mắt.
Các bước 2, 3, 4 tiếp tục lặp lại cho đến khung hình cuối cùng của video.
3.4. Cập nhật trọng số tích hợp với thông tin từ bộ dò tìm mắt người
Để gán trọng số cho tập mẫu chúng tôi tính hệ số Bhattacharyya giữa biểu đồ tham chiếu
(reference histogram) và biểu đồ mục tiêu (target histogram). Sau đó sử dụng một phân phối
xác suất Gauss cho hệ số Bhattacharyya này. Khoảng cách Bhattacharyya ngắn nhất thể hiện
trọng số cao nhất. Cụ thể như sau
piiB =
1√
2piσ2B
e−(d
2
B)/(2σ
2
B) (7)
trong đó dB là khoảng cách Bhattacharyya giữa biểu đồ tham chiếu và biểu đồ của particle
thứ i, piiB là trọng số chưa chuẩn hoá và σ
2
B là phương sai của phân phối chuẩn Gauss, trong
thực nghiệm chọn bằng 10 để cho kết quả tối ưu.
Tiếp theo, thông tin của bộ dò tìm mắt người được sử dụng ngay thời điểm này để kết
hợp nó với thành phần Gauss Bhattacharyya. Trong trường hợp này ta tính phân phối chuẩn
Gauss cho khoảng cách Euclidean của mỗi vị trí particle với vị trí cung cấp bởi bộ dò tìm mắt
người, cụ thể như sau
180 CÁP PHẠM ĐÌNH THĂNG ccs.
piiE =
1√
2piσ2E
e−(d
2
E)/(2σ
2
E) (8)
trong đó dE là khoảng cách Euclidean giữa vị trí của mỗi particle và vị trí được cung cấp bởi
bộ dò tìm mắt người, piiE là trọng số thu được từ tính toán của bộ dò tìm và σ
2
E là phương
sai của phân phối chuẩn Gauss, trong thực nghiệm ta sử dụng phân phối chuẩn hoá σ2E = 1.
Sau đó, các trọng số này cũng được chuẩn hoá vào đoạn [0,1]
wi =
pii
ΣNi=1pii
(9)
trong đó pii là trọng số thu được từ bộ dò tìm hoặc bộ theo vết.
Và cuối cùng thông tin của bộ dò tìm và bộ theo vết được kết hợp như sau
wi =∝ ∗wiB + (1− ∝) ∗ wiE
trong đó ∝ là trọng số kết hợp của bộ theo vết và bộ dò tìm. ∝ được gán gần bằng 1 cho
video có nhiều chuyển động của khuôn mặt, ngược lại ∝ gán gần 0 cho trường hợp sử dụng
độ chính xác của bộ dò tìm và ít chuyển động của mặt người. Trong bài báo này, việc sử dụng
kết hợp trực tiếp hai trọng số mang tính tổng quát và đảm bảo cho chi phí tính toán thấp
do đó có thể đáp ứng được cho các hệ thống thực thi thời gian thực. Hơn nữa, kết quả thực
nghiệm ở Mục 4.2 chứng minh được hiệu quả của mô hình đề xuất so với các phương pháp
nhận dạng và theo vết riêng lẻ.
4. THỰC NGHIỆM
4.1. Cơ sở dữ liệu và đánh giá
Tiến hành thực nghiệm trên một video được chọn ngẫu nhiên từ cơ sở dữ liệu TRECVID
2009. Các khuôn mặt người trong video xuất hiện với các hướng nhìn khác nhau, kích cỡ khác
nhau, nhiều thay đổi biểu hiện trên khuôn mặt khác nhau và với môi trường hậu cảnh khác
nhau.
Cơ sở dữ liệu của đại học Boston bao gồm 45 video của 5 người thực hiện 9 động tác thay
đổi tư thế đầu người trong điều kiện ánh sáng phòng thí nghiệm. Cơ sở dữ liệu này có mặt
người và đầu người luôn xuất hiện trừ những trường hợp đặc biệt do cá nhân đối tượng tự
mình làm che khuất một phần.
Ngoài ra, còn thực nghiệm trên video thu từ đài truyền hình Việt Nam. Mỗi video gồm
khoảng 1000 khung hình chứa ảnh mặt người với các động tác và tư thế của đầu người khác
nhau.
Để đánh giá độ chính xác chúng tôi sử dụng độ đo cho vị trí mắt người được công bố bởi
Jesorsky và các cộng sự [15], độ đo này đã được sử dụng trong nhiều công trình đã công bố
[3, 11]. Công thức đo lường tỉ lệ lỗi chuẩn hoá (normalize error) như sau
e =
max(dleft, dright)
d
(11)
XÁC ĐỊNH VỊ TRÍ MẮT NGƯỜI TRONG VIDEO 181
trong đó dleft và dright là khoảng cách Euclidean giữa vị trí mắt người được xác định bởi mô
hình và vị trí của chính mắt người đó trong bảng xác thực dữ liệu (ground truth), d là khoảng
cách giữa mắt trái và mắt phải trong bản xác thực cơ sở dữ liệu.
Trong phần kết hợp giữa bộ dò tìm và bộ theo vết, tham số ∝ là trọng số kết hợp. Do vậy
trước khi đánh giá kết quả của toàn bộ hệ thống thì ta thực nghiệm đánh giá độ ảnh hưởng
của trọng số kết hợp này khi thay đổi giá trị của nó. Hình 4c cho thấy kết quả của hệ thống
khi trọng số ∝ thay đổi với cơ sở dữ liệu của đại học Boston. Kết quả này cho thấy trong
tất cả các trường hợp độ chính xác của hệ thống gần như là tương đương nhau. Do đó trong
thực nghiệm, chúng tôi chọn ∝=0.5 cho cân bằng giữa bộ dò tìm và bộ theo vết. Bảng 1 thể
hiện kết quả của hệ thống của chúng tôi trên cơ sở dữ liệu TRECVID 2009, Boston và VTV.
Thông số kích thước của vùng mắt được tính dựa vào nhân trắc học và độ chính xác được
đánh giá với tỉ lệ lỗi chuẩn hoá trong khoảng từ [0, 0.5].
Bảng 1. Thực nghiệm trên cơ sở dữ liệu TRECVID2009 và BOSTON
Hình 4a thể hiện biểu đồ độ chính xác của hệ thống kết hợp đề xuất và độ chính xác của
bộ dò tìm và bộ theo vết được sử dụng riêng lẻ với cơ sở dữ liệu TRECVID. Từ kết quả cho
thấy rằng, khi bộ theo vết (tracker) bị lỗi hay hội tụ cục bộ thì trọng số của các particle gần
vị trí mà bộ dò tìm (detector) trả về sẽ lớn hơn các particle ở xa, do đó giảm thiểu được lỗi
của bộ theo vết và tăng độ chính xác của bộ theo vết. Chính vì vậy khi so sánh giữa hệ thống
kết hợp đề xuất (detector + tracker) và bộ theo vết (tracker) sử dụng riêng lẻ, độ chính xác
ở e < 0.1 tăng 17% và ở e < 0.5 tăng 12%. Ngược lại, nếu bộ dò tìm (detector) bị lỗi thì bộ
theo vết vẫn có thể ước lượng được vị trí của mắt người trong những khung hình tiếp theo.
Kết quả so sánh độ chính xác của hệ thống đề xuất và bộ dò tìm riêng lẻ (detector) ở e < 0.25
tăng 2% và ở e < 0.5 tăng 3%.
Đối với cơ sở dữ liệu của đại học Boston, các thông số thử nghiệm đánh giá giống với các
thông số sử dụng đánh giá trên cơ sở dữ liệu Trecvid. Kết quả thử nghiệm đánh giá trình bày
ở Bảng 1 và biểu đồ 4b, kết quả cũng cho thấy rằng khi sử dụng kết hợp cả bộ dò tìm và bộ
theo vết thì độ chính xác của cả hệ thống tăng lên đáng kể so với việc chỉ sử dụng riêng lẻ.
Ngoài ra, với kết quả thực nghiệm trên video thu được từ VTV đài truyền hình Việt Nam
cũng cho thấy được kết quả ổn định của hệ thống kết hợp đề xuất.
Hình 5 thể hiện kết quả của hệ thống kết hợp trên cơ sở dữ liệu của đại học Boston với
các trường hợp khác nhau như mặt người có đeo kính, ánh sáng môi trường thay đổi và các
tư thế của đầu người thay đổi (ngước lên, ngước xuống, quay trái, phải).
182 CÁP PHẠM ĐÌNH THĂNG ccs.
(a) (b) (c)
Hình 4. (a) Kết quả thực nghiệm trên cơ sở dữ liệu TRECVID 2009; (b) Kết quả thực
nghiệm trên cơ sở dữ liệu của Đại Học Boston; (c) Kết quả về ảnh hưởng của trọng số kết
hợp khi thay đổi giá trị
Hình 5. Kết quả thực nghiệm trên cơ sở dữ liệu của đại học Boston với các trường hợp
khác nhau
(a) (b) (c)
Hình 6. Kết quả so sánh: a) Hệ thống kết hợp, b) bộ dò tìm, c) bộ theo vết
Thực nghiệm ở Hình 6 so sánh kết quả của hệ thống kết hợp bộ theo vết và bộ dò tìm so
với kết quả của bộ dò tìm và bộ theo vết riêng lẻ. Khung hình thứ 155 được trích từ video của
cơ sở dữ liệu Boston. Trong trường hợp này, đầu người trong tư thế nghiêng sang phải và bộ
dò tìm bị lỗi do không dò tìm được mặt người trong khung hình (Hình 6b), trong khi đó bộ
theo vết và hệ thống kết hợp vẫn xác định được vị trí của mắt người. Mặt khác khi so sánh
giữa bộ theo vết và hệ thống kết hợp thì kết quả thu được từ hệ thống kết hợp chính xác hơn
do hệ thống kết hợp đã giảm được tỉ lệ lỗi từ các bước trước đó nhờ kết quả của bộ dò tìm.
Một trường hợp khác, ở thí nghiệm như Hình 7: tại khung hình 31 hệ thống bị lỗi nhưng nhờ
bộ dò tìm (khung hình 53) giúp cho bộ theo vết giảm lỗi tích luỹ và cho kết quả chính xác
hơn (khung hình 54, 55).
Thực nghiệm tích hợp vị trí mắt người vào hệ thống chuẩn hoá và nhận dạng ảnh mặt
người Chuẩn hoá ảnh mặt người là một giai đoạn đầu tiên và quan trọng trong hệ thống nhận
dạng mặt người. Việc xác định tự động vị trí mắt sẽ giúp cho hệ thống nhận dạng mặt người
không chỉ giảm thiểu chi phí và thời gian mà còn nâng cao độ chính xác cho hệ thống. Bước
XÁC ĐỊNH VỊ TRÍ MẮT NGƯỜI TRONG VIDEO 183
Hình 7. Bộ dò tìm giúp cho bộ theo vết giảm thiểu lỗi tích luỹ
đầu tiên, bộ dò tìm mặt người sẽ xác định vùng chứa mặt người. Sau đó khoản cách giữa hai
vị trí trung tâm của mắt trái và phải sẽ là đầu vào quan trọng cho công đoạn chuẩn hoá ảnh
mặt người.
Trong phần thực nghiệm này sẽ tích hợp kết quả xác định vị trí của mắt người vào hệ
thống chuẩn hoá và nhận dạng mặt người của trường đại học Colorado State của Hoa Kỳ.
Trong đó, các trường hợp ảnh mặt người với tư thế đầu nhìn nghiêng và xoay được chuẩn hoá
lại. Hình 8 là ví dụ về các trường hợp sử dụng vị trí mắt người để chuẩn hoá ảnh mặt người
dạng nhìn nghiêng và trong tư thế xoay. Và kết quả là các ảnh mặt người sẽ được chuẩn hoá
thành dạng nhìn thẳng dựa vào khoảng cách hai mắt.
Hình 8. Kết quả sử dụng vị trí mắt người trong chuẩn hoá ảnh mặt người
Đối với việc nhận dạng mặt người, cũng tiến hành thực nghiệm trên cơ sở dữ liệu Boston.
Số ảnh mặt người của cơ sở dữ liệu Boston là 8955 ảnh của 5 người khác nhau. Thực nghiệm
trên 2 trường hợp: có sử dụng vị trí mắt người và không sử dụng. Khi không sử dụng vị trí
mắt người thu được 8158 ảnh mặt người cho kết quả đúng. Và khi sử dụng vị trí mắt thì kết
quả là 8591 ảnh đúng. Đối với cơ sở dữ liệu Boston nhờ kết quả của vị trí mắt được tích hợp
nên đã giúp cho hệ thống nhận dạng được những khuôn mặt trong tư thế nhìn nghiêng và
xoay (những trường hợp này bộ dò tìm mặt người bị lỗi) nhờ đó nâng cao độ chính xác của
toàn hệ thống. Hơn nữa, việc xác định vị trí mắt tự động giúp cho giảm thiểu nhiều thời gian
và chi phí cho việc gán nhãn mắt cho công đoạn chuẩn hoá ảnh mặt người.
184 CÁP PHẠM ĐÌNH THĂNG ccs.
5. KẾT LUẬN
Bài báo đã đề xuất một phương pháp xác định vị trí mắt người dựa trên việc kết hợp một
bộ theo vết mắt người sử dụng particle filter với một bộ dò tìm mắt người. Qua đó cho thấy
những lợi thế của việc sử dụng các thông tin về thời gian và chuyển động của video. Cả bộ
dò tìm và bộ theo vết sử dụng particle filter đều cho thấy hiệu quả của nó trong việc kết hợp
để tăng độ chính xác của cả hệ thống. Thực nghiệm cho thấy được ưu thế của việc kết hợp
này đối với các trường hợp tư thế đầu người thay đổi, mắt nhắm hoặc mắt người bị che khuất
một phần. Kết quả thực nghiệm cũng cho thấy độ chính xác của hệ thống kết hợp tăng từ
3% ± 5% so với bộ dò tìm riêng lẻ và tăng từ 12% ± 17% so với bộ theo vết riêng lẻ trên cả
cơ sở dữ liệu TRECVID 2009 và đại học Boston. Ngoài ra thực nghiệm còn cho thấy kết quả
của vị trí mắt còn đạt được nhiều lợi thế khi được tích hợp vào trong hệ thống chuẩn hoá và
nhận dạng ảnh mặt người.
TÀI LIỆU THAM KHẢO
[1] P. Campadelli, R. Lanzarotti, and G. Lipori, Eye localization: a survey, The Fundamentals of
Verbal and Non-verbal Communication and the Biometrical Issue, NATO Science Series,
2007.
[2] W. Peng, MB. Green, J. Qiang, J. Wayman, Automatic eye detection and its validation, Proc.
2005 IEEE CS Conf. Computer Vision and Pattern Recognition 3 (2005) 164–164.
[3] R. Valenti and T. Gevers, Accurate eye center location and tracking using isophote curvature,
Proc. 2008 IEEE CS Conf. Computer Vision and Pattern Recognition 0 (2008) 1–8.
[4] L. Bai, L. Shen, and Y. Wang, A novel eye location algorithm based on radial symmetry trans-
form, International Conf. on Pattern Recognition 3 (2006) 511—514.
[5] A. L. Yuille, P. W. Hallinan, and D. S. Cohen, Feature extraction from faces using deformable
templates, International Journal of Computer Vision 8 (2) (1992) 99–111.
[6] S. Asteriadis, N. Nikolaidis, A. Hajdu, and I. Pitas, An eye detec-tion algorithm using pixel to
edge information, IEEE CS Conf. on Control, Communications, and Signal Processing 2
(2006) 1–4.
[7] P. Campadelli, R. Lanzarotti, and G. Lipori, Precise eye and mouth lo-calization, International
Journal of Pattern Recognition and Artificial Intelligencece 23 (3) (2009) 359–379.
[8] C. Garcia and M. Delakis, Convolutional face finder: A neural architecture for fast and robust
face detection, IEEE Transactions on Pattern Analysis and Machine Intelligence 26 (11)
(2004) 1408–1423.
[9] X. Tang, Z. Ou, T. Su, H. Sun, and P. Zhao, Robust precise eye location by adaBoost and SVM
techniques, Advances in Neural Networks 3497 (2) (2005) 93—98.
[10] J. Huang and H. Wechsler, Eye detection using optimal wavelet packets and radial basis functions,
Journal of Pattern Recognition and Artificial Intelligence 13 (7) (1999) 1009–1026.
[11] F. Yang, J. Huang, P. Yang, D. Metaxas, Eye localization through multiscale sparse dictionaries,
IEEE Conf. on Automatic Face and Gesture Recognition 9 (0) (2011) 514–518.
[12] K. Grauman, M. Betke, J. Gips and G. R. Bradski, Communication via eye blinks detection and
duration analysis in real time, Proc. 2008 IEEE CS Conf.Computer Vision and Pattern
Recognition 1 (0) (2001) 1010–1017.
XÁC ĐỊNH VỊ TRÍ MẮT NGƯỜI TRONG VIDEO 185
[13] Wu Junwen and Trivedi Mohan M., An eye localization, tracking and blink pattern recognition
system: Algorithm and evaluation, ACM Transactions on Multimedia Computing, Commu-
nications, and Applications 6 (2) (2010).
[14] Prez Patrick, Hue Carine, Vermaak Jaco, and Gangnet Michel, Color-based probabilistic track-
ing, European Conference on Computer Vision 1 (3) (2002) 661–675.
[15] J. Oliver, K. J. Kirchberg, and F. Robert, Robust face detection using the hausdorff distance,
International Conf. on Audio- and Video-Based Biometric Person Authentication 2091
(2) (2001) 90–95.
[16] A. T. Duchowski, Eye Tracking Methodology: Theory and Practice, Springer, 2007.
[17] Z. Zhu and Q. Ji, Robust real-time eye detection and tracking under variable lighting conditions
and various face orientations, Journal of Computer Vision and Image Understanding 98
(1) (2005) 124–154.
[18] c. Morimoto, D. Koons, A. Amir, and Flickner, Pupil detection and tracking using multiple light
sources, Journal of Image and Vision Computing 18 (4) (2000) 331–335.
[19] K. Lam and H. Yan, Locating and extracting the eye in human face images, Journal of Pattern
Recognition 29 (5) (1996) 771—779.
Ngày nhận bài 10 - 1 - 2013
Nhận lại sau sửa ngày 04 - 6 - 2013

File đính kèm:

  • pdfxac_dinh_vi_tri_mat_nguoi_trong_video_bang_cach_ket_hop_do_t.pdf