Tài liệu Khóa luận Xử lý ảnh và ứng dụng theo dõi đối tượng chuyển động: ĐẠI HỌC QUỐC GIA HÀ NỘI
TRƯỜNG ĐẠI HỌC CÔNG NGHỆ
Lê Anh Vũ
XỬ LÝ ẢNH VÀ ỨNG DỤNG THEO DÕI ĐỐI TƯỢNG
CHUYỂN ĐỘNG
KHÓA LUẬN TỐT NGHIỆP ĐẠI HỌC CHÍNH QUY
Ngành : Công Nghệ Điện Tử - Viễn Thông
HÀ NỘI 2005
ĐẠI HỌC QUỐC GIA HÀ NỘI
TRƯỜNG ĐẠI HỌC CÔNG NGHỆ
Lê Anh Vũ
XỬ LÝ ẢNH VÀ ỨNG DỤNG THEO DÕI ĐỐI TƯỢNG
CHUYỂN ĐỘNG
KHÓA LUẬN TỐT NGHIỆP ĐẠI HỌC CHÍNH QUY
Ngành : Công Nghệ Điện Tử - Viễn Thông
Cán bộ hướng dẫn : Nguyễn Vinh Quang
HÀ NỘI 2005
Lời cảm ơn
Để hoàn thành được khóa luận này đó là sự giúp đỡ nhiệt tình và hết sức tạo
điều kiện của các thầy cô và nhà trường cùng các bạn trong lớp , Sự tận tình và
cảm thông của gia đình,anh em.
Em xin chân thành cảm ơn thầy Nguyễn Vinh Quang, người đã hưỡng dẫn
em làm khóa luận này, thầy đã nhiệt tình giúp đỡ em trong suốt quá trình làm
khóa luận về cả vật chất lẫn tinh thần.
Em xin cảm ơn Nhà Trường và đặc biệt là các thầy cô của khoa Điện Tử thuộc
Phòng Thí Nghiệm ROBOTIC của Trường, những người...
62 trang |
Chia sẻ: haohao | Lượt xem: 1281 | Lượt tải: 0
Bạn đang xem trước 20 trang mẫu tài liệu Khóa luận Xử lý ảnh và ứng dụng theo dõi đối tượng chuyển động, để tải tài liệu gốc về máy bạn click vào nút DOWNLOAD ở trên
ĐẠI HỌC QUỐC GIA HÀ NỘI
TRƯỜNG ĐẠI HỌC CÔNG NGHỆ
Lê Anh Vũ
XỬ LÝ ẢNH VÀ ỨNG DỤNG THEO DÕI ĐỐI TƯỢNG
CHUYỂN ĐỘNG
KHÓA LUẬN TỐT NGHIỆP ĐẠI HỌC CHÍNH QUY
Ngành : Công Nghệ Điện Tử - Viễn Thông
HÀ NỘI 2005
ĐẠI HỌC QUỐC GIA HÀ NỘI
TRƯỜNG ĐẠI HỌC CÔNG NGHỆ
Lê Anh Vũ
XỬ LÝ ẢNH VÀ ỨNG DỤNG THEO DÕI ĐỐI TƯỢNG
CHUYỂN ĐỘNG
KHÓA LUẬN TỐT NGHIỆP ĐẠI HỌC CHÍNH QUY
Ngành : Công Nghệ Điện Tử - Viễn Thông
Cán bộ hướng dẫn : Nguyễn Vinh Quang
HÀ NỘI 2005
Lời cảm ơn
Để hoàn thành được khóa luận này đó là sự giúp đỡ nhiệt tình và hết sức tạo
điều kiện của các thầy cô và nhà trường cùng các bạn trong lớp , Sự tận tình và
cảm thông của gia đình,anh em.
Em xin chân thành cảm ơn thầy Nguyễn Vinh Quang, người đã hưỡng dẫn
em làm khóa luận này, thầy đã nhiệt tình giúp đỡ em trong suốt quá trình làm
khóa luận về cả vật chất lẫn tinh thần.
Em xin cảm ơn Nhà Trường và đặc biệt là các thầy cô của khoa Điện Tử thuộc
Phòng Thí Nghiệm ROBOTIC của Trường, những người mà hàng ngày vẫn tạo điều
kiện và bảo ban em.
Cảm ơn các bạn lớp K46DC, nhưng người luôn sát cánh và chia sẻ cùng
mình!
Hà Nội, ngày 05/06/2005
Mục lục
Mở đầu…………………………………………………………………………….1
Phần 1: LÝ THUYẾT XỬ LÝ ẢNH …………………………………………….2
Chương 1: Lý Thuyết xử lý ảnh …………………………………………………2
1.1:Thu nhận ảnh và số hóa…………………………………………………2
1.2:Phân tích ảnh…………………………………………………………….2
1.3:Quyết định………………………………………………………………..3
Chương 2: Thu nhận hình ảnh…………………………………………… …...3
2.1:Thu nhận ảnh…………………………………………………………….3
2.2:Lưu ảnh…………………………………………………………………..7
Chương 3: Phân tích ảnh……………………………………………………….…8
3.1:Khái niệm pixel và pixil lân cận…………………………………………8
3.2:Một số công cụ trợ giúp xử lý ảnh………………………………………8
3.2.1:Tích chập………………………………………………………………..8
3.2.2:Kỹ thuật lọc số………………………………………………………….11
3.2.3:Biến đổi Fourier……………………………………………………….. 11
3.3:Tiền xử lý…………………………………………………………………16
3.3.1:Phương pháp tiền xử lý trong miền không gian……………………..16
3.3.2:Phương pháp tiền xử lý trong miền tần số…………………………...17
3.4:Làm trơn ảnh………………………………………………………….…18
3.4.1:Lấy trung bình các điểm ảnh lân cận, lọc tuyến tính………………..18
3.4.2:Phương pháp lọc trung vị……………………………………………..19
3.4.3:Trung bình hóa hình ảnh……………………………………………...19
3.4.4:Làm trơn hình ảnh nhị phân………………………………………….20
3.5:Phát hiện biên…………………………………………………………….22
3.6:Lập ngưỡng………………………………………………………………25
Phần 2: PHẦN THỰC NGHIỆM:……………………………………………….....26
Chương 1: Ngôn ngữ lập trình……………………………………………...28
Chương 2:Điều khiển công LPT trên Win200/NT/XP…………………….31
Chương 3:Minh họa thuật toán và chương trình………………………….34
Tài liệu tham khảo:………………………………………………………………….52
TÓM TẮT NỘI DUNG KHÓA LUẬN:
Nội dung của khóa luận là ứng dụng lý thuyết của xử lý ảnh số qua thiết bị thu ảnh , ở
đây là web camera để điều khiển một hệ cơ tự động theo dõi đối tượng chuyển động.
Khóa luận được chia làm hai phần chính, phần lý thuyết và phần thực nghiệm :
-Trong phần lý thuyết , ta sẽ tìm hiểu các khái niệm cơ bản của xử lý ảnh số,
bao gồm lý thuyết về Xử lý ảnh,Thu nhận hình ảnh và Phân tích ảnh.
-Ở phần này, giới thiệu các khái niệm về xử lý ảnh và ứng dụng các thuật toán
về xử lý ảnh như là công cụ toán học tích chập, các phưong pháp tiền xử lý : lọc nhiễu,
phát hiện biên, phân ngưỡng ảnh….
-Phần thực hành gồm 3 phần:
Phần 1 tìm hiểu ngôn ngữ lập trình và thư viện AVICap của Microsoft.
Phần 2 sẽ giới thiệu về cách giao tiếp và điều khiển công LPT trên VC++.
Phần 3 là phần chính , bao gồm thuật toán và chương trình chính điều khiển.
LỜI MỞ ĐẦU
Trong mấy thập kỷ gần đây, xử lý ảnh đã được nghiên cứu mạnh mẽ và đã có
rất nhiều ứg dụng trong thực tế. Như trong y học, xử lý ảnh số đã được dùng để phát
hiện và nhận dạng khối u , cải thiện ảnh X quang , nhận dạng đường biên mạch máu
từ những ảnh chụp mạch bằng tia X. trong cuộc sống gia đình, xử lý ảnh được dùng để
cải thiện ảnh Ti vi. Trong truyền thông video như hội nghị video, điện thoại video thì
một vấn đề chính là cần có giải tần rộng. Việc mã hóa thẳng các chương trình video
chất lượn quảng bá cần đến 100 triệu bit/s. Điều này không thể đáp ứng được.Nhưng
bằng cách mã hóa số và khôi phục ảnh (là những vấn đề của xử lý ảnh ) thì việc trên
có thể thực hiện chỉ với băng tần 100 nghìn bit/s. Còn trong lĩnh vực khoa học kỹ
thuật, xử lý ảnh đã và đang có những đóng góp quan trọng, đặc biệt là trong lĩnh vực
Robot. Robot thông minh ngày nay không thể thiếu yếu tố xử lý ảnh. Đó là các vấn đề
nhận dạng các đối tượng ngoài môi trường. Từ việc nhận dạng có thể giải quyết rất
nhiều bài toán như tránh vật cản, dò đường....Xử lý ảnh có thể được chia ra làm các
quá trình sau: Thu nhận hình ảnh, phân tích ảnh và quyết định.
Mô hình sản phẩm theo dõi đối tượng dùng camera .
PHẦN 1: LÝ THUYẾT XỬ LÝ ẢNH
CHƯƠNG 1 : HỆ THỐNG XỬ LÝ ẢNH
Một hệ thống xử lý ảnh điển hình được cho trên hình vẽ sau:
Hình 1.1, Các giai đoạn chính trong xử lý ảnh.
Thu nhận
ảnh Số hoá
Phân tích
ảnh
Nhận
dạng
Lưu
trữ
Lưu trữ
Hệ quyết định
Thiết bị thu nhận
ảnh (Camera.
Sensor)
Từ hình vẽ 1.1 ta thấy một hệ thống xử lý ảnh bao gồm thu nhận ảnh, số hóa
ảnh, phân tích ảnh và cuối cùng là quyết định (tùy thuộc vào yêu cầu ứng dụng cụ
thể mà đưa ra quyết định cho phù hợp)
1.1 Thu nhận ảnh và số hóa
Việc thu nhận ảnh có thể thông qua camera. Các camera có thể hoặc là tương tự
(loại camera ống kiểu CCIR) hoặc là số (loại camera kiểu CCD_ Charge Coupled
Device). Ảnh cũng có thể được thu qua các thiết bị khác như máy quét v..v . Nếu ảnh
nhận được là tương tự nó phải được số hóa nhờ quá trình lấy mẫu và lượng tử hóa
trước khi phân tích, xử lý hay lưu trữ ảnh.
1.2 Phân tích ảnh
Ở giai đoạn này ảnh được xử lý theo nhiều công đoạn nhỏ như: cải thiện ảnh, khôi
phục ảnh để làm nổi bật một số đặc tính chính của ảnh hay làm ảnh gần với trạng thái
gốc. Tiếp theo là phát hiện các đặc tính như biên, phân vùng.
1.3 Quyết định
Cuối cùng tùy theo mục đích của ứng dụng, sẽ là giai đoạn nhận dạng hay các
quyết định khác.
CHƯƠNG 2: THU NHẬN HÌNH ẢNH
2.1 Thu nhận ảnh
Để thu nhận ảnh người ta thường dùng các camera truyền hình, các camera gồm
tube hoặc sensor mạch rắn và các thiết bị điện tử đi kèm. Camera sensor mạch rắn
có một số ưu điểm so với camera tube như nhẹ hơn, nhỏ hơn, bền hơn, bền hơn và
tiêu thụ công suất thấp hơn. Tuy nhiên, một số camera tube có độ phân giải cao
hơn camera sensor mạch rắn. Một trong số những loại được sử dụng phổ biến của
camera tivi là Vidicon.
Camera Vidicon là một vỏ kính hình lăng trụ chứa một súng phóng electron ở đầu
và một màn hình (faceplate) ở đầu kia. Dòng electron được hội tụ và làm lệch điện
áp đặt vào các cuộn dây như trên hình vẽ 2.1. Mạch làm lệch làm cho dòng electron
quết lên bề mặt trong của màn hình để “đọc” hình ảnh . Bề mặt bên trong của màn
hình được phủ một màng mỏng kim loại trong suốt, màng mỏng này tạo thành một
điện cực mà từ đó tạo ra tín hiệu điện của hình ảnh. Một lớp nhạy sáng được phủ
trên màng mỏng kim loại. Lớp tạo thành bao gồm những quả cầu trở kháng có kích
cỡ rất nhỏ, trở kháng của những quả cầu này tỷ lệ nghịch với cường độ sáng của
nó.. Phía sau lớp nhạy sáng đó có một lưới tích điện dương để giảm tốc các
electron được phát ra từ súng phóng electron sao cho khi các electron này tới bề
mặt đích về cơ bản vận tốc là bằng không.
Ở chế độ hoạt động bình thường, điện áp dương được đặt vào lớp kim loại của màn
hình. Khi không có ánh sáng, lớp nhạy sáng đóng vai trò như chất điện môi, dòng
electron phủ một lớp electron lên bề mặt bên trong của màn hình để cân bằng với
điện tích dương trên lớp kim loại. Khi chùm electron quét bề mặt của màn hình,
lớp nhày sáng trở th ành một tụ điện với điện tích âm trên bề mặt phía trong và điện
tích dương ở bề mặt đối diện. Khi ánh sáng va vào màn hình, trở kháng của nó
giảm và el ectron được phép chuyển động tự do và trung hòa với điện tích dương.
Vì lượng điện tích chuyển động tự do tỷ l ệ với ánh sáng trong một vùng cục bộ bất
kỳ của màn hình, hiệu ứng này t ạo ra một hình ảnh trên màn hình giống với ảnh
chiếu trên màn hình của tube. Nghĩa là, sự tập trung của c ác điện tích electron là
cao trong các vùng tối và thấp hơn trong các vùng sáng. Khi dòng electron quét
màn hình lần thứ hai nó thay thế các điện tích bị mất, và do đó tạo thành một dòng
điện chảy trong lớp kim loại và ở phía ngoài của một trong các chân tube. Dòng
này tỷ lệ với số electron được thay thế và do đó tỷ l ệ với cường độ sáng tại vị trí
cụ thể của dòng quét. Sự thay đổi này khi dòng electron quét sẽ tạo ra một tín hiệu
hình ảnh tỷ lệ với cường độ của ảnh đầu vào.
Cuộn hội tụ dòng electron: Lớp nhạy sáng
Các chân tube
Màn hình
Lưới
Dòng electron
Súng phóng electron
Lớp phủ kim loại trong suốt
Cuộn làm lệch dòng electron
Hình 2.1.Sơ đồ một vidicon
Hình 2.2 Mẫu quét dòng electron:
Hình 2.2 minh họa một chuẩn quét.Dòng electron quét toàn bộ màn hình 30 lần
mỗi giây, mỗi một vết quét hoàn chỉnh (gọi là một khung) gồm 525 dòng trong đó có
480 dòng chứa thông tin về hình ảnh. Nếu các dòng được quét một cách tuần tự và kết
quả được hiển thị lên một màn hình TV, hình ảnh sẽ nhấp nháy rõ rệt. Có thể khắc
phục hiện tượng này bằng cách sử dụng cơ cấu quét mà trong đó mỗi khung được chia
ra thành hai trường mành xen kẽ nhau, mỗi trường gồm 2625 dòng và được quét 60 lần
trong một giây hay tốc độ khung tăng lên gấp đôi. Trường hợp đầu tiên của mỗi khung
quét các dòng lẻ (là các đường chấm chấm trong hình 2.2) trong khi đó mành thứ hai
quét các dòng chẵn. Sơ đồ quết này được gọi chuẩn là RETMA (Radio-Electronics
Television Manufacturers Association ). Hiệp hội các hãng chế tạo Radio, Tivi, và
máy móc điện tử). Các chuẩn khác có tốc độ dòng trên mỗi mành cao hơn , nhưng về
cơ bản nguyên lý hoạt độn4g của các mạch này là giống nhau.
Các thiết bị CCD gồm hai loại: Sensor quét dòng và sensor khối. Thành phần cơ
bản của Sensor CCD quét dòng là một hàng phân tử ảnh silic gọi là photosites. Các
photo hình ảnh cho qua một cấu trúc cổng đa tinh thể trong suốt và được hấp thụ
trong tinh thể silic, do đó tạo nên một cặp lỗ electron. Các quang điện tử tạo ra
được tập hợp vào các photosite, lượng điện tích được tập hợp trong mỗi photosite
tỷ lệ với cường độ chiếu sáng tại điểm đó. Một sensor quét dòng điển hình gồm
một hàng các phân tử ảnh photosite, hai cổng truyền được sử dụng để chốt lại nội
dung của các phần tử hình ảnh vào các thanh ghi vận chuyển và một cổng nối ra
được sử dụng để chốt nội dung của các thanh ghi vận chuyển vào bộ khuyếch đại,
lối ra của bộ khuyếch đại này là một tín hiệu điện áp tỷ lệ với các nội dung của
hàng photosites.
Các thanh
Ghi điều khiển
. Lối ra
.
.
.
Thanh ghi vận chuyển
Cổng
N Photosites 2 1
Bộ
khuếch
đại
Cổng
Lối
Ra
Thanh ghi truyền
Cổng
Hình 2.3.Sensor quét dòng CCD
Các mảng khối ghép diện tích giống các sensor quét dòng, ngoại trừ các photosite
được sắp xếp theo dạng ma trận và có một tổ hợp thanh ghi vận chuyển cổng giữa
các cột photosite như trong hình 2.4. Nội dung của các photosite lẻ được chốt lần
lượt vào các thanh ghi vận chuyển dọc và sau đó lại được chốt vào các thanh ghi
vận chuyển ngang. Nội dung của các thanh ghi vận chuyển ngang này được dẫn
vào bộ khuyếch đại, lối ra của bộ khuyếch đại là một dòng lẻ hình ảnh. Thực hiện
tương tự với các photosite chẵn để hoàn thành trường thứ hai của khung TV. Cơ
cấu quét này được lặp lại 30 lần mỗi giây.
Các camera quét dòng chỉ cho ra một dòng hình ảnh của hình ảnh lối vào. Những
thiết bị này đặc biệt phù hợp cho các ứng dụng mà các đối tượng chuyển động qua
sensor (như trong các băng truyền) . Sự chuyển động của một đối tượng theo hướng
vuông góc với sensor tạo ra hình ảnh hai chiều. Các sensor quét dòng có độ phân giải
thấp 32x3, trung bình 256x256 và cao 480 phân tử ảnh và các sensor thí nghiệm CCD
có khả năng đạt được độ phân giải khoảng 1024x1024 hay cao hơn.
Ở đây, ta ký hiệu ảnh lối ra hai chiều của camera hay thiết bị cho ảnh khác là
f(x,y) trong đó x, y biểu thị toạ độ không gian (ví dụ mặt phẳng ảnh) và giá trị f tại
điểm (x,y) bất kỳ tỷ lệ với toạ độ (cường độ sang) của hình ảnh tại điểm đó . Hình 2.5
minh hoạ một điểm ảnh và quy ước toạ độ của nó.
Hình 2.5. Quy ước toạ độ cho biểu diễn hình ảnh Giá trị của điểm ảnh (x.y) bất kỳ
được cho bởi giá trị (cường độ sáng) của f tại điểm đó.:
Gốc hình ảnh
y
f(x,y)
•
x
Để máy tính có thể xử lý, hàm ảnh (x,y) phải được số hoá cả về không gian lẫn
biên độ (cường độ). Việc số hoá các toạ độ không gian (x,y) được coi như là việc lấy
mấu hình ảnh, trong khi đó việc số hoá biên độ được coi là lượng tử hoá cường độ cho
những hình ảnh đơn sắc và phản ảnh bản chất của các ảnh này là biến thiên từ đen tới
trắng theo các mức xám khác nhau. Hai thuật ngữ cường độ sang và mức xám có thể
dung hoán chuyển cho nhau.
Giả sử một hình ảnh liên tục được lấy mẫu đồng nhất cho một mảng N hang và M
cột, ở đây mỗi mẫu cũng được lượng tử hoá về biên độ. Mảng này được gọi là ảnh số,
có thể được viết như sau:
F(x,y) =
( ) ( ) ( )[ ]
( ) ( ) ( )
( ) ( ) ( 1,1........1,10,1
................................................................
1,1.......................1,10,1
1,0....................1,0,0
−−−−
−
)
−
MNfNfNf
Mfff
mfoff
(2.1)
ở đây các biến rời rạc:x=0, 1, 2 …, N-1
y= 0, 1, 2, …, M-1
Mỗi phần tử trong mảng được gọi là một phần tử ảnh hay pixel. Từ mảng ta thấy
pixel tại gốc của ảnh được biểu thị là f(0,0), pixel bên phẩi là f(0,1), v.v. Thông thường
N, M và số mức cường độ rời rạc của mỗi pixel đã lượng tử hoá là luỹ thừa nguyên
của 2.
2.2 Lưu ảnh.
Để lưu trữ ảnh trên máy tính, một số định dạng ảnh đã được nghiên cứu như
IMG, PCX, TIFF, GIF.
Định dạng ảnh IMG dung cho ảnh đen trắng. Phần đầu của ảnh IMG có 16 byte
chứa các thông tin:
• 6 byte đầu: dung để đánh dấu định dạng ảnh IMG. Giá trị của 6 byte này được
viết là 0x0001 0x0008 0x0001.
• 2 byte tiếp theo: chứa độ dài mẫu tin. Đó là độ dài của dãy các byte kề liền nhau
mà dãy này sẽ được lặp lại một số lần nào đó. Số lần lặp lại này sẽ được lưu
trong byte đếm. Nhiều dãy giống nhau được lưu trong một byte. Đây là một
cách lưu trữ hình ảnh dưới dạng nén.
• 4 byte tiếp theo: mô tả kích cỡ pixel
• 2 byte tiếp theo: cho biết số pixel trên một dòng ảnh
• 2 byte cuối: cho biết số dòng ảnh trong ảnh.
Định dạng ảnh PCX là một trong những định dạng ảnh cổ điển nhất. Định dạng
này sử dụng phương pháp mã loại dài RLE (Run-Length-Encoded) để nén dữ liệu ảnh.
Quá trình nén và giải nén được thực hiện trên từng dòng ảnh. Tệp PCX gồm 3 phần :
đầu tệp(header), dữ liệu ảnh (image data), và bảng màu mở rộng.
Định dạng ảnh TIFF được thiết kế để làm nhẹ bớt các vấn đề liên quan đến việc
mở rộng tệp ảnh cố định. Định dạng này cũng gồm 3 phần: IFH, IFD, DE.
Định dạng ảnh GIF (Graphics Interchange Format). Định dạng này được đưa ra
để khắc phục những vấn đề mà các định dạng ảnh khác gặp phải khi số màu trong ảnh
tăng lên. Định dạng tổng quát của ảnh GIF được cho trên hình vẽ 2.6
Hình 2.6 Định dạng tổng quát GIF của một hình ảnh.:
GIF note
GIF header
Global Palette
Header image (_10 byte)
Palette of image 1 (nếu có)
Data of image 1
‘’ Ký tự liên tiếp
………………………..
‘’ GIF terminator
CHƯƠNG 3: PHÂN TÍCH ẢNH
3.1 Khái niệm pixel và pixel lân cận
Pixel là phân tử nhỏ nhất cấu tạo nên hình ảnh. Mỗi pixel có một toạ độ ̣̣̣̣̣(x,y) và
màu xác định.
Hình 3.1 Pixel P và các lân cận của P
P1
̣(x-1, y-1)
P2
(x-1, y)
P3
(x-1, y+1)
P4
̣(x, y-1)
P
(x, y)
P5
(x, y+1)
P6
(x+1, y-1)
P7
(x+1, y)
P8
(x+1, y+1)
Một pixel p tại các toạ độ ̣(x, y) có ô pixel lân cận theo chiều dọc và chiều ngang,
và toạ độ tương ứng của các pixel này , như hình vẽ 3.1 là:
P2(x-1, y) P7(x+1, y)
P6(x+1, y-1) . P5(x, y+1)
Tập các pixel này gọi là lân cận của p và ký hiệu là N4(p). Mỗi pixel lân cận cách
(x, y) một đơn vị và nếu (x, y) ở mép của màn hình thì sẽ có một số pixel lân cận của p
nằm ở ngoài hình ảnh.
Ngoài 4 pixel lân cận của p theo chiều dọc và chiêu ngang, xung quanh p còn có
4 pixel chéo góc có các toạ độ tương ứng là:
P1(x-1, y-1) P3(x-1, y+1)
P6(x+1, y-1) P8(x+1, y+1)
Tập các pixel này được ký hiệu là NḌ(p).Bốn pixel này cùng với 4 pixel ở trên
tạo thành 8 pixel lân cận cuả p và được ký hiệu là N8 (p) .Tập hợp này cũng sẽ có một
số pixel ở bên ngoài hình ảnh nếu (x, y) nằm ở mép của hình ảnh.
3.2 Một số công cụ trợ giúp xử lý ảnh
3.2.1 Tích chập
Toán tử tích chập được định nghĩa như sau:
◊ Trường hợp liên tục:
g(x,y) = h(x,y) ⊗ f(x,y)
= h(x-x( ) ( )∫∫ ∞∞−∞∞− −− ''','',' dydxyxfyyxxh `,y-y`) f(x`,y`) dx` dy` (3.1)
◊ Trường hợp rời rạc:
y(m,n) = h(m,n) ⊗ x(m,n) = (3.2) ( ) (∑∑ ∞
∞−
∞
∞−
−− ','',' nmxnnmmh )
n’ n’ Xoay180o
x (m’, n’) C
h (m’, n’) A m h(m-m’, n-n’)
B C m’ n A m’
a) Đáp ứng xung b) Tín hiệu ra ở vị trí (m,n)
Hình 3.2 Một biểu diễn của toán tử tích chập
Ví dụ:
Cho các ma trận:
+ Ma trận tín hiệu :
⎥⎥
⎥
⎦
⎤
⎢⎢
⎢
⎣
⎡
352
141
+ Ma trận đáp ứng xung:
⎥⎥
⎥
⎦
⎤
⎢⎢
⎢
⎣
⎡
− 11
11
Ma trận tích chập của x và h là một ma trận 4x3. Nói chung chập của hai ma trận số
(M1xN1) và (M2xN2) là một ma trận cỡ (M1+M2, N1+N2 -1). Quá trình nhân chập của h và x
được minh hoạ trong hình 3.3 sau:
1 4 1 n n
2 5 3 1 1 -1 1
1 4 1 1
a) x(m,n) b) h(m,n) c) h(-m,-n)
-1 1 -2 5 1 5 5 1
1 1 0 0 3 10 5 2
2 3 -2 -3
d) h(1-m,-n) e) y(1,0) = -2+3=1 f) y(m,n)
Hình 3.3 . Ví dụ về toán tử nhân chập
Tích chập là một khái niệm rất quan trọng trong xử lý ảnh, đặc biệt là tính chất
của nó có liên quan đến biến đổi Fourier: Biến đổi Fourier của một tích chập bằng tích
đơn giản các biến đổi Fourier của tín hiệu đó:
F[H (x,y) ⊗ I(x,y)] = F [H (x,y) , F[I(x,y)] ̣(3.3)
Trong kỹ thuật H(x,y) được gọi là nhân chập hay nhân cuộn hay mặt nạ : I(x,y) gọi
là ảnh đối tượng.
Thuật toán tổng quát để tính nhân chập dùng cho mọi trường hợp. Để sử dụng thuật
toán chỉ cần thay đổi hai thông số:ma trận biểu diễn ảnh số cần xử lý và ma trận
biểu diễn nhân chập.
Nhân chập (ImageIn, ImageOut: ảnh H: nhân chập N: kích thước ảnh W; kích
thước nhân chập)
{ Vào: ImageIn
Nhân chập
Ra: ImageOut}
Begin
For i = 1 to N do
For i = 1 to N do
Begin
Sum = 0
Le:= (w+1) div2:
For k:=1 to w do
For k:=1 to w do
Begin
Col:=1-k+Lc;
R ow:=j+l+Lc
If(Col 0 and (Col<=N) then
If(Row 0 and (Row <=N) then
Sum:=Sum+ImageIn [Col, Row ] * H [k,l]
End;
ImageOut [i,j] = Sum
End;
End;
3.2.2 Kỹ thuật lọc số
Chất lượng hình ảnh kém do rất nhiều nguyên nhân như do nhiễm điện tử của máy
thu hay chất lượng bộ số hóa kém. Nhiễu ảnh số được xem như là sự dịch chuyển
nhanh của tín hiệu thu nhận trên một khoảng cách ngắn. Về mặt tần số, nhiễu ứng
với các thành phần tần số cao trong ảnh. Như vậy để xử lý nhiễu ta có thể lọc các
thành phần tần số cao. Việc lọc dựa vào tính dư thừa thông tin không gian ; các
pixel lân cận có thể có cùng hoặc gần cùng một số đặc tính. Kỹ thuật lọc này dùng
một mặt nạ và di chuyển khắp ảnh gốc. Tùy theo cách tổ hợp điểm đang xét với các
điểm lân cận mà ta có kỹ thuật lọc tuyến tính hay kỹ thuật lọc phi tuyến. Điểm ảnh
chịu tác động của biến đổi là điểm ở tâm của mặt nạ. Các kỹ thuật lọc này được
trình bày kỹ trong phần làm trơn ảnh.
3.2.3 Biến đổi Fourier
3.2.3.1 Khái niệm và công thức
Biến đổi Fourier cho một tín hiệu có thể biểu diễn như sau:
FT
x(t) X(f)
Miền thời gian Miền tần số
Dạng phức
X(n ) X(z)
Biến đổi Fourier thuận cho tín hiệu một chiều gồm một cặp biến đổi
-Biến đổi Fourier thuận: chuyển sự biểu diễn từ không gian thực sang không gian tần
số (phổ và pha) . Các thành phần tần số n ày đ ược gọi là các biểu diễn trong không
gian Fourier của tín hiệu.
- Biến đổi Fourier ngược: Chuyển đổi sự biểu diễn của đối tượng từ không gian
Fourier sang không gian thực.
a)Không gian một chiều.
Cho một hàm f(x) liên tục. Biến đổi Fourier của f(x), ký hiệu F(u) , u biểu diễn
tần số không gian , được định ngh ĩa l à:
F(u) = ƒ(x)e∫∞∞− -2jπ ux dx (3.4)
Trong đ ó:
F(x) : biểu diễn biên độ tín hiệu
e-2jπ ux: biểu diễn pha.
Biến đổi Fourier ngược của F(u) cho f(x) đ ược định nghĩa như sau:
ƒ(x) = F(u)e∫∞∞− ∫∞∞− -2jπ ux du (3.5)
b) Không gian hai chiều
Cho f(x,y) là hàm biểu diễn ảnh liên tục trong không gian hai chiều, cặp biến đổi
Fourier được định nghĩa như sau:
-Biến đổi Fourier thuận:
F(u,v) = f(x,y) e∫ ∫∞∞− ∞∞− -2jπ (ux+vy) dxdy (3.6)
U,v biểu diễn tần số không gian
-Biến đổi Fourier ngược
f(u,v) = F(x,y) e∫ ∫∞∞− ∞∞− -2jπ (ux+vy) dxdv (3.6)
3.2.3.2 Biến đôỉ Fourier rời rạc_DFT
Biến đổi DFT được phát triển dựa trên bi ến đổi Fourier cho ảnh số. Ở đây, tích
phân được thay bằng tổng. Biến đổi Fourier DFT t ính các giá trị của biến đ ổi
Fourier cho một t ập các giá trị trong không gian tần số được cách đều.
a) DFT cho tín hiệu một chiều
Với tín hiệu một chiều, người ta biến đổi bởi một chuỗi trực giao các hàm cơ sở.
Với các hàm liên tục, khai triển chuỗi trực giao sẽ cung cấp chuỗi các hệ số ùng
trong nhiều quá trình khác nhau hay trong phân tích hàm. Khai triển Fourier rời rạc
DFT cho một dãy {u(n), n=0,1,....N} được định nghĩa bởi:
V(k) = u(v) W∑−
=
1
0
N
n
kn
N v ới k=0, 1,....., N-1 (3.7)
với WN = e-j2π/N
và biến đổi ngược
u(n) = ∑−
=
1
0
1 N
k
v
N
(k)WN-kn với k=0,1,….N-1 (3.8)
Thực tế trong xử lý ảnh người ta hay dung DFT đơn vị:
v(k)= ∑−
=
1
0
1 N
nN
u(k)WNkn với k=0,1,….N-1 (3.9)
u(n)= ∑−
=
1
0
1 N
nN
u(k)WN-kn với k=0,1,….N-1 (3.10)
Các DFT và DFT đơn vị có tính đối xứng. Hơn nữa khai triển DFT và DFT đơn vị
của một chuỗi và biến đổi ngược lại của nó có tính chu kỳ và chu kỳ N.
b) DFT cho tín hiệu hai chiều (ảnh số)
DFT hai chiều của một ảnh MxN:{u(m,n)} là một biến đổi tách được và được định
nghĩa:
V(k,l) = u(m,n) W∑∑−
=
−
=
1
0
1
0
N
m
N
n
N
km WNln với 0 ≤1,k≤ N-1 (3.11)
Và biến đổi ngược:
V(k,l) = ∑∑−
=
−
=
1
0
1
0
1 N
m
N
nN
v(k,l) WN-km WN-ln với 0 ≤m,n≤ N-1 (3.12)
Cặp DFT đơn vị hai chiều được định nghĩa:
V(k,l) = ∑∑−
=
−
=
1
0
1
0
1 N
m
N
nN
u(m,n) WNkm WNln với 0 ≤1,k≤ N-1
(3.13)
U(m,n) = ∑∑−
=
−
=
1
0
1
0
1 N
m
N
nN
v(k,l) WN-km WN-ln với 0 ≤m,n≤ N-1
(3.14)
Viết lại các công thức (3.13) và (3.14) ta có:
V(k,l) = ∑∑−
=
1
0 0
1 N
mN
u(m,n)WN(km +ln) với 0 ≤m,n≤ N-1 (3.15)
u(m,n) = ∑∑−
=
−
=
1
0
1
0
1 N
m
N
lN
v(k,l)WN-(km +ln) Với 0 ≤m,n≤ N-1 (3.16)
Ở đây, WN(km +ln) là ma trận ảnh cơ sở.
Ta có: WN-(km +ln) =e-j2π(km+ln)/N =cos [2π(km+ln)/N] -jsin [2π(km+ln)/N]
Như vậy các hàm cơ sở trong ma trận cơ sở của biến đổi Fourier là các hàm cosine
và hàm sine. Chỉ biến đổi Fourier biểu diễn ảnh trong không gian mới theo các hàm
sine và cosine.
3.2.3.3. Định lý chập cuộn hai chiều.
DFT của cuộn chập hai chiều của hai ma trận bằng tích DFT của chúng:
u(m,n) = h(m-m’, n-n’)∑∑−
=
−
=
1
0
1
0
N
m
N
l
c u1(m’,n’) với 0 ≤m,n≤ N-1 (3.17)
với h(m,n), u1(m,n) là ma trận NxN và h(m,n)c =h(m mod N, n mod N)
3.2.3.4. Thuật toán biến đổi Fourier nhanh.
- Trường hợp một chiều
Từ công thức v(k) = ∑−
=
1
0
1 N
nN
u(n) WNkn với k= 0,1,…., N-1 ta thấy với mỗi giá
trị k ta cần N phép tính nhân và N phép cộng. Nên để tính N giá trị của v(k) ta phải
tính N2 phép tính. Để khắc phục điều này người ta sử dụng thuật toán biến đổi Fourier
nhanh FFT chỉ cần N.log2N phép tính.
Thuật toán Fourier nhanh được tóm tắt như sau:
-Giả sử N=2n
-Giả sử WN là nghiệm thứ N của đơn vị WN =e-2jπ/N và M=N/2 ta có:
v(k) = ∑−
=
12
02
1 M
nM
u(n)W2Mnk (3.18)
- Khai triển công thức trên ta được
v(k) = ( ∑−
=
1
0
1 M
nM
u(2n) W2M2nk + M
1 ∑ u(2n+1) W2M(2n+1)k)/2 (3.19)
vì W2M2nk =W2Mnk, do đó:
v(k) =
2
1 [uchẵn (n)+ulẻ (n)] (3.20)
v(k) với k=[0,M-1] là một DFT trên M =N/2. Thực chất của thuật toán FFT là dung
nguyên tắc chia đôi và tính chu kỳ để tính DFT. Với k=[0,M-1] dung công thức (3.19).
Với k=[M,M-1] dung phép trừ trong công thức (3.19) có thể dung thuật toán này để
tính DFT ngược.
-Trường hợp hai chiều:
Do DFT hai chiều là tách được nên từ công thức (3.14) ta có:
V(k,l) = ∑−
=
1
0
1 N
mN
WNkn u(m,n) W∑−
=
1
0
N
n
N
ln (3.21)
Từ công thức (3.21) , cách tính DFT hai chiều như sau:
-Tính DFT 1 chiều với mỗi giá trị của X (theo cột)
-Tính DFT 1 chiều theo hướng ngược lại (theo hàng) với giá trị thu được ở trên.
3.3 Tiền xử lý
Có hai phương pháp cơ bản được sử dụng trong tiền xử lý ảnh. Phương pháp thứ
nhất dựa vào các kỹ thuật tiền xử lý trong miền không gian và phương pháp thứ
hai sử dụng các khái niệm trong miền tần số thông qua biến đổi Fourier.
3.3.1 Phương pháp tiền xử lý trong miền không gian.
Thuật ngữ miền không gian ở đây muốn nói đến số lượng pixel tạo nên một hình
ảnh. Các phương pháp tiền xử lý trong miền không gian là các thủ tục tác động trực
tiếp lên các pixel tạo lên hình ảnh đó. Các hàm tiền xử lý trong miền không gian có
thể được viết như sau:
g(x,y) =h[f(x.y)] (3.22)
Ở đây f(x,y) là hàm điểm ảnh chưa được xử lý.
g(x,y) là hàm điểm ảnh đã được xử lý.
h là toán tử áp lên f. Dạng đơn giản nhất của h là lân cận có kúch tghước1x1, khi
đó g chỉ phụ thuộc vào giá trị của f tại (x,y) và h trở thành hàn ánh xạ cường độ
sáng điểm ảnh.
Một trong những kỹ thuật được sử dụng rộng rãi nhất là sử dụng mặt nạ nhân
chập. Trên hình 3.4 minh hoạ một mặt nạ là một mảng 2 chiều có kích thước 3x3,
các hệ số của mặt nạ được chọn để phát hiện một thuộc tính cho trước trong một
hình ảnh.
Hình 3.4. Một lân cận kích thước 3x3 quanh điểm (x,y)
y
(x,y)
x
•
Để hiểu rõ về mặt nạ nhân chập ta xét một ví dụ cụ thể sau. Giả sử chúng ta có
một hình ảnh có cường độ không đổi chứa một số điểm ảnh tách rời nhau, cường độ
của các điểm ảnh này khác với nền. Các điểm ảnh này có thể được phát hiện bằng một
mặt nạ nhân chập có kích thước 3x3 với các hệ số đã chọn trên hình 3.5
Hình 3.5. Mặt nạ dung để xác định các điểm ảnh
Tách biệt trên một nền không đổi
-1 -1 -1
-1 8 -1
-1 -1 -1
Thủ tục phát hiện điểm ảnh như sau: Cho tâm của mặt nạ chuyển động xung quanh
hình ảnh. Tại mỗi vị trí pixel trong hình ảnh, ta nhân mỗi pixel nằm trong vùng mặt
nạ tương ứng ; Nghĩa là pixel ở tâm của mặt nạ được nhân với 8, còn 8 pixel lân
cận được nhân với –1. Sau đó cộng kết quả của 9 phép nhân này lại. Nếu tất cả các
pixel trong mặt nạ có cùng giá trị (tức nền không đổi), thì tổng sẽ bằng 0. Ngược
lại nếu tâm của mặt nạ trùng với một trong các điểm ảnh cần xác định, thì tổng sẽ
khác 0. Nếu điểm ảnh cần xác định không nằm đúng tâm của mặt nạ, tổng cũng sẽ
khác 0, nhưng giá trị biên độ của đáp ứng sẽ yếu hơn. Những đáp ứng yếu hơn này
có thể loại bỏ bằng cách so sánh tổng với một ngưỡng.
Xét một mặt nạ có các hệ số w1, w2,….w9 và 8 điểm ảnh lân cận của điểm ảnh
(x,y) như hình 3.6. Ta có thể khái quát hoá một hàm tiền xử lý cho một mặt nạ 3x3
như sau:
h[f(x,y)]= w1f(x-1, y-1) +w3f(x-1, y+1) +w4f(x, y-1) +w5f(x,y)+w6f(x,y+1)
+w7f(x+1,y-1)+w8f(x+1,y) +w9f(x+1, y+1) (3.23)
Hình 3.6. Mặt nạ tổng quát kích thước
3x3 trình bày các hệ số và vị trí pixel hình
ảnh tương ứng.
W1
(x-1,y-1)
W2
(x-1,y)
W3
(x-1,y+1)
W4
(x, y-1)
W5
(x,y)
W6
(x,y+1)
W7
(x+1, y-1)
W8
(x+1, y)
W9
(x+1,
y+1)
3.3.2 Phương pháp tiền xử lý trong miền tần số.
Thuật ngữ miền tần số ở đây có nghĩa là tổng số pixel phức được tạo ra từ việc lấy
biến đổi Fourier hình ảnh . Khái niệm “tần số” thường được sử dụng trong giải
thích biến đổi Fourier và suy ra từ bản chất của biến đổi Fourier là tổ hợp của các
hàm sin phức. Phương pháp naỳ đóng vai trò rất quan trọng trong lĩnh các vực như
phân tích chuyển động của một vật và miêu tả vật.
Xét các hàm rời rạc của một biến, f(x), x=0, 1, …., N-1. Biến đổi Fourier thuận của
hàm f(x) là:
F(u) = ∑−
=
1
0
1 N
xN
f(x)e-2jπux / N (3.24)
với u = 0, 1, 2,…..N-1. Trong phương trình này j=√-1 và u gọi là biến tần số. Biến đỏi
Fourier ngược cho lại f(x) được định nghĩa như sau:
f(x) = e( )∑−
=
1
0
N
u
uF 2jπux / N (3.25)
Nếu tính trực tiếp từ các phương trình (3.24) và (3.25) với u=x=0,1, 2, ...N-1 thì
phải thực hiện khoảng N2 phép cộng và phép nhân. Sử dụng thuật toán biến đổi
Fourier nhanh cho phép giảm đáng kể số lượng phép tính xuống còn N.log2 N phép
tính, ở đây N được giả sử là một số nguyên mũ 2.
Cặp biến đổi Fourier hai chiều của hình ảnh NxN được định nghĩa như sau:
F(u,v) =
N
1 ∑−
=
1
0
N
x
∑−
=
1
0
N
y
f(x,y)e-j2π (ux+vy)/N (3.26)
với u,v=0,1,2..., N-1 và
f(x,y) =
N
1 ∑−
=
1
0
N
u
∑−
=
1
0
N
v
F(u,v)ej2π (ux+vy)/N (3.27)
với x,y=0, 1, 2,...N-1.
Bằng cách coi biên của vật như mảng một chiều các điểm, sau đó tính biến đổi
Fourier các phần tử của mảng đó, từ các giá trị F(u) thu được có thể biết được dạng
biên của vật. Biến đổi Fourier một chiều cũng là một công cụ rất mạnh trong việc
phát hiện chuyển động của vật. Tuy vẫn còn hạn chế về mặt tính toán nhưng biến
đổi Fourier rời rạc có rất nhiều ứng dụng trong các lĩnh vực tái tạo ảnh, cải thiện
ảnh và khôi phục ảnh. Đối với biến đổi Fourier liên tục, hai chiều, việc tính toán có
thể đạt tới tốc độ ánh sáng nhờ sử dụng các thiết bị quang học .
3.4 Làm trơn ảnh.
3.4.1 Lấy trung bình các điểm ảnh lân cận- Lọc tuyến tính.
Lấy trung bình các điểm ảnh lân cận là một kỹ thuật miền không gian đơn giản để
làm trơn ảnh. Cho một hình ành f(x,y) , thủ tục sẽ tạo ra một hình ảnh đã làm trơn
g(x,y), cường độ tại mỗi điểm (x,y) của ảnh này có được bằng cách lấy trung
bình các giá trị cường độ các điểm ảnh của f nằm trong một lân cận xác trước định
của (x,y). Nói cách khác, ảnh đã được làm nhẵn có được bằng cách sử dụng
phương trình:
G(x,y) =
( )∑∈Smnp ,
1 f(n,m) (3.28)
với mọi x,y nằm trong f(x,y) , S là tập hợp tọa độ các điểm trong lân cận (x,y) gồm cả
(x,y) và P là tổng số điểm trong lân cận.
3.4.2. Phương pháp lọc điểm giữa (lọc trung vị)_ Lọc phi tuyến.
Một trong những khó khăn chủ yếu của phương pháp lấy trung bình các điểm ảnh
lân cận là nó làm mờ biên của hình ảnh và các chi tiết sắc nét khác. Sự mờ này có
thể làm giảm đáng kể nhờ việc sử dụng bộ lọc điểm giữa ở đây chúng ta sẽ thay
cường độ của mỗi điểm ảnh bằng độ lớn cường độ của điểm giữa trong một lân cận
xác định trước của điểm ảnh đó thay vì lấy trung bình các điểm ảnh.
Để thực hiện lọc điểm giữa trong một lân cận của một điểm ảnh, trước tiên phải sắp
xếp các giá trị của pixel và các lân cận của nó, xác định điểm giữa và gán giá trị
này cho pixel. Ví dụ: trong lân cận 3x3 điểm giữa là giá trị lớn nhất thứ 5, trong
lân cận 5x5 điểm giữa là giá trị lớn nhất thứ 13v.v…Khi trong lân cận có nhiều giá
trị giống nhau, ta nhóm các giá trị bằng nhau như :giả sử một lân cận 3x3 có các
giá trị (10,20,20,20,15,20,20,25,100). Các giá trị này được sắp xếp như
sau(10,15,20,20,20,20,25,100) và các điểm giữa của lân cận này là 20 Như vậy
thực chất của việc lọc điểm giữa là ép các điểm có cường độ khác biệt giống các
lân cận của nó hơn, tức làm loại bỏ các điểm nhọn cường độ xuất hiện trong các
mặt nạ lọc.
3.4.3 Trung bình hoá hình ảnh
Xét một hình ảnh nhiễu g(x,y) tạo ra do cộng nhiễu n(x,y) vào hình ảnh f()x,y tức
là:
G(x,y) = f(x,y) +n(x,y) (3.29)
ở đây giả sử nhiễu là không tương quan và có giá trị trung bình bằng 0. Mục tiêu của
phương pháp trung bình hoá là tạo ra một hình ảnh tốt hơn bằng cách cộng các hình
ảnh nhiễu cho trước gi(x,y), i=1,2,…K .
Nếu nhiễu thoả mãn các ràng buộc nêu trên, bài toán sẽ là đơn giản và hình ảnh
g(x,y) được tạo ra bằng cách lấy trung bình K hình ảnh nhiễu khác nhau.
g (x,y) =
K
1 ∑
=
K
i 1
g(x,y) (3.30)
do đó ta có:
E { g (x,y)} = f(x,y) (3.31)
Và :
σ
g
2 (x,y) =
K
1 σ
n
2 (x,y) (3.32)
ở đây E { g (x,y)} là giá trị mong đợi của g , σ
g
2 (x,y), và σ
n
2 (x,y) là các biến của g và
n tại toạ độ (x,y). Độ lệch chuẩn tại bất kỳ điểm nào trong hình ảnh trung bình được
cho bởi:
σ
g
(x,y) =
K
1 σ
n
(x,y) (3.33)
3.4.4 Làm trơn hình ảnh nhị phân
Trong ảnh nhị phân điểm đen được quy định là 1 và điểm trắng được quy định là 0.
Vì hình ảnh nhị phân có hai giá trị nhiễu trong trường hợp này tạo ra các hiệu ứng
như biên mấp mô, các lỗ nhỏ, thiếu góc và các điểm bị tách ra.
Ý tưởng cơ bản là kiểm tra một hàm BOOL đối với lân cận tâm tại pixel p và gán p
là 1 hoặc 0 phụ thuộc vào sự sắp xếp về mặt không gian và giá trị của các pixel lân
cận. Do hạn chế về thời gian xử lý nên việc phân tích chỉ giới hạn trong 8 lân cận
của p, lân cận này cho một mặt nạ kích thước 3x3 như hình 3.7.
Hình 3.7. Các lân cận của p sử dụng để làm nhẵn ảnh
a b c
d p e
f g h
nhị phân điểm tối là một và điểm sang là 0
Làm nhẵn ảnh nhị phân được tiến hành theo các bước sau:
1. bổ xung các lỗ nhỏ
2. bổ xung các khấc trong các cạnh
3. Loại bỏ các điểm 1 biệt lập
4. loại bỏ các biếu nhỏ dọc các cạnh
5. bổ xung các góc thiếu
Hai quá trình làm nhẵn đầu tiên được thực hiện bằng cách dung biểu thức Bool sau:
Bi =p+b.g.(d+e) +d.e(b+g) (3.34)
ở đây “.” Và “+” lần lượt là ký hiệu của AND và OR. Theo qui ước, pixel trong mặt
nạ được gán là 1 và pixel trắng được gán là 0. Do đó nếu Bi =1, p được gán là 1, ngược
lại p được gán là 0. Phương trình (3.34) được áp dụng đồng thời cho tất cả các pixel,
trong đó giá trị tiếp theo của mỗi vị trí pixel được xác định trước khi các pixel khác đã
bị thay đổi.
Bước 3,4 được thực hiện tương tự bằng cách đánh giá biểu thức Bool sau:
B2 =p{(a+b+c). (e+g+h)+(b+c+e).(d+f+g)} (3.35)
đồng thời cho tất cả các pixel . Và p=1 nếu B2 =0.
Các điểm thiếu ở góc phải trên được bổ xung bằng biểu thức sau:
B= p (d.f.g) . )( hecba ++++ +p (3.36)
ở đây dấu gạch trên cho biết phần bù logic. Tương tự, các điểm thiếu góc phải dưới
trái trên, và trái dưới được bố sung bằng các biểu thức:
B= p (a.b.d) . )( hecgf ++++ +p (3.37)
B= p (e.g.h) . )( fdcab ++++ +p (3.38)
Và
B= p (b.c.e) . )( fdhag ++++ +p (3.39)
Bốn biểu thức này thực hiện bước 5 của thủ tục làm trơn ảnh:
Ví dụ
1
1 1 1 1 1 1
1 1 1 1 1 1 1
1 1 1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1
1 1
1
1 1 1 1 1
1 1 1 1 1 1 1
1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1 1
1
1
1
3.9(a) Hình ảnh gốc 3.9(b) Ảnh sau khi áp dụng B1
1 1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1 1
3.9 (c) Ảnh sau khi áp dụng B2 3.9 (d) Ảnh cuối cùng sau bước 5
x
1
1 1 1 1 1 1 x
x 1 1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1 1
1 1 1 1 1
x x
3.5 Phát hiện biên
Phát hiện biên đóng vai trò quan trọng trong nhìn thấy máy, được coi là
bước xử lý khởi đầu cho rất nhiều bài toán phát hiện vật.
3.5.1 Nguyên tắc.
Về cơ bản ý tưởng phát hiện biên của vật là tính đạo hàm cục bộ được minh
hoạ trên hình 1.10.
ảnh
Tiết diện
của đường
nằm ngang
Đạo hàm
bậc nhất
Đạo hàm
bậc hai
( a ) ( b )
Hình 3.10. Quá trình phát hiện biên bằng phương pháp lấy đạo hàm
a) Vật sang trên nền đen
b) Vật sang trên nền sang
Toán tử độ dốc: Độ dốc của một hình ảnh f(x,y) tại vị trí (x,y) được định nghĩa
như vectơ hai chiều :
G{f(x,y)} = = ⎥⎦
⎤⎢⎣
⎡
Gy
Gx
⎥⎥
⎥⎥
⎥⎥
⎥
⎦
⎤
⎢⎢
⎢⎢
⎢⎢
⎢
⎣
⎡
y
f
x
f
δ
δ
δ
δ (3.40)
G cho biết hướng tốc độ thay đổi cực đại của f tại vị trí (x,y). Tuy nhiên, trong phát
hiện biên chỉ quan tâm đến giá trị biên độ của véctơ và được gọi là độ dốc và được
ký hiệu là :
G[f(x,y)], ở đây:
G[f(x,y)] = [Gx2 +Gy2]⅟2 = ⎢⎣
⎡ ⎟⎠
⎞⎜⎝
⎛
x
f
δ
δ ⎥⎦
⎤
⎟⎟⎠
⎞
⎜⎜⎝
⎛
y
f
δ
δ (3.41)
Lấy xấp xỉ, ta có:
G[f(x,y)] = |Gx| + |Gy| (3.42)
Việc lấy xấp xỉ dễ thực hiện với phần cứng:
Từ phương trình (3.41) việc tính toán độ dốc dựa vào các đạo hàm bậc nhất
xf δδ và yf δδ . Có một số cách để tính các đạo hàm bậc nhất này trong hình ảnh số.
Một trong các phương pháp đó là sử dụng các vi phân bậc nhất giữa các pixel liền kề
nhau, nghiã là:
Gx = x
f
δ
δ = f(x,y) –f(x-1, y) (3.43)
và:
Gx = x
f
δ
δ = f(x,y) –f(x,y-1) (3.44)
Đối với lân cận kích thước 3x3 tâm tại (x,y), Gx, Gy được tính như sau:
Gx= x
f
δ
δ =
( ) ( ) ( )[ ] ( ) ( ) ( )[ ]
( ) ( )cbaihg
yxfyxfyxfyxfyxfyxf
++−++=
−++−+−−−+++++−+
22
1,1,121,11,1,121,1
(3.45)
Và : Gx= x
f
δ
δ = ( ) ( ) ( )[ ]1,11,21,1 ++++++− yxfyxfyxf
- ( ) ( ) ( )1,11,21,1 −++−+−− yxfyxfyxf
(3.46) ( ) ( gdaec ++−++= 212 )
ở đây các lân cận của (x,y) được biểu diễn bởi các chữ cái từ a đến i. Một lân cận 3x3
cảu (x,y) dung các chữ cái này được trình bày trên hình 3.11a
-1 0 1
-2 0 2
-1 0 1
-1 -2 -1
0 0 0
1 2 1
a b c
d (x,y) e
g h i
3.11(a) Lân cận 3x3 của (x,y) 3.11(b) Mặt nạ để tính Gx 3.11 (c) Mặt nạ để tính
Gy
Việc tính toán độ dốc trên vùng 3x3 có ưu điểm hơn so với dung các phương
trình (3.39) và (3.40) là tăng giá trị trung bình, do đó làm giảm độ dốc giảm nhạy đối
với nhiễu. Dựa {vào phương pháp mặt nạ ta có thể tính Gx theo mặt nạ hình 3.11b và
Gy được tính theo mặt nạ hình 3.11 c. Hai mặt nạ này thường được gọi là các toán tử
Sobel. Các đáp ứng cảu hai mặt nạ này tại điểm (x,y bất kỳ được kết hợp nhờ hai
phương trình (3.37 và (3.38) để có được sự xấp xỉ độ dốc tại điểm đó. Bằng cách di
chuyển các mặt nạ này khắp hình ảnh f(x,y sẽ thu được độ dốc của tất cả các điểm
trong ảnh.
Có nhiều phương pháp tạo ra ảnh lối ra g(x,y ) dựa vào tính toán độ dốc. Phương pháp
đơn giản nhất cho giá trị g tại (x,y) bằng độ dốc của ảnh lối vào tại điểm đó nghĩa là:
G(x,y) = G ( )[ ]yxf , (3.47)
Phương pháp khác tạo ảnh nhị phân bằng cách dùng quan hệ sau:
G(x,y) = (3.48)
⎪⎩
⎪⎨
⎧
0
1
ở đây T là ngưỡng không âm. Trong trường hợp này chỉ các pixel mép mà độ dốc của
chúng lớn hơn T mới được coi là quan trọng . Do đó sử dụng phương trình (3.44) có
thể được xem như là một thủ tục lấy ra những pixel được đặc trưng bởi sự chuyển
dịch đáng kể về cường độ sáng.
Toán tử Laplacian.: Laplacian là một toán tử đạo hàm bậc hai được định nghĩa như
sau:
L = ([ ]yxf , )
2
2
x
f
δ
δ +
2
2
y
f
δ
δ (3.49)
Với các ảnh số, Laplacian được định nghĩa như sau:
L = ([ ]yxf , ) ( ) ( ) ( ) ( )[ ]1,1,,1,1 −+++−++ yxfyxfyxfyxf -4f (x,y) (3.46)
Laplician sẽ bằng 0 trong các vùng không đổi và trên phần dốc của mép. Thực hiện
phương trình (3.46) có thể dựa vào mặt nạ như trong hình 3.10
Hình 3.12. Mặt nạ để tính Laplician
Laplician phản ứng với những sự dịch chuyển về cường độ, toán tử này ít khi được sử
dụng một mình để phát hiện biên. Vì là đạo hàm bậc hai nên nó không nhạy với nhiễu.
Do đó toán tử này thường được coi như bộ phát hiện việc thiết lập pixel cho trước là ở
trên mặt nạ đen hay trắng của mép.
0 1 0
1 4 1
0 1 0
3.6 Lập ngưỡng
Phân ngưỡng là một trong những kỹ thuật chủ yếu được sử dụng tỷong các hệ
thống nhìn trong công nghiệp để phát hiện vật, nhất là trong các ứng dụng đòi hỏi năng
suất dữ liệu cao.
Giả sử biểu đồ cường độ được trình bày trong hình 3.13a tương ứng với một
hình ảnh f(x,y) tạo thành các vật sáng trên nền đen, các pixel nền và vật này có các
cường độ được nhóm thành hai mode trội chủ yếu. Cách để phân chia các vật thành hai
mode là chọn một ngưỡng T và so sánh cường độ của vật với ngưỡng đó. Do đó, một
điểm (x,y) bất kỳ có f(x,y) >T được gọi là một điểm của vật: ngược lại nó là một điểm
của nền. Trong hợp tổng quát hơn được trình bày trong hình 3.13b. Trong trường hợp
này biểu đồ hình ảnh được đặc trưng bởi 3 mode trội (ví dụ hai vật sang trên một nền
tối). Ở đây, ta cũng dung phương pháp cơ bản trên, phân các điểm có T1 < f(x,y) [ 2T <
T1 vào một lớp đối tượng, các điểm có f(x,y) > T2 cho một lớp đối tượng khác và
thuộc nền nếu f(x,y) [ . Loại ngưỡng đa mức này nói chung là độ tin cậy kém hơn 1T
loại ngưỡng đơn mức do sự khó khăn trong việc thiết lập ngưỡng đa mức để tách hiệu
quả các vùng mong muốn, nhất là khi số mode biểu đồ tương ứng là lớn.
T
T1 T2
Hình 3.13. Lược đồ cường độ (a). Một ngưỡng (b) Nhiều ngưỡng
Dựa vào các khái niệm ở trên ta có thể xem lập ngưỡng như là một phép toán như
sau:
T= T ( ) ( )[ ]yxfyxpyx ,,,,
ở đây f(x,y) là cường độ của điểm (x,y)
p(x,y) biểu thị một vài thuộc tính cục bộ của điểm này. Ví dụ như cường độ trung
bình của lân cận có tâm tại (x,y)
Một ảnh g(x,y) đã lấy ngưỡng được định nghĩa như sau:
1 if f(x,y) > T (3.50)
G(x,y) =
0 if f(x,y) T ≤
Do đó bằng cách kiểm tra g(x,y) ta thấy các pixel có giá trị 1 (hoặc mức cường độ
quy ước khác) tương ứng với vật, còn pixel có giá trị không ứng với nền.
Khi T chỉ phụ thuộc vào f(x,y), ngưỡng được gọi là toàn cục hay ngưỡng đơn (hình
3.10a). Nếu T phụ thuộc cả f(x,y) và p(x,y), ngưỡng cục bộ hay đa ngưỡng (hình
3.10b). Ngoài ra nếu T phụ thuộc vào các tọa độ x và y, nó được gọi là ngưỡng .
PHẦN 2:PHẦN THỰC NGHIỆM
Hình P2.1: Mô hình thực nghiệm : camera và mạch đk motơ bước.
• TÓM TẮT MÔ HÌNH SẢN PHẨM WEBCAM TỰ ĐỘNG THEO
DÕI ĐỐI TƯỢNG DI CHUYỂN:
Như là một phần của đề tài, tôi đã cho thực hành cho camera theo dõi vật dựa
trên phần cứng đơn giản.Với mục tiêu minh hoạ cho đề tài nên các phần cứng và
chương trình đã được đơn giản hoá …như là camera chỉ bám vật theo hai chiều trái và
phải, chương trình cũng chỉ cho phép điều khiển camera bám theo một vật chuyển
động duy nhất.Tuy nhiên ở phần lý thuyết sau đây tôi sẽ cố gắng trình bày những gì tốt
nhất của đề tài thực sự có thể làm được.Nền tảng cho chương trình ở đây là thư viện
mã mở của Microsoft: AVICap và được triển khai trên nền của ngôn ngữ lập trình
Visual C++ vesion 6.0.
webcam
USB camera
LPT port
Môtơ
Bước
PC
Hình P2.2: Sơ đồ khối mô hình thưc nghiệm
CHƯƠNG 1: NGÔN NGỮ LẬP TRÌNH
1.1 Giới thiệu
Hiện nay có rất nhiều ngôn ngữ lập trình mới và mạnh. Các ngôn ngữ lập trình trên
Window vừa có khả năng như các ngôn ngữ chạy trong DOS vừa có khả năng
cung cấp một giao diện trực quan giúp người sử dụng giao tiếp với ứng dụng một
cách
dễ dàng. Ngôn ngữ lập trình Visual C++ là một trong những ngôn ngữ như vậy. Trong
luận văn sẽ sử dụng ngôn ngữ này.
1.2 Một số hàm và thủ tục xử lý ảnh
1.2.1 Tạo một số cửa sổ hiện ảnh.
Để tạo một cửa sổ ta dùng hàm “capCreateCaptureWindow”
Ví dụ:
HWndc = capCreateCaptureWindow (
(LPSTR) “My Capture Window”, // tên cửa sổ
WS_CHILD | WS_VISIBLE, // tên cửa sổ
0, 0, 160, 120, // vị trí và kích thước của cửa sổ
(HWND) hwndParent,
(int) nID/ * child ID */);
1.2.2 Kết nối với thiết bị thu ảnh.
Để kết nối và dừng kết nối cửa sổ hiện ảnh với thiết bị thu ảnh dùng macro
“capDriverDisconnect”.
Ví dụ:
fOK = SendMessage (hWndc, WM_CAP_DRIVER_CONNECT, 0, 0L);
CapDriverDisconnect(hWndC);
1.2.3. Thiết lập trạng thái của cửa sổ hiện ảnh.
Để thiết lập kích thước của cửa sổ hiện ảnh cho tất cả các chiều hình ảnh nhận
được từ macro “capGetStatus” trong cấu trúc CAPSTATUS ta sử dụng hàm
“SetWindowPos”.
Ví dụ:
CAPSTATUS CapStatus;
CapGetStatus (hWndC, &CapStatus, sizeof (CAPSTATUS) );
SetWindowPos (hWndC, NULL, 0, 0, CapStatus.uiImageWidth,
CapStatus.uiImageHeight, SWP_NOZORDER |SWP_NOMOVE);
1.2.4. Hiển thị các hộp thoại để thiết lập các thông số của hình ảnh.
Mỗi cửa sổ hiện ảnh có thể cung cấp 3 hộp thoại khác nhau dùng để điều khiển
các khía cạnh của quá trình số hóa hình ảnh và hiện ảnh. Trước khi hiển thị mỗi hộp
thoại cần gọi macro “capDriverGetCaps” và kiểm tra cấu trúc CAPDRIVERCAPS
khai báo xem cửa sổ hiện ảnh có hiện thị hộp thoại hay không.
Ví dụ:
CAPDRIVERCAPS CapDriverCaps;
CapDriverGetCaps (hWndC, & CapDrvCaps, sizeof (CAPDRIVERCAPS) );
// hiện thị hộp thoại nguồn hình ảnh.
If (CapDriverCaps.fHasDlgVideoSource)
CapĐlgVideoSource (hWndC);
// hiện thị hộp thoại khuôn dạng hình ảnh.
If (CapDriverCaps.fHasDlgVideoFormat)
{
CapĐlgVideoFormat (hWndC);
// Có các kích thước hình ảnh mới không?
CapGetStatus (hWndC, &CapStatus, sizeof (CAPSTATUS));
// nếu có báo cho cửa sổ tra về sự thay đổi kích thước.
}
// hiển thị hộp thoại hiển thị hình ảnh.
If (CapDriverCaps.fHasDlgVideoDisplay)
CapDgVideoDisplay (hWndC);
1.2.5. Lấy và thiết lập khuôn dạng hình ảnh.
Cấu trúc BITMAPINFO có chiều dài thay đổi để cung cấp các khuôn dạng dữ
liệu nén chuẩn. Vì chiều dài của cấu trúc là thay đổi, nên trong các ứng dụng luôn luôn
cần phải xác định kích cỡ và cấp phát bộ nhớ cho cấu trúc trước khi tìm kiếm khuôn
dạng hình ảnh. Marco “capGetVideoFormatSize” để xác định kích cỡ bộ đệm và hàm
“capGetVideoFormat” để xác định khuôn dạng hình ảnh hiện tại .
Ví dụ:
LPBITMAPINFO lpbi;
DWORD dwSize;
DwSize =capGetVideoFormatSize (hwndC);
lpbi= GlobalAllocPtr (GHND, dwSize);
capGetVideoFormat (hwndC, lpbi, dwSize);
Các ứng dụng có sử dụng marco “capSetVideoFormat” (hoặc thông báo WM
CAP SET VIDEOFORMAT) để gửi cấu trúc tiêu đề BITMAPINFO tới các cửa sổ bắt
ảnh. Vì các khuôn dạng hình ảnh ứng với thiết bị riêng nên trong ứng dụng cần kiểm
tra giá trị trả về để xác định khuôn dạng có được chấp nhận hay không.
1.2.6. Duyệt trước hình ảnh
Để thiết lập tốc độ hiển thị khung cho mode duyệt trước ta sử dụng macro
“capPreviewRate” và sử dụng macro “capPreview” để thay thế cửa sổ hiện ảnh
trong mode duyệt trước.
Ví dụ:
CapPreviewRate (hWndC, 66); // tốc độ hiển thị tính bằng ms
CapPreview (hWndC, TRUE); // bắt đầu duyệt
// Duyệt
capPreview (hWndC, FALSE); // Ngừng duyệt
1.2.7. Thay đổi thiết lập cho hình ảnh hiện.
Để thay đổi tốc độ hiện hình ảnh từ giá trị mặc định ta sử dụng các macro
“capPreviewGetSetup” và “capCaptureSetSetup”
Ví dụ:
CAPTUREPARMS CaptureParms;
Float FramesPerSec = 10,0;
CapCaptureGetSetup (hwndC, &CaptureParms, sizeof (CAPTUREPARMS));
CaptureParms.dwRequestMicroSecPerDFrame = (DWORD) (1.0e6/ FramesPerSec);
CapCaptureSetup (hWndC, & CaptureParms, sizeof (CAPTUREPARMS));
1.2.8. Thêm các hàm Callback cho một ứng dụng.
Một ứng dụng có thể đăng ký hàm gọi lại với cửa sổ hiện ảnh để nó thông báo ứng
dụng trong các tình huống sau:
• Thay đổi trạng thái
• Có lỗi xảy ra
• Các bộ đệm âm thanh và khung hình ảnh có thể sử dụng
• ứng dụng đang thực thi
Ví dụ tạo một cửa sổ hình ảnh và đăng ký các hàm Callback khung, chuỗi hình ảnh,
lỗi và trạng thái. Ví dụ cũng đưa vào một câu lệnh đơn giản để ngăn chặn hàm
Callback.
Ví dụ:
Case WM_CREATE:
{
char achDeviceName [80];
char achDeviceVersion [100];
char achBuffer [100];
WORD wDriverCount = 0;
WORD wIndex;
WORD wError;
HMENU hMenu;
// taọ cửa sổ hiện hình ảnh sử dụng macro “capCreateCaptureWIndow”.
GhWndCap = capCreateCaptureWindow ((LPSTR) “CaptureWindow”,
WS_CHILD | WS_VISIBLE, 0, 0,160, 120, (HWND) hWnd, (int) 0),
Đăng ký hàm callback lỗi sử dụng macro “capSetCallbackOnError”.
CapSetCallbackOnError (ghWndCap, fpErrorCallback);
// Đăng ký hàm Callback trạng thái sử dụng macro “capSetCallbackOnStatus”.
CapSetCallbackOnStatus (ghWndCap, fpStatusCallback);
// Đăng ký hàm Callback trạng thái sử dụng macro “ capSerCallbackOnStatus”.
CapSetCallbackOnFrame (ghWndCap, fpFrameCallback);
//Kết nối vưói thiết bị thu ảnh.
Break;
}
case WM_CLOSE
{
// Để ngừng callback khung sử dụng macro “capSetCallbackOnFrame”. Tương tự với
các hàm callback khác.
CapSetCallbackOnFrame (hWndC, NULL);
Break;}
CHƯƠNG 2: ĐIỀU KHIỂN CỔNG LPT TRÊN
WINDOWS NT/2000/XP
2.1 Đặt vấn đề
Viết chương trình giao tiếp với cổng song song của máy tính thật đơn giản với
Dos và cả với Win95/98.Chúng ta có thể sử dụng các hàm Inportb() và Outportb() hay
là _inp() và _outp() một cách trực tiếp và không mắc phải bất cứ vấn đề gì.Nhưng khi
làm việc với các hệ điều hành mới hơn như là WinNT4, Win2000 hay là WinXP, mọi
điểu tưởng như đơn giản đó không còn nữa. Khi chúng ta cố gắng chạy một chương
trình sử dụng các hàm thông thường như là inportb() , outportb() hay là _inport() và
_outp() trên hệ điều hành như Win2000, lập tức sẽ xuất hiện thông báo lỗi như sau :
"The exception privileged instruction occurred in the application at location ...."
Khi bắt đầu nhìn thấy thông báo trên, ta có thể nghĩ rằng “Mình đã mắc lỗi
ở đâu đó trong chương trinh ?” nhưng rõ ràng chương trình chạy tốt trên Win98
…vậy thì lỗi là do đâu ?Câu trả lời sẽ được giải đáp ở ngay sau đây.
Là một biện pháp bảo mật hệ thống , Windows NT hạn chế một số đặc
quyền của các loại ngôn ngữ lập trình khác chạy trên nó. Windows sắp xếp tất cả các
chương trình thành hai loại , đó là mode người dùng (user mode) và mode nhân(kenel
mode); chạy trên mode ring3() (với mode người dùng) và mode ring() với mode nhân.
Mode người dùng bị hạn chế sử dụng các hàm liên quan đến IN, OUT …Nên khi mà
hệ điều hành phát hiện chương trình ở mode người dùng đang cố gắng chạy các hàm
đó, Hệ điều hành sẽ lập tức dừng chương trình đó lại và đưa ra thông báo lỗi như ta
thấy.
Cuối cùng là các giao tiếp sẽ bị chặn đứng bởi hệ điều hành khi ta cố gắng
thực thi các lệnh đọc và viết thông qua cổng song song.Nhưng trong khi đó , đối với
các chương trình thực hiện ở mức nhân thì hệ điều hành không có cách nào để ngăn
chặn được.Các driver thiết bị có thể chạy ở mức nhân của hệ thống, Như vậy cách giải
quyết ở đây là chúng ta bắt đầu vấn đề với việc viết một chương trình dưới kernel
mode để đọc và viết dữ liệu qua cổng song song còn chương trình truyền dữ liệu tới đó
sẽ là ở mode người sử dụng.Điều này không hẳn là dễ dàng nhưng chúng ta đã có sự
hỗ trợ bởi các driver đã được cài đặt và tùy chỉnh.
2.2.Lời giải đáp cho bài toán trên:
Ở đây sẽ giới thiệu về inpout32.dll cho Win98/2000/NT/XP , dll này có những đặc
điểm sau:
1.Nó làm việc như nhau đối với tất cả các hệ điều hành Win98/2000/NT và XP.
2.Nó có thể điều khiển thiết bị ở mức nhân.
3.Không yêu cầu các phần mềm khác hay là thiết bị khác phải được cài đặt
4.Không cần các hàm đặc biệt API , chỉ cần hai hàm đó là Inp32 và Out32.
5.Driver sẽ được tự động cài đặt và tùy chỉnh khi mà dll này được load tới.
6.Có thể dễ dàng sử dụng với VC++ và VB.
7.Tài liệu sử dụng và mã nguồn miễn phí được cung cấp và hướng dẫn tại
2.3.Cách làm việc với inport32.dll:
Inpout32.dll có thể làm việc dưới tất cả các hệ điều hành mà không cần sửa đổi mã
chương trình cần soạn thảo. Khi bắt đầu làm việc, DLL này sẽ kiểm tra hệ điều hành
đang được sử dụng , nếu là 9X thì Dll se sử dụng các hàm _inp() và _outp() để đọc
cổng song song, còn nếu là WINNT hay 2000/XP , nó sẽ cài đặt driver ở mức nhân và
thông báo cho cổng song song biết driver đã được cài đặt.Thực tế thì mã sử dụng
không thể hiểu được đang chạy trên hệ điều hành gì? Dll này có thể sử dụng trên tất cả
các phiên bản Windows như nhau .Có thể minh họa các ý trên như sau:
Người dùng gọi các
hàm inp32() hoặc
out32()
Kiểm tra phiên bản hệ điều hành
Win9X WinNT
Y N
Y
N
Driver đọc hoặc ghi dữ liệu
từ cổng Song Song sử dụng
các hàm HAL
Kiểm tra hwinterface.sys
driver kernel mode đã
được load tới?
Cài đặt
driver
Cố gắng load tới driver
này thành công ?
Cho phép dữ liệu
được truyền nhờ
driver, sử dụng thư
viện API
Sử dụng thư viện các hàm
_inp() và _out() để truyền
dữ liệu
Kết thúc
Có hai khối quan trọng của chương trình là:
1. Driver dành cho thiết bị ở kernel mode dựa trên DLL trong mã nhị phân
2. DLL Inpout32 mà ta đang xét.
Kernel mode driver Hwinterface.sys
Mã nguồn của Hwinterface.sys được định vị bởi thư mục
“kernel_mode_drever_source”,tại đó thì “hwinterfacedrv.c” là file nguồn chính.Bao
gồm các chức năng sau :
1) ‘Driver Entry’: được gọi khi mà driver đã được load tới, nó tạo tới thiết bị một
liên kết tượng trưng.
2)’hwinterfaceUnload’,được gọi khi driver không còn được tham chiếu tới nữa.
3)’hwinterfaceDeviceControl’, điều khiển thông qua DeviceIOControl API, cho
phép đọc và viết qua cổng song song nhờ các mã thông thường.
DLL Inpout32
Các hàm trong thư viện DLL được độc lập cung cấp bởi hai file , đó là
“inpout32drv.cpp” và “osversion.cpp”.Oversion.cpp kiểm tra phiên bản hệ điều
hành.Còn “inpout32drv.cpp” có nhiệm vụ cài đặt driver cho mode kernel , dẫn tới đó,
viết/đọc cổng song song, …Hai chức năng được inpout32.dll support là:
1)’Inp32’, đọc dữ liệu từ cổng song song.
2)’Out32’, ghi dữ liệu ra cổng song song.
Các chức năng được cung cấp bởi Inpout32.dll là :
1)’DllMain’,được gọi khi dll được load tới hay không load tới.Khi dll này được load
tới,nó sẽ kiểm tra phiên bản của hệ điều hành và load tới hwinterface.sys nếu cần.
2)’Closedriver’,điều khiển driver đóng hay mở, được gọi trước khi gỡ bỏ driver ra.
3)’Opendriver’,mở một driver trong hwinterface.
4)’inst’,giải nén ‘hwinterface.sys’ từ mã nhị phân tới thư mục ‘systemroot\driver’ để
phục vụ, hàm này được gọi khi mà hàm ‘Opendriver ’ không thể thực thi trong
‘hwinterface’.
5)’Start’,khởi động dịch vụ hwinterface sử dụng Service Control Manager API.
6)’System Version’ kiểm tra phiên bản hệ điều hành, trả lại giá trị tương ứng.
* ngoài ra, còn có thể sử dụng hwinterface.ocx ActiveX control (cho cả VB và
VC++, nhưng tốt hơn là nên sử dụng với VB) giống như là hwinterface.dll
CHƯƠNG 3: MINH HỌA THUẬT TOÁN VÀ CHƯƠNG TRÌNH
Hình P2.3.1: Minh họa sản phẩm
Hình P2.3.2: Ảnh camera bắt được khi xử lý với một vật thể .
Trong ứng dụng thử nghiệm này, tôi chọn một lớp ứng dụng của window đó là
AVICap để thực hành bám đối tượng.AVICap là một lớp ứng dụng của Window cung
cấp các ứng dụng vô cùng thuận lợi cho việc viết các chưng trình giao tiếp đặc biệt là
truy nhập các thiết bị video như là camera đã được sử dụng trong chưng trình demo
này.
Kết hợp với lớp “inpout32drv.cpp” để có thể điều khiển cổng song song cho
chức năng điều khiển chuyển động của đế camera.
#include
Để có thể bám theo đối tượng từ dữ liệu nhận vào của một camera động, chúng
ta hiển nhiên cần thu thập và phân tích các khung ảnh (frame) riêng rẽ đang được thu
thập và xủ lý .Và để thu thập các frame này trước khi duyệt, ta sử dụng
capSetCallbackOnFrame macro.
BOOL capSetCallbackOnFrame(HWND hwnd, FrameCallback fpProc);
HWND hwnd: (Handle to the capture window )Điều khiển các cửa sổ ảnh .
FrameCallback fpProc: Con trỏ chỉ tới hàm duyệt được gọi lại sau mỗi frame
.Các giá trị NULL dành cho các tham số bên trong nếu như vô hiệu hoá các giá trị
được cài đặt tại hàm duyệt lại ngay trước đó.
typedef LRESULT (*FrameCallback)(HWND hWnd, LPVIDEOHDR lpVideoHdr);
Lớp LPVIDEOHDR được minh hoạ bởi:
typedef struct videohdr_tag {
LPBYTE lpData; /* Con trỏ đệm Pointer to buffer. */
DWORD dwBufferLength; /* Độ dài của bộ đệm Length of buffer. */
DWORD dwBytesUsed; /* Số byte thực tế đã sử dụng Bytes actually used. */
DWORD dwTimeCaptured; /* Thời gian bắt đầu nhận luồng frame nh Timefrom
start of stream. */
DWORD dwUser;
DWORD dwFlags; /*Các Cờ Flags. */
DWORD dwReserved[4];
}
#define VHDR_DONE 0x00000001
#define VHDR_PREPARED 0x00000002
#define VHDR_INQUEUE 0x00000004
#define VHDR_KEYFRAME 0x00000008
Mỗi một khung tiến trình gọi lại được kết hợp với cửa sổ chụp ảnh, Chúng ta sẽ
xét tất cả các khung để bắt đầu bám theo đối tượng.
Color Space
Trước khi bắt đầu tiến trình với các frame ảnh, quan trọng là chúng ta phải hiểu
được sự khác nhau giữa các không gian màu được video số hoá .Có nhiều không gian
màu có thể được sử dụng, mỗi một loại có cường độ và giới hạn khác nhau.Việc chọn
chính xác bảng màu sẽ làm đơn giản hoá những tính toán quan trọng và phức tạp.
Đặc trưng màu mà chúng ta sẽ tìm hiểu ở chưng trình demo này là độ sáng, và
chúng ta sẽ bám theo đối tượng dựa trên sự đánh giá về độ sáng .Một cách tiếp cận rất
đơn giản và chắc chắn đó là chia ra các thành phần của độ sáng .YUV là một không
gian màu rất cần thiết mà chúng ta cần tìm hiểu, tuy nhiên , YUV không phi là định
dạng có thể thu được từ một webcam.Vậy nên, có một sự thay thế khác đó là sự phụ
thuộc vào RGB24 là định dạng vào của một webcam tới YUV.
Mối quan hệ giữa RGB và YUV có thể minh hoạ bởi một mối quan hệ tuyến
tính sau:
[ Y ] [ 0.257 0.504 0.098 0.063 ][ R ]
[ U ] = [ -0.148 -0.291 0.439 0.500 ][ G ]
[ V ] [ 0.439 -0.368 -0.072 0.500 ][ B ]
[ 1 ] [ 0.000 0.000 0.000 1.000 ][ 1 ]
Ma trận kết qu này là c sở cho các phép biến đổi số học tuyến tính, mà ở trong
trường hợp này, giống như là phép biến đổi với hệ cơ sở bậc ba mới với các cơ sở
thành phần là R = G = B
Đặc trưng bám vật:
Bây giờ chúng ta sẽ truy nhập trực tiếp đến độ sáng của mỗi điểm ảnh.Có một
thuật toán đơn giản có thể làm được điều là bám theo vật và xem vật như là đn giản chỉ
là một đối tượng sáng .Thuật toán đó sẽ được giới thiệu ngay sau đây và xin tạm gọi
đó là “Thuật toán hình chữ nhật”.Thuật toán hình chữ nhật giữ và bám theo luôn luôn
tại bốn điểm tương đối của vật tại mỗi khung ảnh nhận được(frame), một điểm cao
nhất , một điểm thấp nhất , điểm trái nhất và điểm phải nhất nơi mà độ sáng vượt quá
một giá trị ngưỡng xác định nào đó.
Phải chắc chắn là đã sử dụng định dạng RGB24 cho lối vào của Webcam với
đoạn mã sau đây:
LRESULT CChildView::FrameCallbackProc(HWND hWnd, LPVIDEOHDR
lpVideoHdr)
{
...
...
for (int i=0; i<nHeight; ++i)
{
for (int j=0; j<nWidth; ++j)
{
/*Lấy. chỉ số bộ đệm thích hợp */
index = 3*(i*nWidth+j);
/* Tính toán các thành phần màu */
Y = floor(0.299*lpData[index+2] + 0.587*lpData[index+1] +
0.114*lpData[index] + 0.5);
/* Nếu độ sáng vượt quá giá trị ngưỡng cho phép*//
if (Y > bThreshold)
{
/*Khởi tạo con trỏ */
if (init)
{
if (pLeft.x > j) {
pLeft.x = j;
pLeft.y = i;
}
if (pRight.x < j) {
pRight.x = j;
pRight.y = i;
}
pBottom.x = j;
pBottom.y = i;
}
/* Luôn luôn bám theo bốn góc của đối tượng. */
else {
pTop.x = pBottom.x = pLeft.x = pRight.x = j;
pTop.y = pBottom.y = pLeft.y = pRight.y = i;
init = true;
}
}
}
}
...
...
}
Hình chữ nhật có thể được xây dung lên tử các điểm trên, cái đó cho ta biết đâu
là vị trí của vật sáng , Khung của hình chữ nhật sau đó được dễ dàng thay thế bởi một
màu được định nghĩa tử trước.
if (init) {
/*Thay thế khung với các điểm màu được xác định trước. */
for (int i=pLeft.x; i<=pRight.x; ++i) {
index = 3*((pTop.y)*nWidth + i); /* Trên */
lpData[index] = 0; /* B */
lpData[index+1] = 0; /* G */
lpData[index+2] = 255; /* R */
index = 3*((pBottom.y)*nWidth + i); /* Dưới */
lpData[index] = 0; /* B */
lpData[index+1] = 0; /* G */
lpData[index+2] = 255; /* R */
}
for (int i=pTop.y; i<=pBottom.y; ++i) {
index = 3*((i)*nWidth + pLeft.x); /* Trái */
lpData[index] = 0; /* B */
lpData[index+1] = 0; /* G */
lpData[index+2] = 255; /* R */
index = 3*((i)*nWidth + pRight.x); /* Phải */
lpData[index] = 0; /* B */
lpData[index+1] = 0; /* G */
lpData[index+2] = 255; /* R */
}
}
Thuật toán này rõ ràng còn chứa nhiều khuyết điểm:
i> Nó chỉ cho biết vị trí của vật trên màn hình.
ii> Nó không cho ta biết một chút thông tin gì về hình dạng của vật.
iii> Nó không cho ta biết đâu là trọng tâm của vật.
iv> Và quan trọng nhất, nó không bao giờ có thể bám nếu có nhiều đối tượng
chuyển động(Tuy nhiên , do tính thử nghiệm nên đề tài này sẽ sử dụng ngay thuật toán
này để áp dụng)
Một thuật toán cải tiến hơn:
Hình P3.2.3 :Ảnh camera bắt được nhiều vật
Thuật toán này phát hiện theo đối tượng bằng cách nhận dạng các đoạn phần
tử tạo nên đối tượng trên màn hình. Mỗi đoạn được tạo nên bởi tiêu đề và độ dài của
mỗi đoạn đó.Đối tượng được cấu trúc nên bởi các nhóm đoạn đó với nhau.
BYTE Y; int index;
/* --Biến sử dụng bởi thuật toán mới này. -- */
QSEG segment;
std::list object;
for (int i=0; i<nHeight; ++i) {
segment.length = 0;
for (int j=0; j<nWidth; ++j) {
index = 3*(i*nWidth+j);
Y = floor(0.299*lpData[index+2] + 0.587*lpData[index+1] +
0.114*lpData[index] + 0.5);
if (Y > bThreshold) {
if (segment.length == 0) {
segment.head.x = j;
segment.head.y = i;
}
++segment.length;
}
}
if (segment.length) {
object.push_back(segment);
}
}
/* --Vẽ nên hình dáng của đối tượng với màu được định trước. -- */
for (std::list::iterator i=object.begin(); i!=object.end(); ++i) {
index = 3*((*i).head.y*nWidth + (*i).head.x);
lpData[index] = 255;
lpData[index+1] = 0;
lpData[index+2] = 255;
index = 3*((*i).head.y*nWidth + (*i).head.x + (*i).length);
lpData[index] = 255;
lpData[index+1] = 0;
lpData[index+2] = 255;
}
Thuật toán mới này đã có những cải tiến tốt hơn sau:
i> Nó có thể theo dõi nhiều đối tượng.
ii> Nó có thể theo dõi được hình dáng của các đối tượng
iii> Số lượng các điểm ảnh tạo nên đối tượng có thể dễ dàng tính toán được.Với các
mẫu thông tin và cách tính toán khong cách thích hợp, toạ độ của đối tượng trong ba
chiều cũng có thể được xác định
• Phần Chương Trình :
// ChildView.cpp : implementation of the CChildView class
#include "stdafx.h"
#include "Tracker.h"
#include "MainFrm.h"
#include "ChildFrm.h"
#include "ChildView.h"
#include "TrackDlg.h"
#include
#include
#ifdef _DEBUG
#define new DEBUG_NEW
#endif
typedef struct QSEG_ {
POINT head;
UINT length;
} QSEG, *LPQSEG;
// CChildView
BYTE CChildView::bThreshold = 250;
DWORD CChildView::dwRectangle = 0;
DWORD CChildView::dwSegment = 0;
CChildView::CChildView()
{
}
CChildView::~CChildView()
{
}
BEGIN_MESSAGE_MAP(CChildView, CWnd)
ON_WM_PAINT()
ON_COMMAND(ID_DEVICE_REFRESH, OnDeviceRefresh)
ON_COMMAND_RANGE(ID_DEVICE_NAME,
ID_DEVICE_NAME+CVideoCapWnd::m_dwDeviceMax, OnDeviceName)
ON_COMMAND(ID_CAPTURE_SOURCE, OnCaptureSource)
ON_COMMAND(ID_CAPTURE_FORMAT, OnCaptureFormat)
ON_COMMAND(ID_CAPTURE_DISPLAY, OnCaptureDisplay)
ON_WM_SIZE()
ON_COMMAND_RANGE(ID_CAPTURE_100, ID_CAPTURE_200,
OnCaptureZoom)
ON_COMMAND(ID_TRACK_BRIGHTNESS, OnTrackBrightness)
ON_COMMAND(ID_TRACK_STOP, OnTrackStop)
ON_COMMAND(ID_CAPTURE_STOP, OnCaptureStop)
END_MESSAGE_MAP()
// CChildView message handlers
BOOL CChildView::PreCreateWindow(CREATESTRUCT& cs)
{
if (!CWnd::PreCreateWindow(cs))
return FALSE;
cs.dwExStyle |= WS_EX_CLIENTEDGE;
cs.style &= ~WS_BORDER;
cs.lpszClass =
AfxRegisterWndClass(CS_HREDRAW|CS_VREDRAW|CS_DBLCLKS,
::LoadCursor(NULL, IDC_ARROW),
reinterpret_cast(COLOR_WINDOW+1), NULL);
return TRUE;
}
void CChildView::OnPaint()
{
CPaintDC dc(this); // device context for painting
// TODO: Add your message handler code here
// Do not call CWnd::OnPaint() for painting messages
}
void CChildView::OnDeviceRefresh()
{
/* -- Get device menu. --*/
CMenu *mDev = AfxGetMainWnd()->GetMenu()->GetSubMenu(3);
MENUITEMINFO miInfo;
do
{
/* -- Find position of separator. -- */
miInfo.cbSize = sizeof(MENUITEMINFO);
miInfo.fMask = MIIM_TYPE;
mDev->GetMenuItemInfo(0, &miInfo, TRUE);
/* -- Delete all entries before separator. -- */
if (miInfo.fType != MFT_SEPARATOR) {
mDev->DeleteMenu(0, MF_BYPOSITION);
}
} while (miInfo.fType != MFT_SEPARATOR);
/* -- Put device names before separator. -- */
CString strDevName, strDevVer;
for (DWORD i=0; i<m_theVideoCapWnd.m_dwDeviceMax; ++i) {
m_theVideoCapWnd.GetDriverDescription(i, strDevName, strDevVer);
if (strDevName.GetLength()) {
mDev->InsertMenu(0, MF_BYPOSITION, ID_DEVICE_NAME+i,
strDevName);
}
}
}
void CChildView::OnDeviceName(UINT nID)
{
/* -- Get device index by subtracting the offset. -- */
nID = nID - ID_DEVICE_NAME;
CString strErr;
/* -- Create the capture window if we haven't done do. -- */
if (m_theVideoCapWnd.m_hWnd == NULL) {
m_theVideoCapWnd.CreateCaptureWindow(CString(""), WS_CHILD |
WS_VISIBLE, CRect(0,0,0,0), this, 0);
if (m_theVideoCapWnd.m_hWnd == NULL) {
strErr.LoadString(IDS_ERR_CAPWND);
MessageBox(strErr);
return;
}
}
/* -- Attempt to connect to driver. -- */
if (m_theVideoCapWnd.DriverConnect(nID) == FALSE) {
strErr.LoadString(IDS_ERR_CONNECT);
MessageBox(strErr);
return;
}
/* -- Retrieve device parameters. -- */
CAPTUREPARMS capParms;
if (m_theVideoCapWnd.CaptureGetSetup(&capParms, sizeof(CAPTUREPARMS))
== FALSE) {
strErr.LoadString(IDS_ERR_GETSETUP);
MessageBox(strErr);
return;
}
/* -- Want separate thread. -- */
capParms.fYield = TRUE;
/* -- Do not abort when left mouse button is clicked. -- */
capParms.fAbortLeftMouse = FALSE;
/* -- Do not abort when right mouse button is clicked. -- */
capParms.fAbortRightMouse = FALSE;
/* -- Update device parameters. -- */
if (m_theVideoCapWnd.CaptureSetSetup(&capParms, sizeof(CAPTUREPARMS))
== FALSE) {
strErr.LoadString(IDS_ERR_SETSETUP);
MessageBox(strErr);
return;
}
/* -- Get current state of capture window. -- */
CAPSTATUS capStat;
if (m_theVideoCapWnd.GetStatus(&capStat, sizeof(CAPSTATUS)) == FALSE) {
strErr.LoadString(IDS_ERR_GETSTAT);
MessageBox(strErr);
return;
}
m_theVideoCapWnd.SetWindowPos(NULL, 0, 0, capStat.uiImageWidth,
capStat.uiImageHeight, SWP_NOMOVE | SWP_NOZORDER);
GetParentFrame()->SetWindowPos(NULL, 0, 0, capStat.uiImageWidth,
capStat.uiImageHeight, SWP_NOMOVE);
/* -- Set preview rate. -- */
if (m_theVideoCapWnd.PreviewRate(33) == FALSE) {
strErr.LoadString(IDS_ERR_PREVRATE);
MessageBox(strErr);
return;
}
/* -- Turn on scaling. -- */
if (m_theVideoCapWnd.PreviewScale(TRUE) == FALSE) {
strErr.LoadString(IDS_ERR_PREVSCALE);
MessageBox(strErr);
return;
}
/* -- Start preview. -- */
if (m_theVideoCapWnd.Preview(TRUE) == FALSE) {
strErr.LoadString(IDS_ERR_PREV);
MessageBox(strErr);
return;
}
}
void CChildView::OnCaptureSource()
{
CString strErr;
/* -- Retrieve device capabilities. -- */
CAPDRIVERCAPS capCap;
if (m_theVideoCapWnd.DriverGetCaps(&capCap, sizeof(CAPDRIVERCAPS)) ==
FALSE) {
strErr.LoadString(IDS_ERR_GETCAPS);
MessageBox(strErr);
return;
}
/* -- Check if device supports video source dialog. -- */
if (capCap.fHasDlgVideoSource) {
if (m_theVideoCapWnd.DlgVideoSource() == FALSE) {
strErr.LoadString(IDS_ERR_SOURCE);
MessageBox(strErr);
}
}
else {
strErr = "Device does not support video source dialog.";
MessageBox(strErr);
}
}
void CChildView::OnCaptureFormat()
{
CString strErr;
/* -- Retrieve device capabilities. -- */
CAPDRIVERCAPS capCap;
if (m_theVideoCapWnd.DriverGetCaps(&capCap, sizeof(CAPDRIVERCAPS)) ==
FALSE) {
strErr.LoadString(IDS_ERR_GETCAPS);
MessageBox(strErr);
return;
}
/* -- Check if device supports video format dialog. -- */
if (capCap.fHasDlgVideoFormat) {
if (m_theVideoCapWnd.DlgVideoFormat() == FALSE) {
strErr.LoadString(IDS_ERR_FORMAT);
MessageBox(strErr);
}
}
else {
strErr = "Device does not support video format dialog.";
MessageBox(strErr);
}
}
void CChildView::OnCaptureDisplay()
{
CString strErr;
/* -- Retrieve device capabilities. -- */
CAPDRIVERCAPS capCap;
if (m_theVideoCapWnd.DriverGetCaps(&capCap, sizeof(CAPDRIVERCAPS)) ==
FALSE) {
strErr.LoadString(IDS_ERR_GETCAPS);
MessageBox(strErr);
return;
}
/* -- Check if device supports video display dialog. -- */
if (capCap.fHasDlgVideoDisplay) {
if (m_theVideoCapWnd.DlgVideoDisplay() == FALSE) {
strErr.LoadString(IDS_ERR_DISPLAY);
MessageBox(strErr);
}
}
else {
strErr = "Device does not support video display dialog.";
MessageBox(strErr);
}
}
void CChildView::OnSize(UINT nType, int cx, int cy)
{
CWnd::OnSize(nType, cx, cy);
// TODO: Add your message handler code here
/* -- Centralize the video capture window. -- */
if (m_theVideoCapWnd.m_hWnd != NULL) {
CRect paRect, cpRect;
GetClientRect(&paRect);
m_theVideoCapWnd.GetClientRect(&cpRect);
m_theVideoCapWnd.SetWindowPos(NULL, 0, 0, paRect.Width(),
paRect.Height(), SWP_NOMOVE | SWP_NOZORDER);
}
else {
/* -- Resize the child window. -- */
GetParentFrame()->SetWindowPos(NULL, 0, 0, 200, 200, SWP_NOMOVE);
}
}
void CChildView::OnCaptureZoom(UINT nID)
{
if (m_theVideoCapWnd.m_hWnd != NULL) {
/* -- Get current state of capture window. -- */
CAPSTATUS capStat;
if (m_theVideoCapWnd.GetStatus(&capStat, sizeof(CAPSTATUS))) {
UINT nZoom = nID - ID_CAPTURE_100 + 1;
UINT nWidth = capStat.uiImageWidth * nZoom;
UINT nHeight = capStat.uiImageHeight * nZoom;
m_theVideoCapWnd.SetWindowPos(NULL, 0, 0, nWidth, nHeight,
SWP_NOMOVE | SWP_NOZORDER);
CMDIChildWnd *pChild = DYNAMIC_DOWNCAST(CMDIChildWnd,
GetParentFrame());
pChild->MDIRestore();
GetParentFrame()->SetWindowPos(NULL, 0, 0, nWidth, nHeight,
SWP_NOMOVE);
}
else {
CString strErr;
strErr.LoadString(IDS_ERR_GETSTAT);
MessageBox(strErr);
}
}
}
LRESULT CChildView::FrameCallbackProc(HWND hWnd, LPVIDEOHDR
lpVideoHdr)
{
CVideoCapWnd theVideoCapWnd;
CAPSTATUS capStat;
theVideoCapWnd.Attach(hWnd);
if (theVideoCapWnd.GetStatus(&capStat, sizeof(CAPSTATUS))) {
UINT nWidth = capStat.uiImageWidth;
UINT nHeight = capStat.uiImageHeight;
LPBYTE lpData = lpVideoHdr->lpData;
ASSERT(lpVideoHdr->dwBytesUsed == nWidth * nHeight * 3);
if (dwRectangle)
{
BYTE Y; int index; bool init = false;
/* -- Variables used by simple tracking algorithm. -- */
POINT pTop, pBottom, pLeft, pRight;
for (int i=0; i<nHeight; ++i) {
for (int j=0; j<nWidth; ++j) {
index = 3*(i*nWidth+j);
Y = floor(0.299*lpData[index+2] + 0.587*lpData[index+1] +
0.114*lpData[index] + 0.5);
if (Y > bThreshold) {
if (init) {
if (pLeft.x > j) {
pLeft.x = j;
pLeft.y = i;
}
if (pRight.x < j) {
pRight.x = j;
pRight.y = i;
}
pBottom.x = j;
pBottom.y = i;
}
else {
pTop.x = pBottom.x = pLeft.x = pRight.x = j;
pTop.y = pBottom.y = pLeft.y = pRight.y = i;
init = true;
}
}
}
}
/* -- Data regarding object being tracked stored, do something simple about it.
-- */
if (init) {
for (int i=pLeft.x; i<=pRight.x; ++i) {
// -- For pTop.y and pBottom.y --
index = 3*((pTop.y)*nWidth + i);
lpData[index] = 0;
lpData[index+1] = 0;
lpData[index+2] = 255;
index = 3*((pBottom.y)*nWidth + i);
lpData[index] = 0;
lpData[index+1] = 0;
lpData[index+2] = 255;
` }
for (int i=pTop.y; i<=pBottom.y; ++i) {
// -- For pLeft.x and pRight.x --
index = 3*((i)*nWidth + pLeft.x);
lpData[index] = 0;
lpData[index+1] = 0;
lpData[index+2] = 255;
index = 3*((i)*nWidth + pRight.x);
lpData[index] = 0;
lpData[index+1] = 0;
lpData[index+2] = 255;
}
}
/***********************************/
//control tracking object using motorstepper
//calculate center object(capture size = 352 X 288(default))
pCenter.x = (pRight.x + pLeft.x)/2;
pCenter.y = (pTop.y + pBottom.y)/2;
if((pcenter.x - 176)>0)
{TurnLeft();delay(200);} else {TurnRight();delay(200);}
}
else if (dwSegment)
{
BYTE Y; int index;
/* -- Variables used by the new tracking algorithm. -- */
QSEG segment;
std::list object;
for (int i=0; i<nHeight; ++i) {
segment.length = 0;
for (int j=0; j<nWidth; ++j) {
index = 3*(i*nWidth+j);
Y = floor(0.299*lpData[index+2] + 0.587*lpData[index+1] +
0.114*lpData[index] + 0.5);
if (Y > bThreshold) {
if (segment.length == 0) {
segment.head.x = j;
segment.head.y = i;
}
++segment.length;
}
}
if (segment.length) {
object.push_back(segment);
}
}
/* -- Data regarding object being tracked stored, do something simple about it.
-- */
for (std::list::iterator i=object.begin(); i!=object.end(); ++i) {
index = 3*((*i).head.y*nWidth + (*i).head.x);
lpData[index] = 255;
lpData[index+1] = 0;
lpData[index+2] = 255;
index = 3*((*i).head.y*nWidth + (*i).head.x + (*i).length);
lpData[index] = 255;
lpData[index+1] = 0;
lpData[index+2] = 255;
}
}
}
theVideoCapWnd.Detach();
return 0;
}
void CChildView::OnTrackBrightness()
{
// TODO: Add your command handler code here
CTrackDlg dlg;
if (dlg.DoModal()) {
bThreshold = atoi(dlg.m_strBrightness);
if (dlg.m_blRectangle == BST_CHECKED) {
dwRectangle = 1;
dwSegment = 0;
}
else if (dlg.m_blSegment == BST_CHECKED) {
dwRectangle = 0;
dwSegment = 1;
}
else {
dwRectangle = 0;
dwSegment = 0;
}
m_theVideoCapWnd.SetCallbackOnFrame(FrameCallbackProc);
}
}
void CChildView::OnTrackStop()
{
// TODO: Add your command handler code here
m_theVideoCapWnd.SetCallbackOnFrame((FrameCallback)(NULL));
}
void CChildView::OnCaptureStop()
{
// TODO: Add your command handler code here
m_theVideoCapWnd.DriverDisconnect();
}
• Phần Tài liệu tham khảo.
1. D. Ballard and C. Brown, Computer Vision, previously published by Prentice-
Halldaidb, 1982.
2. D. Phillips, Image Processing in C: Analyzing and Enhancing Digital Images,
previously published by RandD Publications, 1994.
3. D. Vernon; Machine Vision : Automated Visual Inspection and Robot Vision,
Prentice Hall, 1991, ISBN 0-13-543398-3.
4. Ngô Tiến Thành,Xác Định Tọa Độ Của Vật Chuyển Động Qua Cảm Biến Ảnh,
Khóa Luận Tốt Nghiệp Đại Học Công Nghệ , 2003.
Các file đính kèm theo tài liệu này:
- Luận văn- Xử lý ảnh và ứng dụng theo dõi đối tượng chuyển động.pdf