Tài liệu Đề tài Bài toán phân lớp văn bản và áp dụng phân lớp dữ liệu tài chính ngân hàng: ĐH Công Nghệ - ĐH QGHN CNTT
Khóa luận tốt nghiệp Lê Thị Thùy Dương
LỜI CẢM ƠN
Trước tiên, em muốn gửi lời cảm ơn sâu sắc nhất đến thầy giáo, Phó Giáo sư
Tiến sĩ Hà Quang Thụy, ThS. Đỗ Cẩm Vân và CN.Trần Mai Vũ, những người đã tận
tình hướng dẫn em trong suốt quá trình thực hiện khóa luận tốt nghiệp.
Em xin bày tỏ lời cảm ơn sâu sắc đến những thầy cô giáo đã giảng dạy em trong
bốn năm qua, những kiến thức mà em nhận được trên giảng đường đại học sẽ là hành
trang giúp em vững bước trong tương lai.
Em cũng muốn gửi lời cảm ơn đến các anh chị và các bạn trong nhóm seminar về
“Khai phá dữ liệu” đã giúp đỡ và cho em những lời khuyên bổ ích về chuyên môn
trong quá trình nghiên cứu.
Cuối cùng, em muốn gửi lời cảm ơn sâu sắc đến tất cả bạn bè, và đặc biệt là cha
mẹ và anh trai, những người luôn kịp thời động viên và giúp đỡ em vượt qua những
khó khăn trong cuộc sống.
Sinh viên
Lê Thị Thùy Dương
ĐH Công Nghệ - ĐH QGHN CNTT
Khóa luận tốt nghiệp Lê Thị Thùy Dươn...
54 trang |
Chia sẻ: hunglv | Lượt xem: 1207 | Lượt tải: 0
Bạn đang xem trước 20 trang mẫu tài liệu Đề tài Bài toán phân lớp văn bản và áp dụng phân lớp dữ liệu tài chính ngân hàng, để tải tài liệu gốc về máy bạn click vào nút DOWNLOAD ở trên
ĐH Cơng Nghệ - ĐH QGHN CNTT
Khĩa luận tốt nghiệp Lê Thị Thùy Dương
LỜI CẢM ƠN
Trước tiên, em muốn gửi lời cảm ơn sâu sắc nhất đến thầy giáo, Phĩ Giáo sư
Tiến sĩ Hà Quang Thụy, ThS. Đỗ Cẩm Vân và CN.Trần Mai Vũ, những người đã tận
tình hướng dẫn em trong suốt quá trình thực hiện khĩa luận tốt nghiệp.
Em xin bày tỏ lời cảm ơn sâu sắc đến những thầy cơ giáo đã giảng dạy em trong
bốn năm qua, những kiến thức mà em nhận được trên giảng đường đại học sẽ là hành
trang giúp em vững bước trong tương lai.
Em cũng muốn gửi lời cảm ơn đến các anh chị và các bạn trong nhĩm seminar về
“Khai phá dữ liệu” đã giúp đỡ và cho em những lời khuyên bổ ích về chuyên mơn
trong quá trình nghiên cứu.
Cuối cùng, em muốn gửi lời cảm ơn sâu sắc đến tất cả bạn bè, và đặc biệt là cha
mẹ và anh trai, những người luơn kịp thời động viên và giúp đỡ em vượt qua những
khĩ khăn trong cuộc sống.
Sinh viên
Lê Thị Thùy Dương
ĐH Cơng Nghệ - ĐH QGHN CNTT
Khĩa luận tốt nghiệp Lê Thị Thùy Dương
TĨM TẮT NỘI DUNG
Phân lớp văn bản là quá trình gán văn bản một cách tự động vào một hoặc nhiều
lớp cho trước. Tự động phân lớp văn bản là một nhiệm vụ rất quan trọng cĩ thể giúp
ích trong việc tổ chức cũng như tìm kiếm thơng tin trên nguồn tài nguyên lớn. Mặt
khác, phân lớp văn bản là một trong những thành phần cơ bản nhưng quan trọng nhất
trong kiến trúc tổng thể của hầu hết các máy tìm kiếm. Hiện nay, bài tốn này đã và
đang trở thành lĩnh vực nhận được nhiều sự quan tâm, nghiên cứu của nhiều nhà khoa
học trên thế giới.
Khĩa luận tốt nghiệp với đề tài “Bài tốn phân lớp văn bản và áp dụng phân
lớp dữ liệu tài chính ngân hàng” nghiên cứu nội dung, các thuộc tính, các thuật tốn
giải quyết bài tốn phân lớp. Khĩa luận tập trung nghiên cứu phương pháp phân lớp
văn bản trong lĩnh vực tài chính ngân hàng tiếng Việt dựa trên hướng tiếp cận Entropy
cực đại (maxent). Dựa trên việc khảo sát các đặc trưng tiếng Việt, sử dụng mơ hình
Entropy cực đại, khĩa luận đã tiến hành thực nghiệm trên 5 lớp dữ liệu về lĩnh vực tài
chính ngân hàng tự đề xuất (Huy động vốn, Tín dụng, Dịch vụ thanh tốn, Ngoại tệ,
Chứng khốn), kết quả thu được rất tốt với độ đo F1 trung bình là 90.22% và thời gian
huấn luyện 0.4594 giây/lần với 10 bước lặp.
ĐH Cơng Nghệ - ĐH QGHN CNTT
Khĩa luận tốt nghiệp Lê Thị Thùy Dương
MỤC LỤC
LỜI MỞ ĐẦU ................................................................................................................1
Chương 1. BÀI TỐN PHÂN LỚP VĂN BẢN..........................................................3
1.1. Khái niệm .................................................................................................3
1.2. Phân loại bài tốn phân lớp văn bản.....................................................5
1.3. Mơ hình phân lớp văn bản .....................................................................5
1.3.1. Mơ hình phân lớp văn bản...............................................................5
1.3.2. Quá trình xây dựng bộ phân lớp văn bản ........................................6
1.3.3. Quá trình tiền xử lý dữ liệu .............................................................7
1.3.3.1. Phương pháp biểu diễn tài liệu.....................................................8
1.3.3.2. Phương pháp lựa chọn thuộc tính...............................................10
1.3.4. Đánh giá ........................................................................................12
1.3.4.1. Đánh giá cho bài tốn phân lớp..................................................12
1.3.4.2. Đánh giá dựa vào độ tương tự ....................................................14
Chương 2. CÁC PHƯƠNG PHÁP PHÂN LỚP VĂN BẢN....................................17
2.1. Thuật tốn K người láng giềng gần nhất ............................................17
2.2. Mơ hình cây quyết định (Decision Tree) .............................................18
2.3. Thuật tốn máy hỗ trợ vector (SVM – Suport Vector Machine) .....21
2.4. Mơ hình Entropy cực đại ......................................................................26
2.4.1. Định nghĩa nguyên lý entropy cực đại ..........................................26
2.4.2. Các ràng buộc và đặc trưng...........................................................27
2.4.3. Mơ hình Entropy cực đại...............................................................27
2.3.4. Entropy cực đại cho phân lớp văn bản ..........................................28
Chương 3. BÀI TỐN PHÂN LỚP VĂN BẢN TÀI CHÍNH NGÂN HÀNG
TIẾNG VIỆT................................................................................................................30
3.1. Một số đặc trưng của dữ liệu tài chính ngân hàng trong tiếng Việt.30
3.2. Xây dựng một số lớp trong lĩnh vực tài chính ngân hàng .................31
3.3. Bài tốn phân lớp văn bản tài chính ngân hàng trong Tiếng Việt ...33
ĐH Cơng Nghệ - ĐH QGHN CNTT
Khĩa luận tốt nghiệp Lê Thị Thùy Dương
3.3.1. Phát biểu bài tốn: .........................................................................33
3.3.2. Phương pháp phân lớp...................................................................34
3.3.3. Mơ hình của bài tốn phân lớp văn bản tài chính ngân hàng........34
Chương 4. THỰC NGHIỆM VÀ ĐÁNH GIÁ..........................................................38
4.1. Dữ liệu và chương trình........................................................................38
4.2. Mơi trường thực nghiệm.......................................................................39
4.3. Thiết kế và kết quả thực nghiệm..........................................................40
4.3.1. Thiết lập thơng số cho Entropy cực đại.........................................40
4.3.2. Kết quả thực nghiệm .....................................................................40
4.4. Đánh giá kết quả thực nghiệm .............................................................44
KẾT LUẬN ..................................................................................................................45
TÀI LIỆU THAM KHẢO...........................................................................................46
Tài liệu Tiếng Việt ............................................................................................46
Tài liệu Tiếng Anh............................................................................................46
DANH SÁCH CÁC TỪ DỪNG..................................................................................49
ĐH Cơng Nghệ - ĐH QGHN CNTT
Khĩa luận tốt nghiệp Lê Thị Thùy Dương
Danh sách hình vẽ và bảng biểu
Hình 1. Bài tốn phân lớp văn bản ..................................................................................3
Hình 2. Sơ đồ khung một hệ thống phân lớp văn bản .....................................................6
Hình 3. Quá trình xây dựng mơ hình được chia thành hai bước .....................................8
Hình 4. Mối quan hệ giữa các siêu phẳng phân cách ......................................................1
Hình 5. Siêu phẳng tối ưu và biên ...................................................................................1
Hình 6. Mơ hình bài tốn phân lớp dữ liệu tài chính ngân hàng...................................35
Hình 7. Đồ thị biểu diễn sự phụ thuộc của độ đo F1 vào số lần lặp..............................43
Hình 8. Tổng hợp độ đo qua 10 lần huấn luyện ............................................................43
Hình 9. Biểu đồ biểu diễn độ đo F1 của các lớp trong lần lặp thứ 6.............................44
Bảng 1. Phân bố dữ liệu học và kiểm tra.......................................................................38
Bảng 2. Tập dữ liệu huấn luyện.....................................................................................39
Bảng 3. Tập dữ liệu kiểm tra .........................................................................................39
Bảng 4. Tham số huấn luyện mơ hình Entropy cực đại ................................................40
Bảng 5. Kết quả 10 lần huấn luyện với Entropy cực đại...............................................41
Bảng 6. Kết quả của bước lặp thứ 6 ..............................................................................42
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 1 -
LỜI MỞ ĐẦU
Hiện nay, sự phát triển mạnh mẽ của Internet đã dẫn đến sự bùng nổ thơng tin về
nhiều mặt kể cả nội dung lẫn số lượng. Chỉ bằng một thao tác tìm kiếm đơn giản, ta cĩ
thể nhận về một khối lượng khổng lồ các trang web cĩ chứa thơng tin liên quan tới nội
dung cần tìm kiếm. Tuy nhiên, chính sự dễ dàng này cũng mang đến cho con người rất
nhiều khĩ khăn trong việc chiết lọc ra các thơng tin cĩ ích để thu được các tri thức
mới. Phát hiện tri thức và khai phá dữ liệu là câu trả lời mới nhất cho vấn đề này nhằm
phát hiện ra các tri thức mới từ khối dữ liệu khổng lồ mà con người cĩ được.
Trong thời gian gần đây, cùng với sự phát triển của nền kinh tế đất nước là sự
phát triển vượt bậc của nền cơng nghệ thơng tin. Tin học đã được áp dụng trong tất cả
các lĩnh vực như kinh tế, thương mại, y tế, ngân hàng… Hầu hết các lĩnh vực này đề
lưu trữ một cơ sở dữ liệu rất lớn. Các kỹ thuật thống kê truyền thống và các cơng cụ
quản lý dữ liệu trước đây khơng đáp ứng được nhu cầu phân tích tập dữ liệu lớn này.
Từ địi hỏi đĩ phải cĩ những phương pháp tiếp cận mới để khai phá tri thức trong các
cơ sở dữ liệu.
Trong các loại dữ liệu thì dữ liệu văn bản là phổ biến nhất. Khai phá dữ liệu văn
bản là sự khảo sát và phân tích một tập lớn các văn bản khơng cĩ cấu trúc một cách tự
động hoặc bán tự động để khám phá ra những tri thức mới. Với lượng thơng tin dạng
văn bản đồ sộ của Internet, một yêu cầu lớn đặt ra là làm sao tổ chức và tìm kiếm
thơng tin cĩ hiệu quả nhất. Phân lớp thơng tin là một trong những giải pháp hợp lý cho
vấn đề nêu trên. Bài tốn phân lớp văn bản là một trong những bài tốn cơ bản của
khai phá dữ liệu văn bản. Cho trước một tập dữ liệu văn bản, bài tốn thực hiện quá
trình gán nhãn (phân lớp) cho từng tài liệu tương ứng với nội dung của nĩ thơng qua
bộ phân lớp.
Luận văn tập trung nghiên cứu về bài tốn phân lớp văn bản, cụ thể là những văn
bản mang thơng tin về lĩnh vực ngân hàng, tài chính với mục đích phân lớp cho những
tài liệu này theo những lớp ứng dụng cụ thể trong lĩnh vực ngân hàng, tài chính. Vấn
đề phân lớp văn bản đã được đặt ra từ rất lâu và đến nay đã cĩ một số phương pháp
hiệu quả thực hiện việc phân lớp văn bản… Tuy nhiên việc phân lớp cho dữ liệu tiếng
việt về lĩnh vực ngân hàng, tài chính là một bài tốn mới và cho đến nay chưa cĩ một
kết quả nào được cơng bố. Thơng qua việc tìm hiểu một số phương pháp tiếp cận bài
tốn thường được sử dụng như phương pháp K-người láng giềng, Máy hỗ trợ vector
(SVM – Suport Vector Machine), Phương pháp sử dụng mơ hình Entropy cực đại và
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 2 -
nghiên cứu ưu nhược điểm của từng phương pháp, luận văn hướng tới nghiên cứu áp
dụng mơ hình Entropy cực đại cho bài tốn này.
Luận văn bao gồm 4 chương cĩ nội dung khái quát như sau:
Chương 1. Bài tốn phân lớp văn bản phát biểu và trình bày về các khái niệm và
những nội dung cơ bản về bài tốn phân lớp văn bản. Chương này cũng giới thiệu một
số phương pháp đánh giá cho bài tốn phân lớp và độ đo dựa vào khoảng cách và độ
tương tự giữa các lớp.
Chương 2. Các phương pháp giải quyết bài tốn phân lớp văn bản. Trình bày
một số thuật tốn phân lớp văn bản điển hình, chỉ ra ưu nhược điểm của từng phương
pháp. Qua đĩ lựa chọn phương pháp tốt nhất để thử nghiệm trong tiếng Việt.
Chương 3. Bài tốn phân lớp văn bản tài chính ngân hàng. Trình bày các đặc
điểm đặc trưng của dữ liệu tài chính ngân hàng, xây dựng tập nhãn (lớp) trong lĩnh vực
này và mơ tả mơ hình phân lớp sử dụng phương pháp Entropy cực đại đối với tập văn
bản đĩ.
Chương 4. Thực nghiệm và đánh giá. Trong chương này trình bày các kết quả
thực nghiệm thu được khi áp dụng mơ hình Entropy cực đại trên tập dữ liệu tài chính
ngân hàng tiếng Việt. Đưa ra một số nhận xét, đánh giá kết luận.
Trong phần kết luận, luận văn tĩm lại những cơng việc đã thực hiện trong thời
gian qua và các kết quả đã đạt được, đồng thời cũng đề cập đến những điểm cịn hạn
chế của luận văn và đề ra phương hướng nghiên cứu trong thời gian tới.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 3 -
Chương 1. BÀI TỐN PHÂN LỚP VĂN BẢN
Trích chọn thơng tin trên Web đã và đang tạo thêm nhiều tài nguyên thơng tin, tri
thức mới đáp ứng ngày càng hiệu quả nhu cầu thơng tin của con người. Ngày nay,
cơng nghệ trích chọn thơng tin trên Web đã hình thành loại hình dịch vụ đầy triển
vọng trong việc cung cấp thơng tin phong phú và hữu ích từ nguồn dữ liệu được coi là
vơ hạn trên Web. Một trong những bài tốn cơ bản và quan trọng trong trích chọn
thơng tin trên Web là bài tốn phát hiện các quan hệ của các lớp đối tượng. Để thực
hiện việc phát hiện mối quan hệ giữa các lớp đối tượng trên Web thì bài tốn đầu tiên
cần giải quyết đĩ là bài tốn phân lớp tự động các đối tượng. Tự động phân lớp văn
bản là một nhiệm vụ rất quan trọng cĩ thể giúp ích trong việc tổ chức cũng như tìm
kiếm thơng tin trên nguồn tài nguyên lớn.
Ngày nay, khi mà sự phát triển và ứng dụng của Internet cực kỳ phổ biến thì khối
lượng dữ liệu đã tăng trưởng khơng ngừng theo cả hai phương diện tạo mới và lưu trữ.
Sự phát triển vượt bậc của cơng nghệ khoa học kỹ thuật và sự mở rộng các dữ liệu
khoa học về địa lý, địa chất, khí tượng thủy văn… cùng với việc tin học hĩa sâu rộng
trong hầu hết các lĩnh vực đã tạo ra một khối lượng dữ liệu khổng lồ. Tự động phân
lớp văn bản là một nhiệm vụ rất quan trọng, đặc biệt là trong việc tổ chức cũng như
tìm kiếm thơng tin trên nguồn tài nguyên lớn này.
1.1. Khái niệm
Phân lớp văn bản (Text classification) là quá trình gán nhãn (tên lớp / nhãn lớp)
các văn bản ngơn ngữ tự nhiên một cách tự động vào một hoặc nhiều lớp cho trước.
Hình 1. Bài tốn phân lớp văn bản
Thơng thường, các lớp cho trước là các chủ đề nào đĩ, nhưng cũng cĩ nhiều ứng
dụng mà các lớp được thiết lập theo những tiêu chí khác, như phân lớp theo độ ưu tiên,
Dữ liệu vào
Thuật tốn
phân lớp hoạt
động
Lớp 1
Lớp 2
Lớp n
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 4 -
phân lớp theo chủ đề… Hầu hết các bài tốn này sẽ tốn rất nhiều thời gian, cơng sức
và đơi khi khơng chính xác nếu được phân loại một cách thủ cơng – tức là đọc từng
văn bản và gán vào một lớp nào đĩ. Đặc biệt với số lượng tài liệu cần phân lớp cực kỳ
lớn như hiện nay thì việc phân lớp thủ cơng là một điều khơng thể. Phân loại những
đối tượng mới vào các lớp bằng phương pháp thủ cơng gặp phải những khĩ khăn sau:
- Đối với các lĩnh vực đặc biệt, phân loại các đối tượng mới (như cơ sở dữ liệu
về y tế, pháp luật, tài chính, ngân hàng... ) vào các lớp cho trước cần cĩ hiểu
biết về các lĩnh vực đĩ.
- Phân loại bằng tay đơi khi khơng chính xác vì quyết định phụ thuộc vào sự
hiểu biết và động cơ của người thực hiện.
- Quyết định của hai chuyên gia khác nhau cĩ thể nảy sinh bất đồng ý kiến. Vì
vậy những cơng cụ để tự động phân lớp văn bản vào các lớp sẽ rất hữu ích với
cơng việc này nhất là khi thơng tin tràn ngập như ngày nay. Một số phương
pháp phân lớp thống kê và kĩ thuật học máy như Bayesian, máy vector hỗ trợ
(Support Vector Machines), K người láng giềng gần nhất, mạng nơron... được
áp dụng để giải quyết bài tốn này.
Chính vì những nhược điểm của phương pháp thủ cơng nên việc xây dựng một
bộ phân lớp văn bản tự động là một điều rất quan trọng và cần thiết, đặc biệt là khi hầu
hết các thơng tin được sinh ra và lưu trữ điện tử. Các bài báo khoa học và giải trí là
những ví dụ về tập các tài liệu điện tử. Với sự phát triển ngày càng mạnh mẽ của mạng
Internet và Intranet đã tạo ra nguồn thơng tin vơ cùng phong phú. Các kỹ thuật phân
lớp văn bản sẽ giúp cho nguồn dữ liệu này đã được lưu trữ tự động một cách hiệu quả
và được tìm kiếm nhanh chĩng.
Phân lớp văn bản được xuất hiện từ những năm 1960, nhưng chỉ 15 năm sau, nĩ
đã trở thành lĩnh vực nghiên cứu chính trong hệ thống thơng tin bởi sự đa dạng của các
ứng dụng. Phân lớp văn bản là cơng việc được sử dụng để hỗ trợ trong quá trình tìm
kiếm thơng tin (Information Retrieval), chiết lọc thơng tin (Information Extraction),
lọc văn bản hoặc tự động dẫn đường cho các văn bản tới những chủ đề xác định trước.
Một ứng dụng khác của phân lớp văn bản là trong lĩnh vực hiểu văn bản. Phân lớp văn
bản cĩ thể được sử dụng để lọc văn bản hoặc một phần văn bản chứa dữ liệu cần tìm
mà khơng làm mất đi tính phức tạp của ngơn ngữ tự nhiên.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 5 -
Định nghĩa phân lớp văn bản [1]: Phân lớp văn bản là nhiệm vụ đặt một giá trị
Boolean cho mỗi cặp (dj, ci) CD×∈ , trong đĩ D là tập các văn bản và { }ccccC ,..., 21=
là tập các lớp cho trước.
Giá trị T (true) được gán cho cặp (dj, ci) cĩ nghĩa là tài liệu dj thuộc lớp ci
Giá trị F (false) tức là tài liệu dj khơng thuộc lớp ci
Hay nĩi cách khác, phân lớp văn bản là bài tốn tìm một hàm
{ }FTCD ,: →×Φ trong đĩ D là tập các văn bản và { }ccccC ,..., 21= là tập các lớp
cho trước, hàm { }FTCD ,: →×Φ được gọi là bộ phân lớp.
1.2. Phân loại bài tốn phân lớp văn bản
Tùy vào những ràng buộc khác nhau để phân loại bài tốn phân lớp văn bản.
Nhìn chung cĩ thể phân biệt bài tốn phân lớp theo hai cách sau:
- Phân lớp văn bản nhị phân / đa lớp: Bài tốn phân lớp văn bản được gọi là nhị
phân nếu |C|=2, gọi là đa lớp nếu |C|>2.
- Phân lớp văn bản đơn nhãn / đa nhãn: Bài tốn phân lớp văn bản được gọi là
đơn nhãn nếu mỗi tài liệu được gán vào chính xác một lớp. Bài tốn phân lớp
văn bản được gọi là đa nhãn nếu một tài liệu cĩ thể được gán nhiều hơn một
nhãn.
Trên thực tế, phân lớp hai lớp (phân lớp nhị phân) chỉ là một trường hợp đặc biệt
của bài tốn phân lớp song do xuất xứ cho nên phân lớp nhị phân cĩ vị trí riêng cả về
đặt bài tốn lẫn về các giải pháp
1.3. Mơ hình phân lớp văn bản
1.3.1. Mơ hình phân lớp văn bản
Phân lớp văn bản được các nhà nghiên cứu định nghĩa thống nhất như là việc gán
tên các chủ đề (tên lớp / nhãn lớp) đã được xác định cho trước vào các văn bản Text
dựa trên nội dung của nĩ. Phân lớp văn bản là cơng việc được sử dụng để hỗ trợ trong
quá trình tìm kiếm thơng tin (Information Retrieval), chiết lọc thơng tin (Information
Extraction), lọc văn bản hoặc tự động dẫn đường cho các văn bản tới những chủ đề xác
định trước. Để phân loại văn bản, người ta sử dụng phương pháp học máy cĩ giám sát.
Tập dữ liệu được chia ra làm hai tập là tập huấn luyện và tập kiểm tra, trước hết phải
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 6 -
xây dựng mơ hình thơng qua các mẫu học bằng các tập huấn luyện, sau đĩ kiểm tra sự
chính xác bằng tập dữ liệu kiểm tra.
Hình 2. Sơ đồ khung một hệ thống phân lớp văn bản
Hình trên biểu diễn một sơ đồ khung một hệ thống phân lớp văn bản, trong đĩ
bao gồm ba thành phần chính:
- Biểu diễn văn bản, tức là chuyển các dữ liệu văn bản thành một dạng cĩ cấu
trúc nào đĩ, tập hợp các mẫu cho trước thành một tập huấn luyện.
- Thực hiện việc sử dụng các kỹ thuật học máy để học trên các mẫu huấn luyện
vừa biểu diễn. Như vậy việc biểu diễn ở giai đoạn thứ nhất sẽ là đầu vào cho
giai đoạn thứ hai.
- Thực hiện bổ sung các kiến thức thêm vào do người dùng cung cấp để làm
tăng độ chính xác trong biểu diễn văn bản hay trong quá trình học máy. Trong
nhiều trường hợp, các phương pháp học hệ thống phân lớp cĩ thể bỏ qua
thành phần này.
Như vậy thành phần thứ ba được coi là trung tâm của một hệ thống phân lớp văn
bản. Trong phần này, cĩ nhiều phương pháp học máy được áp dụng như mơ hình mạng
Bayes, cây quyết định, phương pháp K người láng giềng gần nhất, mạng Neuron,
SVM, mơ hình Maximum Entropy.
1.3.2. Quá trình xây dựng bộ phân lớp văn bản
Quá trình phân lớp dữ liệu thường gồm hai bước: xây dựng mơ hình (tạo bộ
phân lớp) và sử dụng mơ hình đĩ để phân lớp dữ liệu. Các cơng cụ phân lớp được xây
dựng dựa trên một thuật tốn phân lớp qua bước học quy nạp. Trong bước học, hệ
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 7 -
thống cĩ tập dữ liệu đầu vào Dt (tập ví dụ) mà thuộc tính lớp của mỗi tài liệu (ví dụ)
trong tập đĩ đã biết. Tại bước học, tập dữ liệu ban đầu được chia thành hai tập dữ liệu
rời nhau, một tập được gọi là tập dạy (training set) và một tập được gọi là tập kiểm tra
(test set). Thơng thường tập training chiếm 2/3 các ví dụ trong Dt, cịn tập test chiếm
1/3 số lượng ví dụ cịn lại. Hệ thống dùng tập training để xây dựng mơ hình (xác định
tham số) phân lớp và dùng tập dữ liệu test để đánh giá thuật tốn phân lớp vừa được
thiết lập. Quá trình hai bước như sau:
- Bước 1: Xây dựng mơ hình. Một mơ hình sẽ được xây dựng dựa trên phân tích
các đối tượng dữ liệu đã được gán nhãn từ trước. Tập các mẫu dữ liệu này cịn
được gọi là tập dữ liệu huấn luyện (training data set). Các nhãn lớp của tập dữ
liệu huấn luyện được xác định bởi con người trước khi xây dựng mơ hình, vì
vậy phương pháp này cịn được gọi là học cĩ giám sát (supervised learning).
Trong bước này, chúng ta cịn phải tính độ chính xác của mơ hình, mà cịn
phải sử dụng một tập dữ liệu kiểm tra (test data set). Nếu độ chính xác là chấp
nhận được, mơ hình sẽ được sử dụng để xác định nhãn lớp cho các dữ liệu
khác mới trong tương lại. Trong việc test lại mơ hình, sử dụng các độ đo để
đánh giá chất lượng của tập phân lớp, đĩ là độ hồi tưởng, độ chính xác, độ đo
F1…
Tồn tại nhiều phương pháp phân lớp dữ liệu để giải quyết bài tốn
phân lớp tùy thuộc vào cách thức xây dựng mơ hình phân lớp như phương
pháp Bayes, phương pháp cây quyết định, phương pháp k người láng giềng
gần nhất, phương pháp SVM, phương pháp Maximum Entropy… Các
phương pháp phân lớp khác nhau chủ yếu về mơ hình phân lớp. Mơ hình
phân lớp cịn được gọi là thuật tốn phân lớp.
- Bước 2: Sử dụng mơ hình. Sử dụng mơ hình được xây dựng ở bước 1 để phân
lớp dữ liệu mới.
Như vậy, thuật tốn phân lớp là một ánh xạ từ miền dữ liệu đã cĩ sang một miền
giá trị cụ thể của thuộc tính phân lớp, dựa vào giá trị các thuộc tính của dữ liệu.
1.3.3. Quá trình tiền xử lý dữ liệu
Phân lớp văn bản là quá trình gồm hai bước, với mục đích phân các tài liệu văn
bản vào các lớp hữu hạn cĩ trước. Trong bước thứ nhất, một mơ hình của bộ phân lớp
được xây dựng bằng cách phân tích nội dung các trang văn bản trong tập dữ liệu huấn
luyện thơng qua việc áp dụng các thuật tốn học. Tập dữ liệu huấn luyện là tập hợp các
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 8 -
trang văn bản trong cơ sở dữ liệu đã gán nhãn từ trước. Trong bước thứ hai, mơ hình
này được sử dụng cho việc phân lớp các trang văn bản chưa được gán nhãn.
Để xây dựng mơ hình trong bước thứ nhất, thơng thường, được chia ra làm hai
bước chính sau:
Tiền xử lý Phân lớp Văn bản
Biểu diễn logic
Cây phân cấp
Mơ hình
Hình 3. Quá trình xây dựng mơ hình được chia thành hai bước
- Tiền xử lý dữ liệu: là quá trình biểu diễn văn bản thành một dạng biểu diễn
logic mà thuật tốn cĩ thể xử lý được (ví dụ, dạng biểu diễn vector của văn
bản).
- Học các bộ phân lớp: sử dụng các thuật tốn phân lớp để xây dựng mơ hình từ
dữ liệu đã qua tiền xử lý.
1.3.3.1. Phương pháp biểu diễn tài liệu
Trong bài tốn phân lớp văn bản, cách biểu diễn văn bản đĩng vai trị rất lớn.
Một tài liệu được biểu diễn dưới dạng một tập hợp các từ, mỗi từ được xem là một
thuộc tính hoặc đặc trưng và văn bản tương ứng với một vector thuộc tính. Đơi khi,
thay vì những từ đơn, các thuộc tính cĩ thể được biểu diễn bằng các cụm từ hoặc chuỗi
n từ với n >= 2. Dễ nhận thấy, nhiều thuộc tính phức tạp cĩ thể giàu thơng tin hơn. Ví
dụ, cụm từ “world wide web” mang nhiều thơng tin hơn từng từ riêng biệt. Tuy nhiên,
trong thực hành, sử dụng n-grams dẫn tới việc cĩ quá nhiều số lượng thuộc tính và cĩ
thể làm việc giải quyết bài tốn khĩ khăn hơn. Theo các nghiên cứu về phương pháp
biểu diễn văn bản khác nhau, đặc biệt là khi so sánh ảnh hưởng và hiệu quả của nĩ thì
khơng cĩ cách biểu diễn văn bản nào tốt hơn cách biểu diễn bằng tập các từ riêng biệt
được lấy ra từ văn bản gốc.
Sau khi xác định được các thuộc tính, chúng ta cần tính giá trị thuộc tính (hoặc
trọng số từ khĩa) cho mỗi văn bản. Mỗi từ khĩa ti trong một tài liệu Dj được gán một
trọng số wij và do đĩ, mỗi tài liệu được biểu diễn như một vector. Trọng số từ khĩa cĩ
thể được tính tốn bằng nhiều cách khác nhau. Cách đơn giản nhất là gán trọng số
bằng một giá trị nhị phân chỉ ra từ khĩa cĩ mặt hay khơng cĩ mặt trong văn bản, tức là
giá trị trọng số wij là 1 nếu từ khĩa ti xuất hiện ít nhất một lần trong tập tài liệu Dj và
wij là 0 trong trường hợp ngược lại – Đây là mơ hình Boolean. Phương pháp khác là
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 9 -
tính số lần xuất hiện của từ khĩa trong một tài liệu gọi là tần suất từ khĩa. Tần suất từ
khĩa được tính theo cơng thức:
N
Dtocc
Dtfreq jkjk
),(
),( =
Trong đĩ N là tổng số từ khĩa của tài liệu Dj và occ(tk,Dj) là số lần xuất hiện của
từ tk trong văn bản Dj. Phương pháp này được gọi là phương pháp dựa trên tần số từ
khĩa (TF – Term Frequency).
Phương pháp này cĩ vẻ rất trực quan nhưng mặt hạn chế của phương pháp này là:
nếu một từ xuất hiện nhiều lần trong tài liệu sẽ cĩ tần xuất cao. Tuy nhiên nếu những
từ này đều xuất hiện trong tất cả các văn bản thì nĩ sẽ khơng mang nhiều thơng tin ngữ
nghĩa của văn bản và do đĩ độ quan trọng của nĩ giảm đi.
Ví dụ, khi văn bản xuất hiện nhiều từ khĩa “máy tính”, điều đĩ cĩ nghĩa là văn
bản đang xét chủ yếu liên quan đến lĩnh vực “Tin học”. Nhưng suy luận trên khơng
phải lúc nào cũng đúng. Một ví dụ điển hình là từ “chúng tơi” xuất hiện nhiều lần
trong văn bản, nhưng trên thực tế từ này lại khơng mang nhiều ý nghĩa như tần suất
xuất hiện của nĩ.
Thơng thường tần suất của các từ khĩa trong văn bản khơng đồng đều nhau. Một
số từ khĩa xuất hiện rất thường xuyên, trong khi đĩ, một nửa số từ khĩa xuất hiện chỉ
một lần. Để giải quyết hạn chế này, Phương pháp dựa trên nghịch đảo tần số văn bản
(IDF – Inverse Document Frequency) với tần suất logarit (tương tự với tần suất từ
khĩa) được đề xuất và tính theo cơng thức:
)),(1log(),( jkjk DtfreqDtfreq +=
Hay giá trị của từ khĩa ti được tính theo cơng thức:
)log()log(log i
i
ij dfmdf
mw −==
Trong đĩ, m là số lượng văn bản và dfi là số lượng văn bản trong hệ thống cĩ
chứa từ khĩa ti. Trọng số wij trong cơng thức này được tính dựa trên độ quan trọng của
từ khĩa ti trong văn bản dj. Nếu ti xuất hiện trong càng ít văn bản, điều đĩ cĩ nghĩa khi
nĩ xuất hiện trong văn bản dj thì trọng số của nĩ đối với văn bản dj càng lớn hay nĩ là
điểm quan trọng để phân biệt văn bản dj với các văn bản khác và hàm lượng thơng tin
trong nĩ càng lớn.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 10 -
Phương pháp dựa trên nghịch đảo tần số văn bản IDF được sử dụng phổ biến hơn
phương pháp dựa trên tần số IF, nhưng phương pháp này vẫn chưa giải quyết triệt để
hạn chế của phương pháp tần số từ khĩa. Theo đĩ, một từ xuất hiện nhiều lần cĩ tần
suất cao, từ xuất hiện ít cĩ tần số thấp.
Phương pháp chuẩn thường được sử dụng là Term Frequency Inverse Document
Frequency ( IFIDF), hàm tính trọng số từ khĩa được xác định bởi cơng thức:
⎟⎟⎠
⎞
⎜⎜⎝
⎛=
l
dldl df
mfreqTFIDF log*,,
Trong đĩ, tần suất từ khĩa l trong tài liệu d : freql,d là số lần xuất hiện của từ khĩa
l trong tài liệu d.
Tần suất văn bản dfl là số văn bản trong tập tài liệu cĩ chứa từ khĩa l .
m là tổng số tài liệu học.
Trọng số TFIDF của một từ khĩa biểu diễn độ quan trọng của từ khĩa. TFIDF
của một từ khĩa trong một tài liệu sẽ giảm nếu như từ đĩ xuất hiện trong hầu hết các
văn bản. Vì vậy, một từ xuất hiện quá ít hoặc quá nhiều được đánh giá ít quan trọng
hơn so với các từ xuất hiện cân bằng.
Trọng số TFIDF của một từ khĩa trong tồn bộ tập tài liệu m được tính bởi cơng
thức:
∑= dlTFIDFTFIDF , RTFIDFl ∈
1.3.3.2. Phương pháp lựa chọn thuộc tính
Kích cỡ của tập từ vựng của tập hợp văn bản thường rất lớn. Việc xử lý các
vector thuộc tính địi hỏi các thuật tốn được tính tốn mở rộng và cĩ thể đơi khi
khơng thể tính tốn được đối với một số thuật tốn học. Bên cạnh đĩ, nhiều thuộc tính
khơng mang thơng tin, nhập nhằng hoặc bị nhiễu, do đĩ cĩ thể dẫn tới bộ phân lớp đạt
được kết quả tốt trên dữ liệu học nhưng khơng tốt trên dữ liệu kiểm tra (overfitting).
Lựa chọn thuộc tính là quá trình chọn ra những thuộc tính mang nhiều thơng tin
nhất trong khơng gian thuộc tính và loại bỏ những thuộc tính nhiễu. Để giải quyết vấn
đề này, quá trình lựa chọn thuộc tính được tiến hành bằng cách chỉ giữ những từ khĩa
cĩ giá trị về thơng tin. Vì vậy, vấn đề phát hiện các từ khĩa khơng quan trọng phải
được giải quyết để thu được khơng gian từ khĩa TT ⊂' với |T’| << |T|.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 11 -
Trong học máy, một số kỹ thuật chính sau đây được xây dựng cho quá trình lựa
chọn thuộc tính [16]:
Kỹ thuật thứ nhất thực hiện các phương pháp lọc (filtering) trên tập thuộc tính
ban đầu. Với phương pháp này, kết quả thu được từ tính tốn thống kê được sử dụng
để loại bỏ những từ khĩa khơng thích hợp. Sau đĩ, bộ phân lớp được huấn luyện trên
khơng gian từ khĩa đã được rút gọn. Với chiến lược lựa chọn từ khĩa này, cĩ một vài
phương pháp như: lựa chọn từ khĩa theo tần suất văn bản (Document Frequency), độ
đo thơng tin qua lại (Mutual Information).
- Tần suất văn bản: Tần suất của văn bản là số tài liệu mà một từ khĩa xuất
hiện. Để lựa chọn từ khĩa theo phương pháp tần suất văn bản thì cần phải tính
tần suất văn bản với mỗi từ khĩa trong tập tài liệu học và sau đĩ loại bỏ những
từ khĩa cĩ tần suất nhỏ hơn một ngưỡng nào đĩ để thu được khơng gian từ
khĩa nhỏ hơn. Đây là kỹ thuật đơn giản nhất để làm giảm số lượng tập thuộc
tính.
- Độ đo thơng tin qua lại (MI): Là phương pháp được sử dụng khá phổ biến để
lựa chọn tập thuộc tính dựa vào mơ hình thống kê. Với mỗi cặp từ khĩa t và
lớp c, độ đo thơng tin qua lại được tính theo cơng thức sau:
( ) ( ) ( )ct
ctctI
PrPr
)Pr(log, ×
∧=
Và được ước lượng:
( ) ( ) ( )BACA
NActI +×+
×≈ log,
Trong đĩ:
- A là số lần từ khĩa t và lớp c đồng thời xuất hiện.
- B là số lần từ khĩa t xuất hiện mà khơng thuộc c.
- C là số lần c xuất hiện mà khơng chưa t.
- N là tổng số dữ liệu học.
I(t,c) nhận giá trị 0 nếu từ khĩa t và lớp c độc lập với nhau. Giá trị I(t,c) càng cao
thể hiện độ quan trọng của thuộc tính t với lớp c.
Kỹ thuật thứ hai được gọi là kỹ thuật wrapper, trong đĩ việc lựa chọn từ khĩa
phụ thuộc vào thuật tốn phân lớp. Bắt đầu từ khơng gian từ khĩa ban đầu, một khơng
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 12 -
gian từ khĩa mới được sinh ra bằng việc thêm hoặc bớt từ. Khi một tập hợp từ khĩa
mới được tạo ra, bộ phân lớp dựa vào đĩ để xây dựng và sau đĩ kiểm tra trên tập dữ
liệu kiểm tra. Tập dữ liệu cho kết quả tốt nhất sẽ được chọn. Khơng gian từ khĩa tốt
nhất được tạo ra cho thuật tốn phân lớp. Phương pháp này tạo thuận lợi cho thuật tốn
phân lớp. Tuy nhiên hạn chế của phương pháp này là sự phức tạp trong tính tốn.
Ngồi việc lựa chọn các thuộc tính mang nhiều thơng tin từ tập thuộc tính ban
đầu, quá trình lựa chọn thuộc tính cĩ thể tạo ra các thuộc tính mới (ví dụ các khái
niệm) để thay thế cho một nhĩm các thuộc tính thơng qua kỹ thuật phân cụm. Nhĩm
các từ cĩ sự giống nhau về ngữ nghĩa sẽ được xem là một thuộc tính mới thay thế cho
các từ đơn lẻ. Với phương pháp này, cần xác định độ tương tự giữa các từ và áp dụng
các kỹ thuật phân cụm như k người láng giềng gần nhất.
1.3.4. Đánh giá
1.3.4.1. Đánh giá cho bài tốn phân lớp
Đánh giá kết quả phương pháp phân lớp văn bản cĩ thể được tính tốn theo nhiều
cách khác nhau. Theo khảo sát của Sebastiani [3], độ đo phổ biến nhất được sử dụng
để đánh giá phân lớp là độ hồi tưởng và độ chính xác.
Kí hiệu:
Dữ liệu thực
Lớp Ci
Thuộc lớp Ci Khơng thuộc lớp Ci
Thuộc lớp Ci TPi TNi
Dự đốn
Khơng thuộc lớp Ci FPi FNi
Trong đĩ:
- TPi (true positives): số lượng ví dụ dương được thuật tốn phân đúng vào lớp
Ci.
- TNi (true negatives): số lượng ví dụ âm được thuật tốn phân đúng vào lớp Ci.
- FPi (false positives): số lượng ví dụ dương được thuật tốn phân sai vào Ci.
- FNi (false negatives): số lượng ví dụ âm được thuật tốn phân sai vào Ci.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 13 -
Độ chính xác Pri của lớp Ci là tỷ lệ số ví dụ dương được thuật tốn phân lớp cho
giá trị đúng trên tổng số ví dụ được thuật tốn phân lớp vào lớp iC :
ii
i
i TNTP
TP
+=Pr
Độ hồi tưởng iRe của lớp iC là tỷ lệ số ví dụ dương được thuật tốn phân lớp cho
giá trị đúng trên tổng số ví dụ dương thực sự thuộc lớp iC :
ii
i
i FPTP
TP
+=Re
Dựa vào độ chính xác và độ hồi tưởng chuẩn của mỗi lớp, độ chính xác và độ hồi
tưởng cho tồn bộ các lớp, tức là { }mCCC ,...,, 21 cĩ thể thu được bằng hai cách: cực tiểu
trung bình (Micro-Average) và cực đại trung bình (Macro-Average).
- Microaveraging:
1
1
ˆ
( )
m
i
i
m
i i
i
TP
Pr
TP TN
µ =
=
=
+
∑
∑
1
1
ˆ
( )
m
i
i
m
i i
i
TP
Re
TP FP
µ =
=
=
+
∑
∑
- Macroaveraging:
1ˆ
m
i
M i
Pr
Pr
m
==
∑
1ˆ
m
i
M i
Re
Re
m
==
∑
Độ chính xác và độ hồi tưởng nếu sử dụng riêng biệt thì chưa đánh giá được năng
lực của bộ phân lớp. Vì vậy, đánh giá bộ phân lớp văn bản thường được đo bằng tổ
hợp của hai độ đo trên. Các độ đo phổ biến của tổ hợp hai độ đo này là:
- Break-Even Point (BEP): BEP được đề xuất bởi Lewis [3], xác định điểm mà
tại đĩ độ chính xác và độ hồi tưởng bằng nhau. Tuy nhiên, trong một số
trường hợp khơng thể xác định được BEP. Ví dụ, nếu chỉ cĩ vài dữ liệu dương
và rất nhiều dữ liệu âm, khi đĩ độ hồi tưởng sẽ cao hơn rất nhiều so với độ
chính xác, khi đĩ khơng thể xác định được BEP.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 14 -
- Độ đo βF : độ đo βF được đề xuất bởi Rijbergen [3]. Nĩ là độ đo đơn giản
được tính từ độ chính xác và độ hồi tưởng phụ thuộc vào độ quan trọng mà
người dùng định nghĩa ( )β . Thơng thường, 1=β . Cơng thức tính độ đo βF là:
( )
RePr.
Re.Pr.1
2
2
+
+= β
β
βF
Trong trường hợp 1=β chúng ta cĩ F1 là độ đo thơng dụng nhất trong việc đánh
giá năng lực của các bộ phân lớp.
- Độ chính xác trung bình của 11 điểm: độ chính xác là nội suy của 11 điểm mà
độ hồi tưởng là 0.0, 0.1, … , 1.0. Độ đo này được sử dụng khi phương pháp
phân lớp tính hạng tài liệu phù hợp với một lớp hoặc lớp tương tự với một tài
liệu.
Bên cạnh độ chính xác và độ hồi tưởng, một số độ đo phổ biến khác cũng được
sử dụng như: tỉ lệ đúng (Accuracy) và tỉ lệ lỗi (Error) kí hiệu là iAc và iEr của lớp iC :
iii
ii
i FNFPTP
FNTP
Ac ++
+=
i
iiii
ii
i AcFNFPTNTP
TNFP
Er −=+++
+= 1
1.3.4.2. Đánh giá dựa vào độ tương tự
Nếu phương pháp A và B đều khơng phân tài liệu vào đúng lớp iC của nĩ, nhưng
phương pháp A phân vào lớp tương tự với lớp iC hơn thì phương pháp A được đánh
giá là tốt hơn so với phương pháp B. Vì vậy, Sun và Lim [3] đã mở rộng định nghĩa độ
chính xác và độ hồi tưởng chuẩn để đánh giá bộ phân lớp A và B.
Độ tương tự giữa hai lớp iC và kC , kí hiệu là ( )ki CCCS , cĩ thể được tính bằng
nhiều cách khác nhau.
Trong phân lớp văn bản, nếu mỗi tài liệu được biểu diễn là một vector thuộc tính:
{ }NNi twtwtwC ,...,, 2211=
{ }NNk tvtvtvC ,...,, 2211=
Độ tương tự (Category Similarity - CS) và độ tương tự trung bình (Average
Category Similarity - ACS) được tính theo cơng thức:
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 15 -
( )
( )
∑ ∑
∑
= −
=
×
×
=
N
n
N
n
nn
N
n
nn
ki
vw
vw
CCCS
1 1
22
1,
( )
( )1
,2
1 1
−×
×
=
∑ ∑
= +=
mm
CCCS
ASC
m
i
m
ik
ki
Trong đĩ tn là chỉ số từ khĩa và wn và vn là trọng số từ khĩa.
Dựa vào độ đo tương tự, chúng ta cĩ thể tính mức độ đúng của việc tài liệu jd
được gán vào lớp Ci. Trường hợp đơn giản nhất là jd được gán vào đúng lớp Ci , tức
là do jd iTP∈ , jd được tính là một trong cơng thức tính độ chính xác và độ hồi tưởng
của lớp Ci. Tuy nhiên, nếu jd khơng được gán nhãn đúng (tức là ij FPd ∈ ) chúng ta
sẽ xem xét độ tương tự của các lớp mà jd được gán nhãn với lớp Ci bằng cách tính
phân phối của jd đối với lớp Ci , kí hiệu là ( )ij CdCon , theo cơng thức:
( )
( )( )
ACS
ACSCCCS
CdCon agddC
i
ij
j
−
−′
=
∑
∈′
1
,
, .
Trong đĩ, agdd j . là các lớp mà jd được gán vào.
Tương tự, nếu jd là dữ liệu âm và thuật tốn phân đúng vào lớp Ci , tức là
ij TNd ∈ , thì phân phối của jd với lớp Ci phụ thuộc vào độ tương tự giữa lớp Ci và
các lớp mà jd thực sự thuộc (kí hiệu là lbdd j . ):
( )
( )( )
ACS
ACSCCCS
CdCon lbddC
i
ij
j
−
−′
=
∑
∈′
1
,
, .
Phân phối của một tài liệu cĩ thể cĩ giá trị âm hoặc dương, phụ thuộc vào độ
tương tự giữa các nhãn được gán cho tài liệu và các lớp chứa tài liệu và độ tương tự
trung bình ACS. Chú ý rằng một tài liệu cĩ thể thuộc nhiều hơn một lớp. Phân phối của
một tài liệu jd với lớp Ci được hạn chế trong đoạn [-1,1]. Vì vậy, phân phối cải tiến
(Refined - Contribution), kí hiệu ( )ij CdRCon , được xác định:
( ) ( )( )( )ijij CdConCdRcon ,,1max,1min, −=
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 16 -
Với tất cả các tài liệu thuộc FPi , tổng phân phối FpConi sẽ là:
( )∑
∈
=
ij FPd
iji CdRConFpCon ,
Tương tự, tổng phân phối TnConi là:
( )∑
∈
=
ij TNd
iji CdRConTnCon ,
Độ chính xác và độ hồi tưởng mở rộng cho lớp Ci dựa vào độ tương tự được xác
định như sau:
Precision:
( )
iii
iiiCS
i FpConTNTP
TnConFpConTP
++
++= ,0maxPr
Recall:
( )
iii
iiiCS
i TnConFPTP
TnConFpConTP
++
++= ,0maxRe
Ngồi ra, chúng ta cũng cĩ thể đánh giá dựa vào khoảng cách giữa các lớp [3].
Thay vì sử dụng độ tương tự giữa các lớp, chúng ta sử dụng độ đo khoảng cách giữa
các lớp. Khoảng cách giữa hai lớp Ci và Ck, kí hiệu là Dis(Ci, Ck) được định nghĩa là số
đường liên kết giữa Ci và Ck. Nếu đường liên kết càng ngắn thì hai lớp càng gần nhau
hơn. Từ đĩ, cĩ thể tính được độ hồi tưởng, độ chính xác và độ đo F dựa vào khoảng
cách giữa các lớp.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 17 -
Chương 2. CÁC PHƯƠNG PHÁP PHÂN LỚP VĂN BẢN
Phân lớp văn bản là quá trình gán nhãn các văn bản ngơn ngữ tự nhiên vào một
hoặc nhiều lớp từ tập các lớp hữu hạn cho trước. Hiện nay tồn tại rất nhiều thuật tốn
phân lớp văn bản như: thuật tốn K người láng giềng gần nhất, thuật tốn học cây
quyết định [4][5][7], thuật tốn Nạve Bayes, thuật tốn máy hỗ trợ vector
[13][11][14][12][16], thuật tốn Boosting, Mơ hình Maximum Entropy[15][16][2]…
Chương này sẽ giới thiệu một số thuật tốn điển hình, trong đĩ tập trung vào thuật tốn
Maximum Entropy.
2.1. Thuật tốn K người láng giềng gần nhất
Bộ phân lớp dựa trên thuật tốn K người láng giềng gần nhất là một bộ phân lớp
dựa trên bộ nhớ, đơn giản vì nĩ được xây dựng bằng cách lưu trữ tất cả các đối tượng
trong tập huấn luyện. Để phân lớp cho một điểm dữ liệu mới x, trước hết bộ phân lớp
sẽ tính khoảng cách từ điểm dữ liệu trong tập huấn luyện. Qua đĩ tìm được tập N(x, D,
k) gồm k điểm dữ liệu mẫu cĩ khoảng cách đến x là gần nhất. Ví dụ nếu các dữ liệu
mẫu được biểu diễn bởi khơng gian vector thì chúng ta cĩ thể sử dụng khoảng cách
Euclian để tính khoảng cách giữa các điểm dữ liệu với nhau. Sau khi xác định được
tập N(x, D, k), bộ phân lớp sẽ gán nhãn cho điểm dữ liệu x bằng lớp chiếm đại đa số
trong tập N(x, D, k). Mặc dù rất đơn giản, nhưng thuật tốn K người láng giềng gần
nhất đã cho kết quả tốt trong nhiều ứng dụng thực tế.
Để áp dụng thuật tốn K người láng giềng vào tài liệu văn bản, chúng ta sử dụng
hàm tính trọng số cho mỗi lớp theo biểu thức :
( , , )
( | ) c o s ( , )
x N c x D k
S c o r e c x x x
′∈
′= ∑
Trong đĩ Nc(x, D, k) là tập con chỉ chứa các đối tượng thuộc lớp c của tập N(x,
D, k).
Khi đĩ tài liệu x sẽ được phân vào lớp c0 nếu:
{ }CcxcscoreMaxxocscore ∈= ),|()|(
¾ Phương pháp K người láng giềng gần nhất là một phương pháp đươn giản.
Tuy nhiên, thuật tốn này ổn định và sai sĩt thấp khi số văn bản trong tập văn bản láng
giềng phải lớn.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 18 -
2.2. Mơ hình cây quyết định (Decision Tree)
Trong lý thuyết quyết định, một cây quyết định là một đồ thị những quyết định
và những kết quả cĩ khả năng của chúng (bao gồm cả giá phải trả và độ rủi ro) được
sử dụng để tạo ra một đường đi tới đích [4]. Cây quyết định là một dạng đặc biệt của
cấu trúc cây được xây dựng để trợ giúp việc ra quyết định.
Trong lĩnh vực học máy, cây quyết định là một mơ hình dự đốn, cĩ nghĩa là từ
việc quan sát các item để rút ra kết luận về giá trị đích của item đĩ. Mỗi nút bên trong
tương đương với một biến, mỗi cung đi tới một nút con tương ứng với giá trị cĩ thể
của biến đĩ. Các là tương ứng với giá trị đích được dự đốn cho các biến. Kỹ thuật học
máy sử dụng việc xây dựng cây quyết định trên tập dữ liệu được gọi là học cây quyết
định hay đơn giản chỉ là cây quyết định.
Học cây quyết định cũng là một phương pháp rất thơng dụng trong khai phá dữ
liệu. Trong đĩ cây quyết định mơ tả cấu trúc cây mà ở đĩ các lá đại diện cho các lớp
và các nhánh cây biểu diễn sự kết hợp của các đặc trưng dẫn dắt tới việc phân lớp. Một
cây quyết định cĩ thể được học bằng cách chia tập nguồn thành các tập con dựa trên
giá trị các thuộc tính kiểm tra [4], [5]. Quá trình này được lặp lại trên từng tập con thu
được. Quá trình đệ quy sẽ kết thúc khi khơng thể chia tiếp được nữa hoặc khi từng
phần tử của tập con được gán với một lớp đơn [5].
Cây quyết định được mơ tả bằng cách tính tốn xác suất cĩ điều kiện. Cây quyết
định cũng cĩ thể được mơ tả như là một kỹ thuật tính tốn và hỗ trợ tốn học, kỹ thuật
này hỗ trợ việc mơ tả, phân loại và khái quát tập dữ liệu đưa vào. Dữ liệu đưa vào
dạng ghi cĩ dạng:
(x, y) = (x1, x2, … ,xk, y )
Biến phụ thuộc y là biến mà chúng ta cố gắng để biết, phân lớp hay tổng quát
hĩa, cịn các biến x1, x2,… là các biến giúp ta thực hiện cơng việc đĩ.
Để xây dựng được cây quyết định của tập dữ liệu nào đĩ chúng ta phải hiểu được
khái niệm độ đo Entropy và Information Gain (Lợi ích thơng tin).
Khái niệm lượng thơng tin và độ đo Entropy:
Khái niệm lượng thơng tin được Shanon (nhà tốn học, nhà vật lý) [7] đưa ra
năm 1948 thơng qua khái niệm trung gian là “độ bất định” trong dự án khả năng xảy ra
trước khi nhận được thơng tin. Sau khi nhận được thơng tin, nếu độ bất định giảm đi
thì cĩ thể coi lượng thơng tin nhận được là bằng mức độ giảm đi của độ bất định. Nếu
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 19 -
dự đốn càng nhiều tình huống cĩ thể xảy ra thì độ bất định trong dự báo càng lớn.
Tuy nhiên Shanon cũng cho rằng trong n tình huống dự đốn cĩ thể xảy ra khơng nhất
thiết cả n tình huống đều cĩ khả năng xảy ra như nhau, do vậy cơng thức tính độ bất
định do ơng đưa ra cĩ tính tới các xác suất khác nhau của dự báo. Độ đo entropy của
biến ngẫu nhiên rời rạc x với n trạng thái cĩ thể 1, 2, … , n là:
∑ ∑
= =
−=⎟⎟⎠
⎞
⎜⎜⎝
⎛=
n
i
n
i
ipip
ip
ipxH
1 1
22 )(log)()(
1log)()(
Cơng thức này hồn tồn trùng với cơng thức tính Entropy trong nhiệt động học
do nhà tốn học Boltzmann người áo đưa ra.
Theo nguyên lý thứ 2 của nhiệt động học thì một hệ kín, khơng cĩ trao đổi năng
lượng bên ngồi tất yếu sẽ chuyển động đến trạng thái cân bằng tới khi các bộ phận
cấu thành của hệ thống đĩ giống nhau, đồng nhất và mất đi cấu trúc hay là tan vỡ trật
tự và trở nên hỗn độn.
Entropy là đại lượng để đo trạng thái mất trật tự, mất cấu trúc trong hệ thống. Độ
đo entropy luơn là một số dương [7].
Lợi ích thơng tin (Information Gain)
Gain(S, A) là lợi ích thơng tin mà thuộc tính A mang lại cho sự phân lớp tập S. A
cĩ m giá trị v1, v2, … , vm
Ký hiệu Svi = {x ∈ S | x cĩ giá trị thuộc tính A là vi}
U
m
i
vi SS
1=
=
∑
=
=
m
i
vi
vi SEntropy
S
S
ASGain
1
)(
||
||
),(
|S| là số phần tử của tập S
Thuật tốn tìm cây quyết định: Cho tập ví dụ huấn luyện D. Tìm cây quyết định
phù hợp với D.
Bước 1:
Khởi tạo cây một đỉnh gốc
Tồn bộ tập ví dụ huấn luyện D đều đi vào đỉnh này.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 20 -
Bước 2:
Repeat
Chọn một đỉnh lá chưa gán nhãn để phát triển gọi là đỉnh hiện thời
Giả sử tập ví dụ huấn luyện đi vào đỉnh này là S
2.1 If (S = rỗng)
Then (gán nhãn chung nhất trong D)
Else
2.2 if (tất cả các ví dụ trong S đều được gán cùng một nhãn c)
Then (đỉnh hiện thời được gán nhãn c)
Else
2.3 Đỉnh hiện thời được gán nhãn là thuộc tính A trong đĩ
A = argmax Gain (S, Ai)
Ai: ứng viên là nhãn của đỉnh hiện thời và mỗi giá trị v của A được
gán nhãn cho nhánh đi từ A tới đỉnh mới.
Tập ví dụ huấn luyện đi tới đỉnh mới đĩ là Sv trong đĩ
Sv = {s ∈ S | s cĩ giá trị của thuộc tính A là v}
Until (tất cả các đỉnh của cây đều được gán nhãn)
¾ So với các phương pháp khác trong Data Mining, phương pháp cây quyết
định cĩ những ưu điểm nổi bất như:
- Rất dễ hiểu và dễ giải thích: mọi người đều cĩ thể hiểu mơ hình cây quyết
định qua một số giải thích tổng quát ban đầu.
- Dữ liệu dùng cho cây quyết định chỉ là những dữ liệu căn bản hoặc cĩ thể
khơng cần thiết. Một số kỹ thuật khác cĩ thể địi hỏi dữ liệu chuẩn, tạo các
biến giả và loại bỏ đi các giá trị trống.
- Cĩ khả năng xử lý cả dữ liệu thực và dữ liệu mập mờ. Một số kỹ thuật khác
chỉ sử dụng những tập dữ liệu đặc biệt chẳng hạn như mạng nơron cĩ thể chỉ
sử dụng các biến là số.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 21 -
- Cĩ thể kiểm chứng mơ hình bằng cách thử thống kê.
- Cĩ khả năng thực hiện tốt đối với dữ liệu lớn trong thời gian ngắn: một lượng
lớn dữ liệu cĩ thể được phân tích bằng máy tính cá nhân trong thời gian ngắn
đủ để người sử dụng đưa ra quyết định dựa trên sự phân tích đĩ.
Tuy nhiên sử dụng phương pháp cây quyết định cĩ thể xảy ra hiện tượng overfit,
tức là tồn tại một giả thuyết h phù hợp với tập ví dụ huấn luyện nhưng tiên đốn khơng
chính xác bằng giả thuyết h’ ít phù hợp với tập ví dụ huấn luyện hơn so với h.
Để giải quyết vấn đề này chúng ta phải dùng cách chặt bớt cây (pruning), bỏ bớt
đi các nhánh dữ liệu nhiễu và dư thừa…
2.3. Thuật tốn máy hỗ trợ vector (SVM – Suport Vector Machine)
Thuật tốn máy vector hỗ trợ (Support Vector Machines - SVM) được Corters
và Vapnik giới thiệu vào năm 1995 [13]. SVM rất hiệu quả để giải quyết các bài tốn
với dữ liệu cĩ số chiều lớn như các vector biểu diễn văn bản. Thuật tốn SVM ban đầu
chỉ được thiết kế để giải quyết bài tốn phân lớp nhị phân tức là số lớp hạn chế là hai
lớp. Hiện nay, SVM được đánh giá là bộ phân lớp chính xác nhất cho bài tốn phân
lớp văn bản [13], bởi vì đĩ là bộ phân lớp tốc độ rất nhanh và hiệu quả đối với bài tốn
phân lớp văn bản.
Cho tập dữ liệu học { }( , ), 1,...,i iD x y i n= = với mix R∈ và { }1,1iy ∈ − là một số
nguyên xác định ix là dữ liệu dương hay âm. Một tài liệu ix được gọi là dữ liệu dương
nếu nĩ thuộc lớp ic ; ix được gọi là dữ liệu âm nếu nĩ khơng thuộc lớp ic . Bộ phân lớp
tuyến tính được xác định bằng siêu phẳng:
{ }0: ( ) 0Tx f x w w= + =
Trong đĩ mw R∈ và 0w R∈ đĩng vai trị là tham số của mơ hình. Hàm phân lớp
nhị phân { }: 0,1mh R → cĩ thể thu được bằng cách xác định dấu của f(x) :
Học bộ phân lớp của mơ hình bao gồm việc xác định w và 0w từ dữ liệu. Với
thuật tốn này, mỗi dữ liệu được xem là một điểm trong mặt phẳng. Dữ liệu học là
1
( )
0
h x ⎧=⎨⎩
Nếu 0)( >xf
ngược lại
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 22 -
tách rời tuyến tính (linearly separable) nếu tồn tại một siêu phẳng sao cho hàm phân
lớp phù hợp với tất cả các nhãn; tức là ( ) 0i iy f x > với mọi i = 1,...,n. Với giả thuyết
này, Rosenblatt đã đưa ra một thuật tốn đơn giản để xác định siêu phẳng :
1. w ←0
2. w0←0
3. repeat
4. e←0
5. for i←1,…,n
6. do s←sign(yi(wTxi +w0)
7. if s<0
8. then w ←w + yixi
9. w0←w0 + yixi
10. e←e+1
11. util e=0
12. return (w,w0)
Điều kiện cần để D tách rời tuyến tính là số dữ liệu học n = |D| nhỏ hơn hoặc
bằng m+1. Điều này là thường đúng với bài tốn phân lớp văn bản, bởi vì số lượng từ
mục cĩ thể lên tới hàng nghìn và lớn hơn nhiều lần so với số lượng dữ liệu học.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 23 -
Trong hình 4, giả sử rằng các dữ liệu mẫu thuộc lớp âm và lớp dương đều tuân
theo luật phân bố chuẩn Gaussian, và được tạo ra với cùng một xác suất. Khi đĩ một
siêu phẳng phân cách được gọi là lý tưởng nếu nĩ làm cực tiểu xác suất phân lớp sai
cho một điểm dữ liệu mới. Với giả thuyết ở trên thì siêu phẳng phân cách lý tưởng sẽ
trực giao với đoạn thẳng nối tâm của hai vùng cĩ mật độ xác suất lớn nhất.
Rõ ràng các siêu phẳng mà chúng ta xây dựng nhằm phân cách các điểm dữ liệu
mẫu cĩ thể lệch đi rất nhiều so với siêu phẳng lý tưởng, do đĩ sẽ dẫn tới việc phân lớp
khơng tốt trên dữ liệu mới sau này. Độ phức tạp của quá trình xác định siêu phẳng lý
tưởng sẽ tăng theo số chiều của khơng gian đầu vào m, vì với một số lượng các dữ liệu
mẫu cố định, tập hợp các siêu phẳng thực tế sẽ tăng theo hàm mũ với lũy thừa m. Với
bài tốn phân lớp trang văn bản, m thường rất lớn, khoảng vài ngàn hay thậm chí là
hàng triệu từ.
Siêu phẳng lý tưởng
Siêu phẳng thực tế
Hình 4. Mối quan hệ giữa các siêu phẳng phân cách
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 24 -
Theo lý thuyết thống kê được phát triển bởi Vapnik năm 1998 chỉ ra rằng : chúng
ta cĩ thể xác định một siêu phẳng tối ưu thoả mãn hai tính chất quan trong : nĩ là duy
nhất với mỗi tập dữ liệu học tách rời tuyến tính; và khả năng overfitting là nhỏ hơn so
với các siêu phẳng khác [14]. Định nghĩa biên M của bộ phân lớp là khoảng cách giữa
các siêu phẳng và các dữ liệu học gần nhất. Siêu phẳng tối ưu nhất là siêu phẳng cĩ
biên lớn nhất, điều đĩ cĩ nghĩa là chúng ta cần tìm siêu phẳng sao cho khoảng cách từ
siêu phẳng đến những điểm gần nhất là lớn nhất (Hình 5). Vapnik cũng chứng minh
rằng khả năng overfitting với siêu phẳng tối ưu nhỏ hơn so với các siêu phẳng khác.
Khoảng cách từ một điểm x đến siêu phẳng là :
( )01 Tw ww +
Vì vậy siêu phẳng tối ưu cĩ thể thu được bằng ràng buộc tối ưu sau:
0,
max
w w
M Sao cho ( )01 , 1,...,Ti iy w x w M i nw + ≥ =
Trong đĩ ràng buộc yêu cầu mỗi tài liệu học (tương đương với các điểm) phải
nằm trên nửa mặt phẳng của nĩ và khoảng cách từ điểm tới siêu phẳng lớn hơn hoặc
bằng M.
Hình 5. Siêu phẳng tối ưu và biên
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 25 -
Đặt 1Mw = biểu thức trên được viết lại như sau:
0,
min
w w
w Sao cho : ( )0 , 1,...,Ti iy w x w M i n+ ≥ =
Đưa về phương trình Lagrangian:
( )2 0
1
1( ) 1
2
n
T
i i
i
L D w y w wα
=
⎡ ⎤= − + + −⎣ ⎦∑
Sau đĩ tính đạo hàm của phương trình trên với 0,w w ta thu được:
1
1max
2
n
T
i
iα
α α α
=
− Λ +∑ thoả mãn : i 0 1,...,i nα ≥ =
Với Λ là ma trận n n× trong đĩ Tij i j i jy y x xα = . Đây là bài tốn bậc hai, theo lý
thuyết cĩ thể giải được bằng phương pháp chuẩn tối ưu. Với mỗi dữ liệu học i, cách
giải phải thoả mãn điều kiện:
( )0 1 0Ti iy w wα ⎡ ⎤+ − =⎣ ⎦
Và do đĩ hoặc 0iα = hoặc ( )0 1Ti iy w x w+ = . Nĩi cách khác, nếu 0iα > thì
khoảng cách từ điểm ix đến mặt phẳng phân cách là M.
Các điểm thoả mãn 0iα > được gọi là các vector hỗ trợ. Hàm quyết định h(x) cĩ
thể được tính qua cơng thức dấu của f(x) hoặc tương đương với dạng sau:
1
( )
n
T
i i i
i
f x y x xα
=
=∑
Nếu dữ liệu học khơng tách rời tuyến tính, thêm biến iξ và thay phương trình
trên bằng phương trình:
0, 1
min
n
iw w i
w C ξ
=
+ ∑ thoả mãn ( )0 1 1,...,
0 1,...,
T
i i i
i
y w x w i n
i n
ξ
ξ
⎧ + ≥ − =⎪⎨ ≥ =⎪⎩
Vấn đề này cĩ thể đưa về dạng:
1
1max
2
n
T
i
iα
α α α
=
− Λ +∑ thoả mãn: 0 1,....,i C i nα≤ ≤ =
Bộ phân lớp theo cách này được gọi là bộ phân lớp máy vector hỗ trợ – Support
Vector Machine.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 26 -
¾ Phương pháp SVM được coi là phương pháp hiệu quả để giải quyết bài tốn
phân lớp với dữ liệu cĩ số chiều lớn như các vector biểu diễn văn bản. Về mặt lý
thuyết, thuật tốn phân lớp nhị phân này cũng cĩ thể sử dụng cho bài tốn phân lớp đa
lớp bằng cách chuyển bài tốn đa lớp thành bài tốn nhị phân. Tuy nhiên, đối với bài
tốn phân lớp văn bản sử dụng phương pháp SVM thì việc lựa chọn thuộc tính cho
từng phân lớp lại là vấn đề cực kỳ quan trọng, nĩ quyết định đến hiệu quả của phân
lớp.
2.4. Mơ hình Entropy cực đại
2.4.1. Định nghĩa nguyên lý entropy cực đại
Cĩ rất nhiều thuật tốn của phương pháp học giám sát đã được đưa ra để giải
quyết bài tốn phân lớp văn bản như giả thiết Nạve Bayes [Lewis, 1998; McCallum
and Nigam, 1998; Sahami, 1996], K - người láng giềng gần nhất [Yang, 1999], máy hỗ
trợ vector [Joachims, 1998; Dumais et al., 1998], boosting [Schapire and Singer,
1996], Các thuật tốn học luật [Cohen and Singer, 1996; Slattery và Craven, 1998].
Tuy nhiên, trong số đĩ chưa cĩ một thuật tốn nào được chứng minh là làm tốt hơn các
thuật tốn khác trên nhiều miền ứng dụng.
Sử dụng kỹ thuật Entropy cực đại cho bài tốn phân lớp văn bản như là một cách
thay thế các thuật tốn đã được dùng trước đây. Entropy cực đại đã được sử dụng rộng
rãi cho nhiều ngơn ngữ tự nhiên. Entropy cực đại đã chứng tỏ được là một thuật tốn
hiệu quả và cạnh tranh cao trong nhiều miền ứng dụng.
Đối với bài tốn phân lớp dữ liệu, Entropy cực đại là một kỹ thuật dùng để ước
lượng xác suất các phân phối từ dữ liệu. Tư tưởng chủ đạo của nguyên lý Entropy cực
đại là “mơ hình phân phối đối với mỗi tập dữ liệu và tập các ràng buộc đi cùng phải
đạt được độ cân bằng / đều nhất cĩ thể” [15]. Tập dữ liệu học (tức là tập gồm các dữ
liệu đã được gán nhãn) được sử dụng để tìm ra các ràng buộc cho mơ hình, đĩ là cơ sở
để ước lượng phân phối cho từng lớp cụ thể. Những ràng buộc này được thể hiện bởi
các giá trị ước lượng được của các đặc trưng. Từ các ràng buộc sinh ra bởi tập dữ liệu
này, mơ hình sẽ tiến hành tính tốn để cĩ được một phân phối cho Entropy cực đại
[10], [15].
Ví dụ một mơ hình Entropy cực đại: “Giả sử với bộ phân lớp về lĩnh vực kinh tế
trên báo VnEconomy cĩ bốn lớp chính được chỉ ra là ngân_hàng, chứng_khốn,
bất_động_sản, doanh_nghiệp. Các thống kê dữ liệu chỉ ra rằng trung bình 70% các tài
liệu trong lớp ngân_hàng cĩ chứa từ vay_vốn. Như vậy một cách trực quan cĩ thể thấy
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 27 -
rằng nếu một tài liệu D cĩ chứa từ vay_vốn thì xác suất được phân vào lớp ngân_hàng
là 70% và xác suất phân vào ba lớp cịn lại là 10% đối với mỗi lớp. Nếu tài liệu D
khơng chứa từ vay_vốn thì xác suất phân phối của D là 25% đều cho mỗi lớp.”
Trong ví dụ trên, “nếu tài liệu chứa cụm từ vay_vốn thì cĩ xác suất phân vào lớp
ngân_hàng là 70%” là một ràng buộc của mơ hình.
2.4.2. Các ràng buộc và đặc trưng
Trong nguyên lý Entropy cực đại, chúng ta sử dụng tập dữ liệu mẫu làm để thiết
lập ràng buộc cho phân phối điều kiện. Với mỗi ràng buộc được mơ tả bởi một đặc
tính của tập dữ liệu học. Một đặc trưng trong mơ hình Entropy cực đại được biểu diễn
bởi một hàm fi(d, c), trong đĩ d là tài liệu và c là lớp. Entropy cực đại cho phép giới
hạn mơ hình phân phối để cĩ thu các giá trị kỳ vọng cho mỗi đặc trưng của tập dữ liệu.
Vì vậy, ta cĩ thể đặt xác suất phân phối của dữ liệu d cho lớp c là P(c|d) thỏa mãn
phương trình sau:
Trong quá trình huấn luyện, phân phối tài liệu P(d) là khơng biết và chúng ta
khơng cần quan tâm tới nĩ. Vì vậy, ta chỉ sử dụng tập dữ liệu mẫu như là một điều
kiện để phân phối dữ liệu tuân theo ràng buộc sau:
Như vậy khi sử dụng entropy cực đại, bước đầu tiên là cần xác định tập các hàm
đặc tính sẽ sử dụng cho phân lớp. Sau đĩ, với mỗi đặc tính, ước lượng giá trị kỳ vọng
thơng qua tập dữ liệu học và tạo ra các ràng buộc cho mơ hình phân phối.
2.4.3. Mơ hình Entropy cực đại
Mơ hình xác suất Entropy cực đại cung cấp một cách đơn giản để kết hợp các đặc
trưng của tài liệu trong những ngữ cảnh khác nhau để ước lượng xác suất của một số
lớp xuất hiện cùng với một số ngữ cảnh này. Tư tưởng cơ bản của phương pháp
Entropy cực đại là tìm ra một mơ hình cĩ phân phối xác suất thỏa mãn mọi ràng buộc
quan sát được từ dữ liệu mà khơng đưa thêm bất kì một giả thiết nào khác. Theo
nguyên lý Entropy cực đại, phân phối cần đáp ứng dữ liệu quan sát và làm cực đại độ
đo Entropy cĩ điều kiện:
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 28 -
( ) ( ) ( ) ( )
,
| log |≡ −∑ %
c d
H p p c p c d p d c
( )* a rg m a x
∈
=
p C
p H p
Trong đĩ p* là phân xác suất tối ưu.
Mơ hình Entropy cực đại xây dựng các đặc trưng từ tập dữ liệu huấn luyện. Mỗi
đặc trưng được biểu diễn dưới một hàm nhận một trong hai giá trị đúng hoặc sai. Tập
các ràng buộc sẽ được thiết lập từ các đặc trưng này. Một ràng buộc là một điều kiện
từ dữ liệu buộc mơ hình phải thỏa mãn. Mỗi đặc trưng fi được gán cho một trọng số
iλ . Khi đĩ, bài tốn phân lớp được đưa về bài tốn ước lượng xác suất cĩ điều kiện:
Trong đĩ Z(d) là biểu thức chuẩn hĩa để đảm bảo điều kiện ( ) 1| =∑ dcp . Từ đĩ
đưa ra cơng thức sau:
2.3.4. Entropy cực đại cho phân lớp văn bản
Để áp dụng mơ hình Entropy cực đại cho một miền, chúng ta cần phải chọn ra
một tập các đặc trung để sử dụng thiết lập các ràng buộc. Đối với phân lớp văn bản với
mơ hình Entropy cực đại, chúng ta sử dụng số lượng từ như là các đặc trưng. Trong
nghiên cứu này cho với mỗi từ kết hợp, ta đưa ra một đặc tính như sau:
Trong đĩ, N(d, w) là số lần từ w xuất hiện trong tài liệu d, và N(d) là số lượng
các từ cĩ trong tài liệu d.
Trong cơng thức này, nếu một từ xuất hiện thường xuyên trong một tài liệu, ta sẽ
tính trọng số cho các cặp từ này và thấy rằng trọng số đĩ sẽ cao hơn so với trọng số
của các từ ghép trong tài liệu. Trong hầu hết ngơn ngữ tự nhiên sử dụng Entropy cực
đại thì các đặc trưng thường là đặc trưng nhị phân. Trong phân lớp văn bản, chúng ta
mong muốn các đặc trưng được tính bằng số lần suất hiện của một từ trong một tài liệu
cĩ thể củng cố cho phân lớp.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 29 -
Một trong những khía cạnh đặc biệt của Entropy cực đại là nĩ khơng bị bất kỳ
giả thuyết độc lập nào ràng buộc. Ví dụ, với cụm từ “Buenos Aires”, hai từ này hầu
như luơn xuất hiện động thời cùng nhau.Với giả thiết Nạve Bayes sẽ đếm số từ xuất
hiện hai lần trong cụm từ này. Mặt khác, Entropy cực đại sẽ giảm giá trị trọng số
iλ của mỗi đặc trưng đi một nửa. Một trong những hệ của việc khơng phụ thuộc vào
bất kỳ giả thuyết độc lập nào đĩ là các sơ đồ và các cụm từ cĩ thể được thêm vào các
đặc trưng của Entropy cực đại một cách dễ dàng mà khơng cần lo lắng rằng các đặc
tính này chồng lên nhau.
¾ Ưu điểm của mơ hình Entropy cực đại:
- Cho phép khả năng hầu như khơng hạn chế trong việc biểu diễn các vấn đề
phức tạp về tri thức thơng qua dạng các hàm đặc trưng.
- Cĩ thể giải quyết nhiều dạng thuộc tính khác nhau.
- Các giả thiết khơng cần phải độc lập với nhau.
- Trọng số của các đặc trưng được xác định một cách tự động.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 30 -
Chương 3. BÀI TỐN PHÂN LỚP VĂN BẢN TÀI CHÍNH
NGÂN HÀNG TIẾNG VIỆT
3.1. Một số đặc trưng của dữ liệu tài chính ngân hàng trong tiếng
Việt
Luận văn tập trung nghiên cứu trên tập các văn bản về lĩnh vực tài chính ngân
hàng Việt Nam với ngơn ngữ Tiếng Việt. Bất kỳ một ngơn ngữ nào cũng cĩ các đặc
trưng riêng, hơn nữa Tiếng Việt cịn là ngơn ngữ rất đa dạng, phong phú về từ ngữ,
ngữ pháp… Một số đặc điểm của Tiếng Việt được liệt kê dưới đây:
- Tiếng Việt thuộc ngơn ngữ đơn lập, tức là mỗi một tiếng (âm tiết) được phát
âm tách rời nhau và được thể hiện bằng một chữ viết.
- Đặc điểm ngữ âm: Trong Tiếng Việt cĩ một loại đơn vị đặc biệt gọi là “tiếng”.
Về mặt ngữ âm mỗi tiếng là một âm tiết.
- Đặc điểm từ vựng: mỗi tiếng, nĩi chung, là một yếu tố cĩ nghĩa. Tiếng là đơn
vị cơ sở của hệ thống các đơn vị cĩ nghĩa của Tiếng Việt. Từ tiếng người ta
tạo ra các đơn vị từ vựng khác để định danh sự vật, hiện tượng nhờ phương
pháp ghép và láy từ...
Vốn từ vựng tối thiểu của Tiếng Việt phần lớn là các từ đơn tiết (một âm tiết,
một tiếng). Sự linh hoạt trong sử dụng, việc tạo ra các từ ngữ mới nột cách dễ
dàng đã tạo điều kiện thuận lợi cho sự phát triển vốn từ, vừa phong phú về số
lượng, vừa đa dạng trong hoạt động. Cùng một sự vật, hiện tượng, một hoạt
động hay một đặc trưng, cĩ thể được biểu thị theo nhiều cách khác nhau.
- Đặc điểm ngữ pháp: Từ của Tiếng Việt khơng biến đổi hình thái khi kết hợp
các từ để làm thành kết cấu như ngữ, câu Tiếng Việt rất coi trọng trật tự từ và
hư từ.
Việc sắp xếp các từ theo một trật tự nhất định là cách chủ yếu để biểu thị các
quan hệ cú pháp. Trong Tiếng Việt, nĩi “Anh ta lại đến” là khác với nĩi “Lại
đến anh ta”. Khi các từ cùng loại kết hợp với nhau theo quan hệ chính phụ thì
từ đứng trước giữ vai trị chính, từ đứng sau giữ vai trị phụ. Nhờ trật tự kết
hợp từ mà ta thấy “cảm tình” khác với “tình cảm”. Trật tự chủ ngữ đứng
trước, vị ngữ đứng sau là trật tự phổ biến của kết cấu câu Tiếng Việt.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 31 -
Phương thức hư từ cũng là phương pháp phổ biến trong Tiếng Việt. Nhờ hư từ
mà tổ hợp từ “anh của em” khác với tổ hợp từ “anh và em” hay “anh vì em”.
Ngồi những đặc điểm chung của Tiếng Việt, văn bản tài chính ngân hàng Việt
Nam cịn cĩ những đặc điểm riêng, chẳng hạn cĩ chứa những từ, cụm từ đặc trưng
như: “ngân hàng”, “cho vay”, “lãi suất vay vốn”, “lãi suất tiết kiệm”, “cổ phiếu”, “thị
trường tiền tệ”, “huy động vốn”…
3.2. Xây dựng một số lớp trong lĩnh vực tài chính ngân hàng
Trong phần này, khĩa luận sẽ đi xây dựng một tập các nhãn (lớp) trên lĩnh vực tài
chính ngân hàng.
Thơng qua việc khảo sát dữ liệu về tài chính ngân hàng được thu thập từ các
trang Web và quá trình nghiên cứu về nghiệp vụ ngân hàng, tài chính Việt Nam [6],
khĩa luận xin đề xuất một tập các nhãn (lớp) để đưa ra thử nghiệm ban đầu, với những
khái niệm cơ bản sau:
Huy động vốn: Ngân hàng được huy động vốn dưới các hình thức sau:
- Nhận tiền gửi của tổ chức kinh tế, cá nhân và các tổ chức tín dụng khác dưới
hình thức tiền gửi khơng kỳ hạn, tiền gửi cĩ kỳ hạn, tiền gửi tiết kiệm và các
loại tiền gửi khác.
- Phát hành chứng chỉ tiền gửi, trái phiếu và giấy tờ cĩ giá khác để huy động
vốn của tổ chức, cá nhân trong nước và nước ngồi.
- Đi vay vốn của các tổ chức tín dụng trong và ngồi nước.
- Vay vốn ngắn hạn của Ngân hàng Nhà Nước.
- Các hình thức huy động vốn khác theo quy định của Ngân hàng Nhà Nước.
¾ Dữ liệu thuộc lớp huy động vốn gồm những văn bản cĩ nội dung liên quan
tới một trong những hoạt động huy động vốn vừa được nêu như: thơng tin về lãi suất
gửi tiền tiết kiệm, các hình thức vay vốn của ngân hàng đối với các tổ chức tín dụng
khác…
Tín dụng: Ngân hàng thương mại được cấp tín dụng cho tổ chức, cá nhân
dưới các hình thức cho vay, chiết khấu thương phiếu và giấy tờ cĩ giá khác,
bảo lãnh, cho thuê tài chính và các hình thức khác theo quy định của Ngân
hàng Nhà Nước. Trong các hoạt động cấp tín dụng, cho vay là hoạt động quan
trọng và chiếm tỷ trọng lớn nhất.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 32 -
- Cho vay: Ngân hàng thương mại được cho các tổ chức, cá nhân vay vốn dưới
các hình thức sau:
o Cho vay ngắn hạn (dưới 12 tháng) nhằm đáp ứng nhu cầu vốn cho sản xuất,
kinh doanh, dịch vụ và đời sống.
o Cho vay trung hạn, dài hạn (trên 12 tháng) để thực hiện các dự án đầu tư
phát triển sản xuất, kinh doanh, dịch vụ và đời sống.
- Bảo lãnh: Ngân hàng thương mại được bảo lãnh vay, bảo lãnh thanh tốn, bảo
lãnh thực hiện hợp đồng, bảo lãnh đấu thầu và các hình thức bảo lãnh ngân
hàng khác bằng uy tín và bằng khả năng tài chính của mình đối với một khách
hàng thương mại khơng được vượt quá tỷ lệ so với vốn tự cĩ của ngân hàng
thương mại.
- Chiết khấu: Ngân hàng thương mại được chiết khấu thương phiếu và các giấy
tờ cĩ giá ngắn hạn khác đối với tổ chức, cá nhân và cĩ thể tái chiết khấu các
thương phiếu và các giấy tờ cĩ giá ngắn hạn khác đối với tổ chức tín dụng
khác.
- Cho thuê tài chính: Ngân hàng thương mại được hoạt động cho thuê tài chính
nhưng phải thành lập cơng ty cho thuê tài chính riêng. Việc thành lập, tổ chức
và hoạt động của cơng ty cho thuê tài chính thực hiện theo Nghị định của
Chính Phủ về tổ chức và hoạt động của cơng ty cho thuê tài chính.
¾ Dữ liệu thuộc lớp tín dụng gồm những văn bản mang thơng tin về hoạt động
cho vay vốn, bảo lãnh, chiết khấu, cho thuê tài chính của ngân hàng đối với cá nhân và
tổ chức.
Dịch vụ thanh tốn: Để thực hiện các dịch vụ thanh tốn giữa các doanh
nghiệp thơng qua ngân hàng, ngân hàng thương mại được mở tài khoản tiền
gửi thanh tốn cho khách hàng trong và ngồi nước. Hoạt động dịch vụ thanh
tốn của ngân hàng thương mại bao gồm các hoạt động sau:
- Cung cấp các phương tiện thanh tốn như thẻ ghi nợ (debit card), thẻ tín dụng
(credit card) cĩ phạm vi thanh tốn cĩ thể thực thanh tốn trong và ngồi
nước.
- Thực hiện các dịch vụ thanh tốn theo nhu cầu của khách hàng (ủy nhiệm chi,
thanh tốn lương, thanh tốn hĩa đơn,…).
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 33 -
- Thực hiện dịch vụ thu hộ và chi hộ trong nội bộ ngân hàng hoặc liên ngân
hàng trong nước.
- Thực hiện các dịch vụ thanh tốn khác theo qui định của Ngân hàng Nhà
Nước.
- Thực hiện các dịch vụ thanh tốn quốc tế đối với khách hàng mở thư tín dụng
(letter credit).
- Thực hiện dịch vụ chuyển tiền trong và ngồi nước.
¾ Dữ liệu thuộc lớp dịch vụ thanh tốn gồm những văn bản mang thơng tin về
các hoạt động dịch vụ thanh tốn của ngân hàng như: cung cấp các phương tiện thanh
tốn, các dịch vụ liên quan đến thanh tốn như đã nêu ở trên…
Ngoại tệ: Gồm các thơng tin về việc ngân hàng thương mại trực tiếp kinh
doanh hoặc thành lập cơng ty trực thuộc để kinh doanh ngoại hối, tiền tệ và
vàng trên thị trường trong nước và thị trường quốc tế.
Chứng khốn: Tất cả các ngân hàng thương mại muốn kinh doanh chứng
khốn đều phải lập cơng ty trực thuộc ngân hàng. Chẳng hạn, các ngân hàng
ngoại quốc doanh như Vietcombank, Incombank, Ngân hàng Đầu tư và Phát
triển, Ngân hàng Nơng nghiệp và phát triển nơng thơn,… đều cĩ thành lập
cơng ty chứng khốn. Cơ sở hạ tầng của thị trường chứng khốn bao gồm
những hệ thống và tổ chức cung cấp phương tiện cho giao dịch, thanh tốn, ký
gửi và lưu ký cổ phiếu, trái phiếu. Ngồi ra, cịn bao gồm cả những quy định
pháp lý làm cơ sở cho giao dịch và quản lý thị trường cổ phiếu.
¾ Dữ liệu thuộc lớp chứng khốn gồm những văn bản mang thơng tin về giao
dịch, thanh tốn, ký gửi, lưu ký cổ phiếu, trái phiếu của ngân hàng trên thị trường
chứng khốn.
3.3. Bài tốn phân lớp văn bản tài chính ngân hàng trong Tiếng Việt
3.3.1. Phát biểu bài tốn:
- Input: một tập văn bản (text) dữ liệu thơng tin về tài chính ngân hàng.
- Output: Phân loại từng văn bản vào các lớp tương ứng.
Ví dụ, đưa vào một văn bản cĩ chứa nhiều cụm từ đặc trưng như “cho vay vốn”
thì chương trình phải xác định được đặc trưng này và xếp văn bản này vào lớp tín
dụng.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 34 -
3.3.2. Phương pháp phân lớp
Như đã trình bày ở chương 3, cĩ rất nhiều phương pháp để giải quyết bài tốn
phân lớp văn bản như: K người láng giềng gần nhất, Cây quyết định, Máy hỗ trợ
vector (SVM), Mơ hình Entropy cực đại. Tùy đặc điểm của từng miền dữ liệu mà mỗi
phương pháp cĩ những ưu nhược điểm riêng. Tuy nhiên, Dựa trên kết quả thực nghiệm
của Hacioglu [25] và Li [22], Luận văn của Nguyễn Thị Hương Thảo [1], Trần Minh
Tuấn [2] đã cho thấy sử dụng phương pháp SVM, Entropy vào bài tốn phân lớp văn
bản cho kết quả rất khả quan. Mặt khác, trong quá trình nghiên cứu các thuật tốn đã
nêu ở chương 2, mơ hình Entropy cực đại cĩ ưu điểm hơn so với phương pháp cây
quyết định ở chỗ: việc ước lượng tham số trong mơ hình Entropy cực đại khơng cần
phải phân chia dữ liệu dẫn tới khơng xảy ra hiện tượng phân mảnh dữ liệu, do đĩ
khơng cần tới thuật tốn làm mịn để chặt bớt đi các nhánh dữ liệu dư thừa, thưa thớt .
So với phương pháp SVM thì phương pháp Entropy cực đại cĩ một ưu điểm lớn là
việc sử dụng các đặc trưng linh hoạt, dễ dàng khai báo các thuộc tính. Dựa vào kết quả
thực nghiệm của khĩa luận Trần Minh Tuấn [2] cịn cho thấy, đối với miền dữ liệu
Tiếng Việt thì phương pháp Entropy cực đại cho kết quả khả quan hơn phương pháp
SVM. Do cĩ những ưu điểm so với các phương pháp đã trình bày, phần tiếp theo luận
văn sẽ áp dụng mơ hình Entropy cực đại cho bài tốn phân lớp văn bản tài chính ngân
hàng Tiếng Việt.
3.3.3. Mơ hình của bài tốn phân lớp văn bản tài chính ngân hàng
Để xây dựng được bài tốn phân lớp văn bản dữ liệu về tài chính ngân hàng như
trên, trước hết chúng ta cần thu thập dữ liệu và thực hiện việc tách từ trong các văn
bản, loại bỏ từ dừng và biểu diễn các văn bản dưới dạng đặc trưng đầu vào cho mơ
hình Entropy cực đại. Các bước trong quá trình phân lớp văn bản được thực hiện như
sau:
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 35 -
Hình 6. Mơ hình bài tốn phân lớp dữ liệu tài chính ngân hàng
Quá trình tiền xử lý (preprocessing) dữ liệu thơng tin về tài chính ngân hàng gồm
cách bước sau:
- Tách từ: Với một tập văn bản đầu vào, thơng qua module tách từ, các từ trong
văn bản sẽ được nhận biết, mỗi từ sẽ được biểu diễn trong một cặp dấu ngoặc
vuơng ( [ ] ) và cách nhau bởi một kí tự trắng. Module tách từ sẽ giúp chúng ta
phân biệt được những từ cĩ nghĩa, là cơ sở để loại bỏ từ dừng. Ví dụ, với từ
“cao cấp”, nếu văn bản khơng qua xử lý tách từ và trong bộ từ dừng cĩ từ
Tập văn bản đầu vào
Module tách từ Tiếng Việt
Module loại bỏ từ dừng
Biểu diễn tất cả các văn bản
dưới dạng 1 văn bản đặc trưng
Với mỗi một dịng trong văn
bản đặc trưng
Module phân lớp văn bản
Tập văn bản kết quả
Văn bản đã được phân lớp
Lặp
hết
các
dịng
trong
văn
bản
đặc
trưng
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 36 -
“cao” thì khi qua xử lý loại bỏ từ dừng thì từ “cao” bị loại bỏ ngay lập tức
mà khơng cần biết tới nghĩa của nĩ khi đi cùng từ đằng sau. Ngược lại, nếu
văn bản được xử lý tách từ thì sẽ ko cĩ trường hợp loại bỏ này xảy ra. Module
tách từ làm cho quá trình loại bỏ từ dừng chính xác hơn.
Ví dụ, nội dung của một đoạn văn bản dữ liệu về tài chính ngân hàng sau khi qua
bộ tách từ:
[Đáy] [lãi suất] [cho vay] [về] [mức] [12%] / [năm][Lãi suất] [cho
vay] [bằng] [đồng] [Việt Nam] [vừa] [thiết lập] [đáy] [mới] [ở] [mức]
[12%] / [năm] [sau] [khi] [Ngân hàng] [Nhà nước] [cơng bố] [hạ] [lãi
suất] [cơ bản] [VND] [xuống] [cịn] [11%] / [năm] .[Vietcombank] [tạo]
[đáy] [lãi suất] [cho vay] [mới] [ở] [mức] [12%] / [năm][Từ] [nhiều]
[ngày nay] , [các] [ngân hàng] [thương mại] [đã] [cùng] [vào] [cuộc đua]
[giảm] [lãi suất] [cho] [vay] [nhằm] [giải] [ngân] [nguồn] [tiền] [đang]
[được] [đánh giá] [là] [khá] [dư thừa] [trong] [kho].
- Loại bỏ từ dừng: Từ dừng (stop-words) dùng để chỉ các từ mà xuất hiện quá
nhiều trong các văn bản của tồn tập kết quả, thường thì khơng giúp ích gì
trong việc phân biệt nội dung của các tài liệu. Trong tiếng Anh, cĩ nhiều từ
chỉ dùng để phục vụ cho biểu diễn cấu trúc chứ khơng biểu đạt nội dung của
nĩ, như là “a”, “the” (mạo từ), “in” (giới từ), “but” (liên từ), động từ phổ biến
cĩ dạng “to”, “be” và một số trạng từ và tính từ đặc biệt được xem là những từ
dừng. Trong Tiếng Việt, các từ “và”, “hoặc”, “nhưng”, “cũng”… xuất hiện rất
nhiều trong các văn bản, cũng được coi là các từ dừng. Luận văn tập trung
nghiên cứu thực nghiệm trên tập dữ liệu tài chính ngân hàng, cho thấy những
con số, dấu câu khơng cĩ ý nghĩa đối với quá trình phân lớp nên cũng coi đĩ
là những từ dừng. Danh sách từ dừng được sử dụng đối với văn bản tài chính
ngân hàng trong luận văn này sẽ được trình bày cuối luận văn.
Vì đặc điểm của từ dừng nên chúng được loại bỏ mà khơng ảnh hưởng đến
các cơng việc biểu diễn văn bản tiếp theo. Hơn thế nữa giai đoạn xử lý loại bỏ
từ dừng sẽ làm cho văn bản kết quả giữ lại được các từ đặc trưng, loại bỏ được
những từ gây nhiễu. Tách từ và loại bỏ từ dừng là hai bước trong quá trình
tiền xử lý dữ liệu đầu vào cho bộ phân lớp, làm cho hiệu suất của quá trình
phân lớp tăng.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 37 -
Các văn bản sau khi được xử lý tách từ sẽ là đầu vào cho bước loại bỏ từ
dừng. Thơng qua modulo loại bỏ từ dừng, các tiếng trong một từ sẽ được cách
nhau bởi một kí tự gạch dưới ( _ ) và các từ sẽ cách nhau bởi một kí tự trắng.
Ví dụ, nội dung của một đoạn văn bản sau khi loại bỏ từ dừng:
lãi_suất cho_vay mức Lãi_suất cho_vay đồng Việt_Nam thiết_lập mức
Ngân_hàng Nhà_nước cơng_bố hạ lãi_suất cơ_bản VND xuống
Vietcombank tạo đáy lãi_suất cho_vay mức Từ ngày_nay ngân_hàng
thương_mại cuộc_đua giảm lãi_suất vay nhằm giải ngân nguồn tiền
đánh_giá khá dư_thừa kho Mức lãi_suất cho_vay ưu_đãi đáy cũ thiết_lập
- Biểu diễn tất cả các văn bản dưới dạng 1 văn bản đặc trưng: Tất cả các văn
bản sau khi đã được tách từ và loại bỏ từ dừng sẽ được biểu diễn dưới dạng
một văn bản đặc trưng đầu vào cho bộ phân lớp như sau: nội dung của mỗi
văn bản được biểu diễn trên một dịng và từ cuối cùng trên dịng đĩ là tên lớp.
Ví dụ:
Nội dung văn bản A Tên_lớp_1
Nội dung văn bản B Tên_lớp_2
…
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 38 -
Chương 4. THỰC NGHIỆM VÀ ĐÁNH GIÁ
4.1. Dữ liệu và chương trình
Dữ liệu dùng để thực nghiệm cho bộ phân lớp văn bản về tài chính ngân hàng là
các văn bản được lấy từ trang Web:
Tập dữ liệu cĩ tất cả 1075 tài liệu. Tồn bộ tập dữ liệu của thử nghiệm đều được
gán nhãn bằng tay.
Tập dữ liệu được chia thành hai tập con rời nhau, tập dữ liệu huấn luyện và tập
dữ liệu kiểm tra, theo tỉ lệ tập dữ liệu huấn luyện : tập dữ liệu kiểm tra bằng 2:1.
Bảng 1. Phân bố dữ liệu học và kiểm tra
Tổng số tài liệu 1075
Tập dữ liệu học 717
Tập dữ liệu kiểm tra 358
Các phân lớp của dữ liệu được xậy dựng như đã giới thiệu ở chương 3, mục 3.2
bao gồm 5 lớp (huy động vốn, tín dụng, dịch vụ thanh tốn, ngoại tệ và chứng khốn).
Dữ liệu dùng cho huấn luyện cùng số lượng tài liệu cho mỗi lớp được mơ tả trong
Bảng 2.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 39 -
Bảng 2. Tập dữ liệu huấn luyện
STT Phân lớp Ký hiệu Số lượng tài liệu
1 Ngoại tệ NgoaiTe 273
2 Huy động vốn HuyDongVon 104
3 Dịch vụ thanh tốn DichVuThanhToan 60
4 Chứng khốn ChungKhoan 137
5 Tín dụng TinDung 143
Tổng số: 717
Tập dữ liệu dùng để kiểm tra được mơ tả trong bảng 3, số lượng tài liệu của mỗi
lớp tỉ lệ với số lượng tài liệu trong tập dữ liệu dùng để huấn luyện.
Bảng 3. Tập dữ liệu kiểm tra
STT Phân lớp Ký hiệu Số lượng tài liệu
1 Ngoại tệ NgoaiTe 150
2 Huy động vốn HuyDongVon 34
3 Dich vụ thanh tốn DichVuThanhToan 34
4 Chứng khốn ChungKhoan 70
5 Tín dụng TinDung 70
Tổng số: 358
4.2. Mơi trường thực nghiệm
Mơi trường thực nghiệm: hệ điều hành Windows XP, vi xử lý Pentium 4, RAM
256.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 40 -
Khĩa luận xây dựng chương trình thực hành phân lớp được viết trên ngơn ngữ
java, mơi trường Jcreator, Elipse. Chương trình này tích hợp module tiền xử lý văn bản
(do khĩa luận xây dựng) và sử dụng thư viện của tác giả Phan, X.H [23].
4.3. Thiết kế và kết quả thực nghiệm
Khĩa luận thử nghiệm theo mơ hình nguyên lý Entropy cực đại.
4.3.1. Thiết lập thơng số cho Entropy cực đại
Với thuật tốn Entropy cực đại, khĩa luận sử dụng thư viện của tác giả Phan
Xuân Hiếu [23], việc sử dụng địi hỏi phải thiết lập một số thơng số cho mơ hình. Các
thơng số này được lựa chọn qua nhiều lần thử nghiệm, chi tiết được mơ tả ở bảng 4.
Bảng 4. Tham số huấn luyện mơ hình Entropy cực đại
Tham số Giá trị Mơ tả
numIterations 10
Số bước lặp trong quá trình huấn
luyện.
fRareThreshold 0
Các mệnh đề mơ tả thơng tin ngữ
cảnh phải xuất hiện nhiều hơn số này
thì sẽ được dùng để xây dựng các đặc
trưng.
cpRareThreshold 0
Các đặc trưng xuất hiện nhiều hơn số
này thì sẽ khơng bị loại bỏ khỏi tập
dữ liệu huấn luyện.
4.3.2. Kết quả thực nghiệm
Tiến hành thực nghiệm trên tập dữ liệu huấn luyện với số lượng bước lặp là 10.
Các kết quả phân lớp thu được khá khả quan với thời gian khoảng 0.4594 giây/lần và
được mơ tả trong một số bảng biểu và đồ thị sau.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 41 -
Bảng 5. Kết quả 10 lần huấn luyện với Entropy cực đại
Độ chính xác Độ hồi tưởng F1
Bước lặp
Thời
gian Avg 1 Avg 2 Avg 1 Avg 2 Avg1 Avg2
1 0.766 81.04 55.87 39.43 55.87 53.05 55.87
2 0.485 81.95 81.56 74.95 81.56 78.29 81.56
3 0.453 82.99 82.68 76.39 82.68 79.56 82.68
4 0.406 84.59 87.15 84.75 87.15 84.67 87.15
5 0.422 86.38 89.39 86.43 89.39 86.40 89.39
6 0.422 87.64 90.22 86.98 90.22 87.31 90.22
7 0.39 84.67 87.43 84.28 87.43 84.48 87.43
8 0.422 86.49 88.83 86.46 88.83 86.48 88.83
9 0.39 87.73 89.66 87.47 89.66 87.60 89.66
10 0.407 86.73 88.83 86.92 88.83 86.82 88.83
Trung bình 0.4563 84.821 84.162 79.406 84.162 81.466 84.162
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 42 -
Qua bảng trên, cho thấy kết quả khả quan nhất là ở bước lặp thứ 6 với độ đo F1
đạt 90.22% chi tiết bước lặp này như sau:
Bảng 6. Kết quả của bước lặp thứ 6
Tên lớp Độ chính xác Độ hồi tưởng F1
NgoaiTe 96.64 96.00 96.32
HuyDongVon 71.43 73.53 72.46
DichVuThanhToan 96.77 88.24 92.31
ChungKhoan 87.84 92.86 90.28
TinDung 85.51 84.29 84.89
Avg1 87.64 86.98 87.31
Avg2 90.22 90.22 90.22
Trong bảng kết quả trên thì kết quả của phân lớp HuyDongVon là kém nhất với
độ đo chính xác là 72.46% và tốt nhất là phân lớp NgoaiTe với độ đo chính xác là
96.32%.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 43 -
0
10
20
30
40
50
60
70
80
90
100
1 2 3 4 5 6 7 8 9 10
Bước lặp
Đ
ộ
đo
F
1
F1-Avg2
F1-Avg1
Hình 7. Đồ thị biểu diễn sự phụ thuộc của độ đo F1 vào số lần lặp
0
10
20
30
40
50
60
70
80
90
100
1 2 3 4 5 6 7 8 9 10
Bước lặp
Đ
ộ
ch
ín
h
xá
c
củ
a
ph
ân
lớ
p
Độ chính xác
Độ hồi tưởng
F1
Hình 8. Tổng hợp độ đo qua 10 lần huấn luyện
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 44 -
96.32
72.46
92.31 90.28 84.89
0
20
40
60
80
100
120
Ng
oa
iTe
Hu
yD
on
gV
on
Di
ch
Vu
Th
an
hT
oa
n
Ch
un
gK
ho
an
Tin
Du
ng
Lớp
Đ
ộ
đo
F
1
Hình 9. Biểu đồ biểu diễn độ đo F1 của các lớp trong lần lặp thứ 6
4.4. Đánh giá kết quả thực nghiệm
Việc tiến hành thực nghiệm trên tập dữ liệu huấn luyện là 717 dữ liệu cho 5 phân
lớp cho kết quả tốt về độ đo F1 là 90.22%. Cả 5 bộ phân lớp đều cho độ đo F1 gần
90%, đặc biệt, bộ phân lớp NgoaiTe đạt kết quả rất cao là 96.32% cho cả độ chính xác
và độ hồi tưởng. Bộ phân lớp HuyDongVon thu được kết quả thấp nhất với độ đo F1 là
72.46%.
Do số lượng dữ liệu mẫu cho từng lớp khá cân bằng nhau nên khả năng đốn
nhận của bộ phân lớp là khá tốt. Nhưng muốn khả năng này cao hơn nữa thì tập dữ liệu
huấn luyện cần gia tăng thêm về số lượng, đảm bảo cung cấp đầy đủ các ràng buộc từ
dữ liệu cho mơ hình.
Như đã trình bày ở mục 2.4, tư tưởng chủ đạo của nguyên lý Entropy cực đại là
thay vì thêm vào các ràng buộc mới, mơ hình tự tìm ra trong dữ liệu (tập câu hỏi mẫu)
những ràng buộc và đặc trưng riêng cho từng phân lớp. Điều này làm cho sự phân lớp
trong khi sử dụng mơ hình Entropy cực đại được đảm bảo cả khi tập dữ liệu khơng cĩ
số lượng quá lớn và mỗi tài liệu chỉ chứa ít đặc trưng.
Từ kết quả của thực nghiệm cho thấy khi xây dựng bộ phân lớp văn bản tiếng
Việt sử dụng mơ hình Entropy cực đại cho kết quả rất tốt.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 45 -
KẾT LUẬN
Từ việc nghiên cứu lý thuyết và kết quả thực nghiệm cĩ thể khẳng định rằng bài
tốn phân lớp văn bản thực sự cĩ vai trị ý nghĩa rất quan trọng trong việc tổ chức,
quản lý cũng như tìm kiếm thơng tin trên nguồn tài nguyên lớn, đặc biệt với nguồn tài
nguyên về lĩnh vực tài chính ngân hàng.
Sự đa dạng của các thuật tốn phân lớp dữ liệu làm cho việc lựa chọn thuật tốn
để xây dựng module phân lớp văn bản cho từng ngơn ngữ trở nên khĩ khăn hơn.
Khĩa luận tiếp cận các vấn đề nĩi trên và nghiên cứu các thuật tốn phổ biến
hiện nay, từ đĩ đưa ra phương pháp và thuật tốn áp dụng vào phân lớp dữ liệu ngân
hàng tài chính trong tiếng Việt.
Về mặt nội dung, khĩa luận đã đạt được những kết quả sau:
- Nghiên cứu về bài tốn phân lớp văn bản: khái niệm, mơ hình, đánh giá phân
lớp. Luận văn đã tập hợp và trình bày một số phương pháp phổ biến nhất hiện nay như
k người láng giềng gần nhất, mơ hình cây quyết định, mơ hình Entropy cực đại, SVM.
Sau đĩ trình bày ưu nhược điểm của từng phương pháp, từ đĩ đưa ra quyết định sử
dụng mơ hình entropy cực đại khi áp dụng cho tiếng Việt.
- Xây dựng nhãn / lớp cho văn bản tài chính ngân hàng trong tiếng Việt.
- Xây dựng chương trình thi hành phân lớp văn bản được viết trên ngơn ngữ
Java, mơi trường Eclipse được tích hợp từ module tiền xử lý văn bản (do khĩa luận
xây dựng) và module phân lớp (khai thác mã nguồn bộ phân lớp Entropy cực đại). Kết
quả thực nghiệm trên tập dữ liệu về lĩnh vực tài chính ngân hàng được crawler từ Web
cho thấy tính khả thi của chương trình phân lớp văn bản sử dụng phương pháp Entropy
cực đại với độ đo F1 đạt 90.22%.
Bên cạnh đĩ, do thời gian và kiến thức cĩ hạn, khĩa luận vẫn cịn một vài hạn
chế sau:
- Chương trình sử dụng thuật tốn Entropy cực đại cho bài tốn phân lớp văn bản
mới thi hành trên một bộ dữ liệu tiếng Việt nên chưa đối sánh kết quả trên nhiều bộ dữ
liệu. Chưa thi hành nhiều thuật tốn để chọn được phương pháp tốt.
Trong tương lại, khĩa luận sẽ tiếp tục hồn thiện mặt hạn chế đã đưa ra đĩ là sử
dụng một số thuật tốn phân lớp khác với Entropy cực đại để tìm ra được thuật tốn
hiệu nhất đối với bài tốn phân lớp dữ liệu tiếng Việt. Đồng thời, thử nghiệm trên
nhiều bộ dữ liệu tiếng Việt khác nhau.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 46 -
TÀI LIỆU THAM KHẢO
Tài liệu Tiếng Việt
[1]. Nguyễn Thị Hương Thảo, “Phân lớp phân cấp Taxonomy văn bản Web và
ứng dụng”, Khĩa luận tốt nghiệp đại học, Đại học Cơng nghệ, ĐHQGHN,
2006.
[2]. Nguyễn Minh Tuấn, “Phân lớp câu hỏi hướng tới tìm kiếm ngữ nghĩa
Tiếng Việt trong lĩnh vực y tế ”, Khĩa luận tốt nghiệp đại học, Đại học
Cơng Nghệ, ĐHQGHN, 2008.
Tài liệu Tiếng Anh
[3]. Aixin Sun, Ee-Peng Lim. Hierarchical Text Classification and Evaluation.
Proceedings of the 2001 IEEE International Conference on Data Mining
(ICDM 2001) Pages 521-528, California, USA, November 2001.
[4]. Decision Tree, Analysis mindtools.com
[5]. T.M.Michell, Machine Learning, Mc Graw Hill
[6]. Nghiệp vụ ngân hàng. TS. Nguyễn Minh Kiều. Trường Đại Học Kinh Tế
TPHCM. Nhà xuất bản Thống Kê, tháng 12-2005.
[7]. David J.C. MacKay. Information Theory, Inference, and Learning
Algorthms Cambridge: Cambridge University Press, 2003. ISBN
0521642981
[8]. “Text Classification from Labeled and Unlabeled Documents using EM”.
Machine Learning. Kluwer Academic Publishers, Boston. Manufactured in
The Netherlands.
[9]. “An Extensive Empirical Study of Feature Selection Metrics for Text
Classification”. George Forman, Intelligent Enterprise Technology
Laboratory. HP Laboratories Palo Alto, HPL-2002-147 (R.1), November
20th , 2002*.
[10]. K. Nigam, J. Lafferty, and A. McCallum, "Using maximunm Entropy for
text classification", Proceeding of the 16th International Joint Conference
Workshop on Machine Learning for Information Filtering: 61-67
Stockholm, Sweden, 1999.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 47 -
[11]. “Support Vector Machine Active Learning with Applications to Text
Classification”. Simon Tong and Daphne Koller.
[12]. Lewis, D. and W.Gale: 1994, “A Sequential Algorithm for Training Text
Classifiers”. In: Proceedings of the Seventeenth Annual International
ACM- SIGIR Conference on Research and Development in Information
Retrieval.pp. 3-12, Springer-Verlag.
[13]. Soumen Chakrabarti. Mining the web- discovering knowledge from
Hypertext Data Morgan Kaufman Publishers, trang 183-188.
[14]. Pierre Baldi, Paolo Frasconi, Padhraic Smyth. Modeling the Internet and
the Web: Probabilistic Methods and Algorithms. Published by John Wiley
& Sons Ltd, The Southern Gate, Chichester West Sussex PO19 8SQ,
England - 2003.
[15]. Nguyen Viet Cuong, Nguyen Thi Thuy Linh Ha, Quang Thuy and Phan
Xuan Hieu (2006). A Maximum Entropy Model for Text Classification.
The International Conference on Internet Information Retrieval 2006:134-
139, Hankuk Aviation University, December 6, 2006, Goyang-si, Korea.
[16]. Sebastiani, F.:2001, “Machine Learning in Automated Text
Categorisation”. Technical Report IEI-B4-31-1999, Istituto di
Elaborazione dell’Informazione.
[17]. Svetlane Kiritchenko. Hierarchical Text Categorization and Its
Application to Bioinformatics. Ph.D thesis in Computer Science –
School of Information Technology and Engineering Faculty of Engineering
University of Ottawa, Canada 2005.
[18]. The Kluwer international Series in Engineering and Computer Science.
“Data mining in finance”. Advances in Relational and Hybrid Methods.
Boris Kovalerchuk, Central Washington University, USA and EvgenII
Vityaev, Instutue of Mathematics Russian Academy of Sciences, Russia.
[19]. “Classification of Text Documents”. Department of Computer Science and
Engineering, Michigan State University, East Lansing, Michigan, USA.
[20]. “Flexible Text Classification for Financia, ApplicationL The Facile
Systeml”, Fabio Ciravegna and Luca Gilardoni and Alberto Lavelli.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 48 -
[21]. “The Effect of Financial Statement Classification of Hybrid Financial
Instrucments on Financial Analysts’s Stock Price Judgments”. Patrick
E.Hopkis.
[22]. Li, X. & Roth, D. “Learning Question Classifiers”, Proceedings of the 19th
International Conference on Computational Linguistics (COLING):556–
562, 2002.
[23]. Phan, X.H, “JTextPro: A Java-based Text Processing Toolkit”,
[24]. Thorsten Joachims, SVM multiclass Multi-Class Support Vector Machine,
Cornell University Department of Computer Science.
[25]. Kadri Hacioglu and Wayne Ward. "Question Classification with Support
Vector Machines and Error Correcting Codes". Proceedings of HLT-
NAACL2003:28-30, Edmonton, Alberta, Canada, May 2003.
ĐH Cơng Nghệ - ĐH QGHN CNTT
‐ 49 -
DANH SÁCH CÁC TỪ DỪNG
Danh sách các từ dùng được sử dụng trong thực nghiệm:
Nhận, rằng, cao, nhà, quá, riêng, gì, muốn, rồi, số, thấy, hay, lên, lần, nào, qua,
bằng, điều, biết, lớn, khác, vừa, nếu, thời gian, họ, từng, đây, tháng, trước, chính, cả,
việc, chưa, do, nĩi, ra, nên, đều, đi, tới, tơi, cĩ thể, cùng, vì, làm, lại, mới, ngày, đĩ,
vẫn, mình, chỉ, thì, đang, cịn, bị, mà, năm, nhất, hơn, sau, ơng, rất, anh, phải, như,
trên, tại, theo, khi, nhưng, vào, đến, nhiều, người, từ, sẽ, ở, cũng, khơng, về, để, này,
những một, các, cho, được, với, cĩ, trong, đã, là, và, của, ảnh.
Ngồi ra thì một số literal khơng cĩ ý nghĩa trong văn bản khi tiến hành phân
lớp cũng được loại bỏ:
{, }, “, “, (, ), /, \, :, -, _, ., ?, ,.
Các file đính kèm theo tài liệu này:
- K50_Le_Thi_Thuy_Duong_Thesis.pdf