Khóa luận Độ tương đồng ngữ nghĩa giữa hai câu và ứng dụng trong tóm tắt văn bản

Tài liệu Khóa luận Độ tương đồng ngữ nghĩa giữa hai câu và ứng dụng trong tóm tắt văn bản: 1 ĐẠI HỌC QUỐC GIA HÀ NỘI TRƯỜNG ĐẠI HỌC CÔNG NGHỆ Hoàng Minh Hiền ĐỘ TƯƠNG ĐỒNG NGỮ NGHĨA GIỮA HAI CÂU VÀ ỨNG DỤNG TRONG TÓM TẮT VĂN BẢN KHOÁ LUẬN TỐT NGHIỆP ĐẠI HỌC HỆ CHÍNH QUY Ngành: Công nghệ thông tin HÀ NỘI - 2008 2 ĐẠI HỌC QUỐC GIA HÀ NỘI TRƯỜNG ĐẠI HỌC CÔNG NGHỆ Hoàng Minh Hiền ĐỘ TƯƠNG ĐỒNG NGỮ NGHĨA GIỮA HAI CÂU VÀ ỨNG DỤNG TRONG TÓM TẮT VĂN BẢN KHOÁ LUẬN TỐT NGHIỆP ĐẠI HỌC HỆ CHÍNH QUY Ngành: Công nghệ thông tin Cán bộ hướng dẫn: PGS TS Hà Quang Thụy Cán bộ đồng hướng dẫn: Thạc Sỹ Đặng Thanh Hải HÀ NỘI - 2008 3 Lời cảm ơn Tôi xin gửi lời cảm ơn và biết ơn sâu sắc nhất tới Phó Giáo sư Tiến sĩ Hà Quang Thụy và Thạc sỹ Đặng Thanh Hải đã chỉ bảo và hướng dẫn tận tình cho tôi trong suốt quá trình nghiên cứu Khoa học và quá trình thực hiện khoá luận này. Tôi chân thành cảm ơn các thầy, cô đã tạo cho tôi những điều kiện thuận lợi để học tập và nghiên cứu tại trường Đại học Công Nghệ. Tôi cũng xin gửi lời cảm ơn tới các anh c...

pdf53 trang | Chia sẻ: hunglv | Lượt xem: 1311 | Lượt tải: 0download
Bạn đang xem trước 20 trang mẫu tài liệu Khóa luận Độ tương đồng ngữ nghĩa giữa hai câu và ứng dụng trong tóm tắt văn bản, để tải tài liệu gốc về máy bạn click vào nút DOWNLOAD ở trên
1 ĐẠI HỌC QUỐC GIA HÀ NỘI TRƯỜNG ĐẠI HỌC CÔNG NGHỆ Hoàng Minh Hiền ĐỘ TƯƠNG ĐỒNG NGỮ NGHĨA GIỮA HAI CÂU VÀ ỨNG DỤNG TRONG TÓM TẮT VĂN BẢN KHOÁ LUẬN TỐT NGHIỆP ĐẠI HỌC HỆ CHÍNH QUY Ngành: Công nghệ thông tin HÀ NỘI - 2008 2 ĐẠI HỌC QUỐC GIA HÀ NỘI TRƯỜNG ĐẠI HỌC CÔNG NGHỆ Hoàng Minh Hiền ĐỘ TƯƠNG ĐỒNG NGỮ NGHĨA GIỮA HAI CÂU VÀ ỨNG DỤNG TRONG TÓM TẮT VĂN BẢN KHOÁ LUẬN TỐT NGHIỆP ĐẠI HỌC HỆ CHÍNH QUY Ngành: Công nghệ thông tin Cán bộ hướng dẫn: PGS TS Hà Quang Thụy Cán bộ đồng hướng dẫn: Thạc Sỹ Đặng Thanh Hải HÀ NỘI - 2008 3 Lời cảm ơn Tôi xin gửi lời cảm ơn và biết ơn sâu sắc nhất tới Phó Giáo sư Tiến sĩ Hà Quang Thụy và Thạc sỹ Đặng Thanh Hải đã chỉ bảo và hướng dẫn tận tình cho tôi trong suốt quá trình nghiên cứu Khoa học và quá trình thực hiện khoá luận này. Tôi chân thành cảm ơn các thầy, cô đã tạo cho tôi những điều kiện thuận lợi để học tập và nghiên cứu tại trường Đại học Công Nghệ. Tôi cũng xin gửi lời cảm ơn tới các anh chị, các bạn sinh viên trong nhóm nghiên cứu “Khai phá dữ liệu và khám phá tri thức” đã giúp đỡ, ủng hộ và động viên tôi trong quá trình nghiên cứu và làm khoá luận. Đặc biệt, tôi xin cảm ơn Cử nhân Trần Mai Vũ, Nghiên cứu sinh Nguyễn Cẩm Tú và Sinh viên Lê Diệu Thu, những người đã hỗ trợ tôi rất nhiều về kiến thức chuyên môn, giúp tôi có thể hoàn thành khóa luận. Cuối cùng, tôi muốn gửi lời cảm ơn và biết ơn vô hạn tới bố, mẹ, anh trai, tất cả bạn bè và những người thân yêu của tôi. Xin chân thành cảm ơn! Sinh viên Hoàng Minh Hiền 4 Tóm tắt nội dung Hiện nay, tóm tắt văn bản là một bài toán có tính ứng dụng thực tiễn cao. Tóm tắt văn bản nhận được sự nhiều sự quan tâm nghiên cứu của nhiều nhà khoa học, của các hội nghị quốc tế như hội nghị DUC (Document Understanding Conference), hội nghị Coling/ACL (Computational Linguistics/Association for Computational Linguistics), của các trung tâm nghiên cứu như IBM, Microsoft… Khóa luận với đề tài “Độ tương đồng ngữ nghĩa giữa hai câu và ứng dụng trong bài toán tóm tắt văn bản” tập trung nghiên cứu vào các phương pháp tóm tắt văn bản; độ tương đồng câu và các phương pháp để tính toán độ tương đồng câu. Từ đó, trên cơ sở về một số kết quả nghiên cứu đã có về độ đo tương đồng câu và về Hidden Topic, khóa luận đề xuất một mô hình tóm tắt văn bản đơn có sử dụng Hidden Topic để tính toán độ tương đồng ngữ nghĩa giữa hai câu. 5 Mục lục Tóm tắt nội dung ............................................................................................................... 4 Mục lục ............................................................................................................................... 5 Danh sách bảng.................................................................................................................. 7 Danh sách hình vẽ.............................................................................................................. 8 Bảng ký hiệu và từ viết tắt ................................................................................................ 9 Mở đầu.............................................................................................................................. 10 Chương 1. Tổng quan về tóm tắt văn bản và độ tương đồng câu............................... 12 1.1. Đặt vấn đề......................................................................................................12 1.2. Nền tảng kiến thức ........................................................................................13 1.2.1. Data Mining .......................................................................................13 1.2.2. Text Mining .......................................................................................13 1.2.3. Web Mining .......................................................................................14 1.3. Tóm tắt văn bản.............................................................................................15 1.4. Độ tương đồng giữa hai câu ..........................................................................16 Chương 2. Bài toán tóm tắt văn bản và một số phương pháp tóm tắt văn bản ........ 18 2.1. Bài toán tóm tắt văn bản................................................................................18 2.1.1. Định nghĩa tóm tắt .............................................................................18 2.1.2. Phân loại tóm tắt văn bản...................................................................19 2.1.3. Tóm tắt văn bản đơn ..........................................................................21 2.2. Các phương pháp tóm tắt văn bản đơn..........................................................21 2.2.1. Phương pháp Word frequencies.........................................................22 2.2.2. Phương pháp của Edmundson ...........................................................23 2.2.3. Tóm tắt văn bản tự động sử dụng trích chọn câu hai bước................26 6 Chương 3. Độ tương đồng câu và phương pháp tính độ tương đồng câu.................. 32 3.1. Độ tương đồng...............................................................................................32 3.2. Độ tương đồng câu ........................................................................................32 3.3. Phương pháp để đo độ tương đồng câu.........................................................33 3.3.1. Phương pháp tính độ tương đồng câu sử dụng WordNet corpus.......33 3.3.2. Phương pháp tính độ tương đồng câu sử dụng Hidden Topic ...........39 Chương 4. Đề xuất mô hình tóm tắt và kết quả thực nghiệm ..................................... 46 4.1. Đề xuất mô hình tóm tắt................................................................................46 4.2. Thiết kế mô hình thử nghiệm ........................................................................47 4.3. Kết quả thực nghiệm .....................................................................................47 Kết luận và hướng phát triển của khóa luận ................................................................ 50 Tài liệu tham khảo........................................................................................................... 51 7 Danh sách bảng Bảng 1. Các kết quả so sánh các độ đo...............................................................................37 Bảng 2. Trọng số của từng câu trong văn bản [không dùng Hidden Topic] ......................48 Bảng 3. Trọng số của từng câu trong văn bản [dùng Hidden Topic] .................................49 8 Danh sách hình vẽ Hình 1. Mô hình chung của một hệ thống tóm tắt văn bản ............................................... 15 Hình 2. Giá trị trung bình của các phương pháp ............................................................... 26 Hình 3. Hệ thống tóm tắt sử dụng phương pháp trích chọn câu hai bước......................... 27 Hình 4. So sánh giữa phương pháp Two-step và các phương pháp khác (Title) .............. 31 Hình 5. So sánh giữa phương pháp Two-step và các phương pháp khác ( không sử dụng Title) .................................................................................................................................. 31 Hình 6. Lược đồ tính toán độ tương đồng câu .................................................................. 34 Hình 7. Hệ thống cây phân cấp ngữ nghĩa ........................................................................ 36 Hình 8. Mô hình biểu diễn của LDA (Các khối vuông biểu diễn quá trình lặp)............... 40 Hình 9. Mô hình sinh cho LDA......................................................................................... 41 Hình 10. Quá trình khởi tạo lấy mẫu lần đầu .................................................................... 42 Hình 11. Quá trình khởi tạo lấy mẫu lại ............................................................................ 43 Hình 12. Quá trình đọc các tham số đầu ra ....................................................................... 44 Hình 13. Nội dung một văn bản đơn tiếng Việt ................................................................ 47 9 Danh sách các từ viết tắt WAP : Wireless Application Protocol PDA : Personal digital assistant SMS : Short Message Service LDA : Latent Dirichlet Allocation IR : Information Retrieval TF : Term Frequency IDF : Inverted document frequency 10 Mở đầu Dữ liệu trên Internet được sinh ra liên tục mỗi ngày, lượng thông tin khổng lồ đó khiến người dùng trở nên bối rối do không đủ thời gian đọc tất cả văn bản. Tóm tắt văn bản tự động hiện đang là một bài toán được sự quan tâm nghiên cứu của nhiều nhà khoa học. Tóm tắt văn bản có thể được ứng dụng để tóm tắt các bản tin với định dạng WAP hoặc SMS cho các thiết bị PDA, điện thoại di động. Trong máy tìm kiếm, ứng dụng tóm tắt văn bản sẽ đưa ra một đoạn mô tả của kết quả tìm kiếm. Người dùng dựa vào đó để chọn nhưng kết quả phù hợp với mong muốn của mình... Những ứng dụng đa dạng và phong phú của tóm tắt văn bản khẳng định sự cần thiết của việc xây dựng một hệ thống tóm tắt văn bản tự động hiệu quả. Mục tiêu chính của khóa luận là tập trung vào việc khảo sát, nghiên cứu các phương pháp giải quyết bài toán tóm tắt văn bản một cách hiệu quả. Để tiếp cận mục tiêu này, khóa luận giới thiệu kết quả nghiên cứu của báo cáo [4]: phương pháp tính độ tương đồng câu sử dụng WordNet corpus; Đồng thời, khóa luận nghiên cứu, đề xuất phương pháp tính toán độ tương đồng câu sử dụng mô hình topic ẩn. Ưu điểm của phương pháp này là làm tăng tính ngữ nghĩa trong tính toán độ tương đồng câu mà không cần dùng tới một mạng ngữ nghĩa hay một corpus nào khác. Nội dung của khóa luận được chia thành các chương như sau: Chương 1. Tổng quan về bài toán tóm tắt văn bản và độ tương đồng câu: Đề cập tới nhu cầu của ứng dụng tóm tắt văn bản, các nền tảng kiến thức của bài toán tóm tắt. Phần này cũng giới thiệu những nội dung cơ bản nhất của bài toán tóm tắt văn bản và độ tương đồng ngữ nghĩa giữa hai câu. Chương 2. Bài toán tóm tắt văn bản và một số phương pháp tóm tắt văn bản: Trình bày cụ thể về bài toán tóm tắt văn bản bao gồm định nghĩa tóm tắt, phân loại tóm tắt, cách đánh giá một văn bản tóm tắt và một số phương pháp tóm tắt văn bản. Chương 3. Độ đo tương đồng câu và phương pháp tính độ tương đồng câu. Chương này giới thiệu về độ tương đồng, độ tương đồng câu và hai phương pháp khác nhau để tính độ tương đồng câu: Phương pháp tính độ tương đồng câu sử dụng WordNet corpus 11 đã được trình bày trong báo cáo nghiên cứu khoa học [4] và phương pháp tính độ tương đồng câu sử dụng Hidden Topic. Chương 4. Đề xuất và thực nghiệm: Trình bày những đề xuất của mô hình tóm tắt văn bản sử dụng Hidden Topic và những kết quả đánh giá thử nghiệm của mô hình mà luận áp dụng cho bài toán tóm tắt văn bản. Chương 5. Kết luận và hướng phát triển khóa luận: tóm lược lại những điểm chính của khóa luận, chỉ ra những điểm cần khắc phục, đồng thời đưa ra hướng nghiên cứu trong thời gian tới. 12 Chương 1. Tổng quan về tóm tắt văn bản và độ tương đồng câu 1.1. Đặt vấn đề Tóm tắt văn bản thuộc lĩnh vực xử lý văn bản (text processing) và cũng là một bài toán tiêu biểu của xử lý ngôn ngữ tự nhiên. Xử lý văn bản cũng như text mining, Web mining đều dựa trên các kỹ thuật của xử lý ngôn ngữ tự nhiên, mà quan trọng là việc hiểu và dùng tri thức về ngôn ngữ ở các mức độ khác nhau [14]. Đối tượng xử lý của bài toán tóm tắt văn bản có thể là một văn bản hay nhiều văn bản. Do sự phát triển của Internet, thông tin được sinh ra liên tục mỗi ngày, khối lượng dữ liệu trên Web rất lớn, do đó vấn đề trùng lặp thông tin thường xuyên xảy ra. Giải pháp cho vấn đề này đó là tóm tắt văn bản tự động. Việc tóm tắt sẽ giúp người dùng tiết kiệm thời gian đọc, cải thiện tìm kiếm cũng như tăng hiệu quả indexing cho search engine. Tóm tắt văn bản được ứng dụng ngày một rộng rãi. Tóm tắt văn bản có thể ứng dụng trong tóm tắt các bản tin với định dạng WAP hoặc SMS cho các thiết bị PDA, điện thoại di động. Trong máy tìm kiếm, ứng dụng tóm tắt văn bản sẽ đưa ra một đoạn mô tả của kết quả tìm kiếm. Người dùng dựa vào đó để chọn nhưng kết quả phù hợp với mong muốn của mình. Hiện nay, tóm tắt văn bản được sự quan tâm đặc biệt trong các hội nghị quốc tế như hội nghị DUC (Document Understanding Conference),... hoặc các trung tâm nghiên cứu của Microsoft, IBM ... Chính những ứng dụng rộng rãi và nhu cầu thực tiễn trên là động lực để khóa luận tập trung nghiên cứu về bài toán tóm tắt văn bản, các phương pháp tóm tắt văn bản. Khóa luận cũng đã đề đề xuất phương pháp tính độ tương đồng ngữ nghĩa giữa hai câu để giải quyết bài toán này. 13 1.2. Nền tảng kiến thức 1.2.1. Data Mining Khai phá dữ liệu là một khái niệm ra đời vào những năm cuối của thập kỷ 1980. Nó bao hàm một loạt các kỹ thuật nhằm phát hiện ra các thông tin có giá trị tiềm ẩn trong các tập dữ liệu lớn (các kho dữ liệu). Nó là một bước trong quá trình tìm kiếm tri thức. Những công cụ data mining có thể phát hiện những xu hướng trong tương lai, các tri thức mà data mining mang lại cho các doanh nghiệp có thể ra các quyết định kịp thời và trả lời những câu hỏi trong lĩnh vực kinh doanh mà trước đây tốn nhiều thời gian để xử lý. Với ưu điểm trên, Data mining đã chứng tỏ được tính hữu dụng của nó trong môi trường kinh doanh đầy tính cạnh tranh ngày nay và được ứng dụng rộng rãi trong các lĩnh vực thương mại, tài chính, điều trị y học, giáo dục, viễn thông..v.v. Mục đích của khai phá dữ liệu là các tri thức chiết xuất sẽ được sử dụng cho lợi ích cạnh tranh trên thương trường và các lợi ích trong nghiên cứu khoa học. Do đó, có thể coi mục đích chính của khai phá dữ liệu sẽ là mô tả (description) và dự đoán (prediction). Dự đoán liên quan đến việc sử dụng các biến hoặc các trường trong cơ sở dữ liệu để chiết xuất ra các mẫu là các dự đoán những giá trị chưa biết hoặc những giá trị trong tương lai của các biến đáng quan tâm. Mô tả tập trung vào việc tìm kiếm các mẫu mô tả dữ liệu mà con người có thể hiểu được. Để đạt được hai mục đích này, nhiệm vụ chính của khai phá dữ liệu bao gồm: phân lớp, phân cụm, tóm tắt, … Từ đó, có thể thấy rõ ràng rằng tóm tắt cũng là một phần quan trọng của data mining. 1.2.2. Text Mining Trong [5], tóm tắt văn bản cũng là một trong những bài toán chủ yếu của lĩnh vực Text Mining. Thực tế hiện nay, một phần quan trọng của các thông tin sẵn có được lưu trữ trong cơ sở dữ liệu văn bản (hoặc cơ sở dữ liệu tài liệu) gồm tập hợp rất lớn các tài liệu từ nhiều nguồn khác nhau, như các bài báo mới, các bài báo nghiên cứu, sách, thư viện điện tử, các thông điệp thư điện tử hay các trang Web. Các cơ sở dữ liệu văn bản phát triển nhanh do sự tăng lên của lượng thông tin điện tử có sẵn, như các xuất bản điện tử, các loại khác của tài liệu điện tử, thư điện tử, và World Wide Web (có thể xem như một lượng cơ sở dữ liệu văn bản lớn, liên kết và động). 14 Hầu hết các thông tin trong chính phủ, công nghiệp, thương mại và các viện nghiên cứu đều được lưu trữ ở dạng điện tử, theo kiểu cơ sở dữ liệu văn bản. Số lượng tài liệu điện tử này phát triển với tốc độ chóng mặt gây cho con người những khó khăn trong việc tiếp nhận nội dung chính của chúng. Các kỹ thuật tìm kiếm thông tin truyền thống trở nên không tương xứng với lượng dữ liệu văn bản ngày càng lớn. Người dùng không biết bên trong tài liệu chứa gì, thật khó để đưa ra câu truy vấn hiệu quả cho việc phân tích và trích rút các thông tin có ích từ dữ liệu. Người sử dụng cần các công cụ so sánh các tài liệu khác nhau, xếp hạng độ quan trọng và độ liên quan của các tài liệu, hoặc tìm các mẫu và các xu hướng qua nhiều tài liệu. Do đó, việc tính độ tương đồng trong văn bản, độ tương đồng giữa các văn bản, tóm tắt văn bản ... trở nên ngày càng phổ biến và là nội dung cần thiết trong khai phá text. 1.2.3. Web Mining Web cũng chứa một lượng thông tin hyperlink, thông tin truy cập Web và các thông tin có ích, cung cấp nguồn tài nguyên dồi dào cho data mining. Kích thước của Web lên đến hàng trăm Terabytes và vẫn đang phát triển rất nhanh. Web được xem như một thư viện điện tử khổng lồ. Tuy nhiên, số lượng tài liệu khổng lồ trong thư viện này lại không được sắp xếp theo bất cứ thứ tự cụ thể nào, không có chỉ mục, tiêu đề, tác giả, bìa trang, bảng nội dung, ... Đây chính là khó khăn để tìm kiếm thông tin mong muốn trong thư viện. Không chỉ có Web phát triển nhanh, mà thông tin của nó cũng luôn được cập nhật. Các tin tức, thông tin thị trường chứng khoán, thời tiết, thể thao, shopping, quảng cáo, và một số các trang Web khác cũng được cập nhật thường xuyên trên Web. Thông tin liên kết và các bản ghi truy cập cũng được cập nhật liên tục. Trong [12], 99% các thông tin trên mạng là không có ích đối với 99% người dùng Web. Thực tế, mỗi người dùng thường chỉ quan tâm một phần rất nhỏ của Web, phần còn lại, họ không mấy quan tâm. Làm thế nào để những phần của Web mà người dùng quan tâm được tìm thấy? Làm thế nào có thể tìm ra những trang Web chất lượng cao trong một topic cụ thể? Những thách thức này là động lực thúc đẩy các nghiên cứu về Web mining cũng như hệ thống tóm tắt văn bản tự động. 15 1.3. Tóm tắt văn bản Trong nhiều năm qua, có rất nhiều dự án, công trình nghiên cứu về bài toán tóm tắt văn bản. Và cách tiếp cận chủ yếu của bài toán này được chia thành hai hướng chính: một là cách tiếp cận theo hướng trích lược (shallower approaches), hai là cách tiếp cận theo hướng hiểu sâu (abstract). [18] Chiến lược tóm tắt văn bản phổ biến nhất vẫn là trích chọn câu. Các phương pháp tóm tắt văn bản truyền thống thường sử dụng phương pháp NLP (linguistic) và các phương pháp thống kê để trích rút ra các câu quan trọng. Nhưng một vài vấn đề xuất hiện trong cả hai phương pháp đối với tóm tắt văn bản. Mặc dù hiệu suất cao, phương pháp NLP có có một vài khó khăn trong việc yêu cầu sử dụng các công cụ phân tích ngôn ngữ chất lượng cao như phân tích bài luận và các nguồn ngôn ngữ như WordNet, Lexcial Chain, không gian vector ngữ cảnh (Context Vector Space); chúng là các nguồn tài nguyên có ích cho hệ thống tóm tắt văn bản nhưng một điểm yếu của chúng là mất quá nhiều thời gian và chi phí để xây dựng. Mặt khác, các phương pháp thống kê dễ hiểu và thực hiện, tuy nhiên nó bỏ qua nội dung ngữ nghĩa của các từ và các thành phần tiềm năng của chúng trong các cụm từ multi-word (multi-word phrases). Do đó, nhìn chung thì các phương pháp thống kê chỉ ra kết quả chính xác thấp. [13] Mô hình chung của một hệ tóm tắt văn bản dựa trên cách tiếp cận của Mani&Maybury gồm có ba bước: Analysis, Transformation, Synthesis. [18] Hình 1. Mô hình chung của một hệ thống tóm tắt văn bản 16 Analysis Bước này sẽ phân tích văn bản đầu vào để đưa ra những mô tả bao gồm các thông tin dùng để tìm kiếm, đánh giá các đơn vị ngữ liệu quan trọng cũng như các tham số đầu vào cho việc tóm tắt. Thông qua bước này, các câu quan trọng, đặc trưng, chứa các ý chính của văn bản sẽ được trích chọn. Transformation Bước biến đổi sẽ biến đổi từng câu quan trọng thu được từ bước phân tích trước để giản lược các câu này. Dựa trên các dấu hiệu có thể rút gọn, về cấu trúc ngữ pháp hoặc ngữ nghĩa, mỗi câu sẽ được giảm kích thước mà vẫn giữ được phần lớn ý mà nó hàm chứa trước khi rút gọn. Synthesis Từ các câu quan trọng được được chọn ra ở bước phân tích, được rút ngắn ở bước biến đổi, bước synthesis sẽ liên kết chúng lại thành đoạn theo một thứ tự nào đó hoặc theo cấu kết ngữ pháp rồi hiển thị phù hợp với yêu cầu người dùng. [1] 1.4. Độ tương đồng giữa hai câu Độ tương đồng ngữ nghĩa giữa các câu đóng một vai trò ngày càng quan trọng trong nghiên cứu Text mining, Web mining và xử lý ngôn ngữ tự nhiên. Nó cũng được sử dụng như là một tiêu chuẩn của trích chọn thông tin để tìm ra những tri thức ẩn trong cơ sở dữ liệu hay trên các kho dữ liệu trực tuyến. Một ứng dụng thực tế là khi tìm kiếm ảnh từ một trang Web, nếu xác định hợp lý sự tương đồng ngữ nghĩa giữa câu truy vấn với các đoạn text ngắn bao quanh ảnh thì hệ thống tìm kiếm sẽ đưa ra kết quả đáp ứng tốt hơn yêu cầu người dùng. Vấn đề tính toán độ tương đồng giữa các câu trong văn bản với nhau hoặc với câu chủ đề của văn bản/nhóm văn bản nhận được sự quan tâm đặc biệt trong các hội nghị khoa học quốc tế, đặc biệt trong các hội nghị thường niên về hiểu văn bản (Document Understanding Workshop - DUC)1. Việc xây dựng một độ đo chuẩn xác để thể hiện được mối quan hệ tương đồng về ngữ nghĩa giữa các câu sẽ làm cho các ứng dụng trở nên “thông minh” hơn, đặc biệt trên Web [22][23]. Tồn tại một số phương pháp 1 Các hội thảo khoa học DUC diễn ra hàng năm từ năm 2001 đến nay, mà hai năm gần đây có DUC 2006, June 8-9, 2006, New York Marriott, New York USA và DUC 2007, April 26-27, 2007, Rochester, New York USA. 17 tính toán độ tương đồng giữa các câu, mà điển hình là phương pháp dựa trên tính toán thống kê và phương pháp dựa trên quan hệ ngữ nghĩa giữa tập các từ trong hai câu đó [9][16]. 18 Chương 2. Bài toán tóm tắt văn bản và một số phương pháp tóm tắt văn bản 2.1. Bài toán tóm tắt văn bản 2.1.1. Định nghĩa tóm tắt Tóm tắt văn bản là quá trình làm giảm đi độ dài hoặc độ phức tạp của một văn bản mà không mất đi nội dung chính của văn bản [18].Bài toán tóm tắt văn bản có đầu vào là văn bản nguồn và một tham số được gọi là tỷ lệ trích xuất. Tỷ lệ trích xuất của văn bản thường bằng độ dài của bản tóm tắt chia cho độ dài của văn bản nguồn. Output của bài toán là văn bản tóm tắt. Trước đây, các dạng tóm tắt văn bản đều do con người xử lý, nghĩa là do người đọc rồi rút ra ý chính, sắp xếp các ý theo một thứ tự hợp lý sau đó dùng lời văn của người tóm tắt để trình bày lại một cách ngắn gọn nội dung chính của văn bản. Do con người tóm tắt nên văn bản luôn đảm bảo được tính mạch lạc của của nó. Tuy nhiên, cũng vì thế mà văn bản tóm tắt không tránh khỏi mang dấu ấn chủ quan của người xử lý. Nhìn chung, các bài toán tóm tắt văn bản cần đảm bảo các yêu cầu như cần phản ánh trung thành nội dung của văn bản được tóm tắt; có tính bao quát toàn độ nội dung chính của văn bản; đảm bảo tỷ lệ trích xuất văn bản; tính mạch lạc, tính chặt chẽ của văn bản, ... Tóm tắt văn bản liên quan tới việc “xử lý” ngôn ngữ. Có thể nói xử lý ngôn ngữ tự động trên máy tính là một trong những vấn đề khó nhất của Công Nghệ Thông Tin. Khó là nằm ở chỗ làm sao cho máy hiểu được ngôn ngữ con người, từ việc hiểu nghĩa từng từ trong mỗi hoàn cảnh cụ thể, đến việc hiểu nghĩa một câu, rồi hiểu cả văn bản. Mấu chốt ở đây là bản chất phức tạp của ngôn ngữ con người, đặc biệt là sự đa nghĩa và nhập nhằng nghĩa của ngôn ngữ. Thêm nữa, có một khác biệt sâu sắc nữa là con người ngầm hiểu và dùng quá nhiều common sense (lẽ thường) trong khi rất khó làm cho máy hiểu những điều này. [2] 19 2.1.2. Phân loại tóm tắt văn bản Có nhiều cách phân loại tóm tắt văn bản khác nhau tuy nhiên sự phân loại chỉ mang tính tương đối, phụ thuộc vào việc tóm tắt trên cơ sở nào. Ở đây, khóa luận phân loại tóm tắt như dựa vào input, output, mục đích tóm tắt [9]. Nếu dựa vào input ta có tóm tắt đa văn bản, đơn văn bản; tóm tắt miền cụ thể và tóm tắt miền tổng quát; tóm tắt một kiểu văn bản cụ thể... Dựa vào mục đích thì tóm tắt được chia thành tóm tắt generic, query-based; tóm tắt indicative và information; hay tóm tắt background. Dựa vào output thì chia ra thành hai kiểu là extract và abstract. • Tóm tắt trên cơ sở input sẽ trả lời cho câu hỏi “Cái gì sẽ được tóm tắt”. Các chia này sẽ cho ta nhiều cách phân loại con khác nhau. Cụ thể như: - Kiểu văn bản (bài báo, bản tin, thư, báo cáo …). Với cách phân loại này, tóm tắt văn bản là bài báo sẽ khác với tóm tắt thư, tóm tắt báo cáo khoa học do những đặc trưng văn bản quy định. - Định dạng văn bản: tóm tắt văn bản free-form, tóm tắt văn bản có cấu trúc. Với văn bản có cấu trúc, tóm tắt văn bản thường sử dụng một mô hình học đã xây dựng từ trước. - Kích thước nguồn: tóm tắt đa văn bản, tóm tắt văn bản đơn. Một vài hệ thống sẽ tạo ra một bản tóm tắt dựa trên một tài liệu đơn, trong khi một vài hệ thống khác có thể sử dụng nhiều nguồn tài liệu. Những hệ thống này được biết như các hệ thống multi- document summarization. Tóm tắt nhiều nguồn văn bản dựa trên việc nối nhiều văn bản với nhau. - Miền cụ thể (y tế) hay tổng quát. • Tóm tắt trên cơ sở mục đích thực chất là làm rõ cách tóm tắt, mục đích tóm tắt là gì, tóm tắt phục vụ đối tượng nào ... - Nếu phụ thuộc vào đối tượng đọc tóm tắt thì tóm tắt cho chuyên gia khác cách tóm tắt cho các đối tượng đọc thông thường. - Tóm tắt sử dụng trong IR sẽ khác với tóm tắt phục vụ cho việc sắp xếp. 20 - Dựa trên mục đích tóm tắt, còn có thể chia ra thành tóm tắt Indicative và tóm tắt Informative. Tóm tắt Indicative chỉ ra loại của thông tin, ví dụ như là “alert”. Còn tóm tắt Informative chỉ ra nội dung của thông tin. - Tóm tắt Query-based hay tóm tắt General. Tóm tắt general mục đích chính là tìm ra một đoạn tóm tắt cho toàn bộ văn bản mà nội dung của đoạn văn bản sẽ bao quát toàn bộ nội dung của văn bản đó. Tóm tắt query-based sẽ tóm tắt dựa trên một truy vấn người dùng, tìm ra một đoạn trong văn bản phù hợp với truy vấn đó. • Tóm tắt trên cơ sở output cũng có nhiều cách phân loại. - Phân loại phụ thuộc vào ngôn ngữ lựa chọn cho tóm tắt (như tóm tắt tiếng Anh, tóm tắt tiếng Việt ...). - Phân loại phụ thuộc vào định dạng của kết quả tóm tắt như table, paragraph, key words. - Hay cách phân loại phổ biến là tóm tắt Extract và tóm tắt Abstract. Extract lập danh sách các đoạn của văn bản. Extract là một tóm tắt bao gồm toàn bộ các phần quan trọng được trích ra từ văn bản nguồn. Abstract là nhóm lại nội dung một cách mạch lạc, súc tích. Abstract là một tóm tắt ngắn gọn được viết lại từ văn bản nguồn dựa trên các ý chính đã trích rút. Extraction dễ hơn Abstraction, abstraction cần hiểu và viết lại. Ví dụ minh họa cho sự khác nhau giữa Extract và Abstract như sau: [18] 21 2.1.3. Tóm tắt văn bản đơn Đối tượng thực nghiệm của khóa luận là các văn bản đơn. Tóm tắt văn bản đơn cũng giống như các bài toán tóm tắt khác, là một quá trình tóm tắt tự động với đầu vào là một văn bản, đầu ra là một đoạn mô tả ngắn gọn nội dung chính của văn bản đầu vào đó. Tóm tắt văn bản đơn là bước đệm cho việc xử lý, tóm tắt đa văn bản và các bài toán tóm tắt phức tạp hơn. Văn bản đơn có thể là một trang Web, một bài báo, hoặc một tài liệu với định dạng xác định (ví dụ : .doc, .txt)… Những phương pháp tóm tắt văn bản ra đời đầu tiên đều là các phương pháp tóm tắt cho văn bản đơn. Chẳng hạn như với input là một trang Web, có thể tóm tắt sử dụng thêm câu truy vấn để đưa ra nội dung của bản tóm tắt. Cách làm này có ưu điểm là văn bản kết quả sẽ cho nội dung gần với mong muốn của người sử dụng hơn. Quá trình tóm tắt cụ thể sẽ xét mối liên hệ, sự tương đồng giữa các thành phần trong văn bản với câu truy vấn để tìm ra các phần quan trọng trong văn bản. Tuy nhiên, với tóm tắt một văn bản đơn không sử dụng truy vấn, quá trình tóm tắt sẽ xét sự tương đồng giữa các thành phần của văn bản với nhau. Điều này dẫn đến một vấn đề là chưa thể kết luận ngay các thành phần quan trọng của văn bản để có thể trích rút, đưa vào tóm tắt. 2.2. Các phương pháp tóm tắt văn bản đơn Những năm 50-70, tóm tắt văn bản chủ yếu dựa vào các kỹ thuật thống kê để tóm tắt các văn bản khoa học. Những năm 80, người ta sử dụng trí tuệ nhân tạo để tóm tắt các văn bản ngắn, các bản tin, các bài tường thuật. Đến những năm 90, các hệ thống lai (hybrid system) được sử dụng trong tóm tắt bản tin và một vài văn bản khoa học. Trong thực tế, một hệ thống tóm tắt có thể tổ hợp và sử dụng nhiều phương pháp. Các phương pháp này được gọi là phương pháp lai, ví dụ một phương pháp một phương pháp có thể là tổ hợp của các kỹ thuật thống kê. [9] Từ năm 2000 đến nay, tóm tắt tập trung vào các lĩnh vực như tóm tắt đa văn bản (các tin tức, trang Web, email, văn bản luật, y tế, …), sinh Headline; tóm tắt hỗ trợ các thiết bị cầm tay; tóm tắt đa phương tiện. Chiến lược tóm tắt văn bản phổ biến nhất vẫn là trích rút các phần quan trọng (các câu) trong văn bản rồi sắp xếp chúng theo thứ tự trong văn bản. Bên cạnh đó, tóm tắt văn 22 bản cũng bao gồm cả việc đơn giản hóa câu bằng cách thu ngắn câu lại, xóa đi các phần không quan trọng trong câu để làm cho văn bản ngắn gọn hơn. Người ta thường sử dụng các thông tin có trong văn bản để trích rút các phần quan trọng (các câu) trong văn bản. Cách tiếp cận truyền thống này chủ yếu dựa trên các phương pháp heuristic. Những thông tin trong văn bản có thể là tần số từ trong văn bản, đầu đề của văn bản, vị trí câu, cụm từ gợi ý, … Trích rút các phần quan trọng trong văn bản là kỹ thuật phổ biến được sử dụng trong tóm tắt văn bản. Trên thế giới cũng đã có nhiều công trình nghiên cứu về tóm tắt văn bản sử dụng các kỹ thuật này. 2.2.1. Phương pháp Word frequencies Hans Peter Luhn (1958) được coi là “cha đẻ của lĩnh vực Information Retrieval” và là tác giả của bài báo “The Automatic Creation of Literature Abstracts – 1958” [15]. Phương pháp của Luhn xuất phát từ một ý tưởng tóm tắt các tài liệu văn học chuyên ngành. Phương pháp dựa trên cơ sở giả thiết rằng: tần số của từ xuất hiện trong bài báo là một độ đo hữu ích về nghĩa của từ; vị trí tương đối của các từ có nghĩa trong phạm vi một câu cũng là độ đo hữu ích về nghĩa của từ. Tuy nhiên, cơ sở của phương pháp còn bị hạn chế do khả năng của máy tính không thể biểu diễn được được các thông tin ngữ nghĩa. Luhn sử dụng tần số từ cho tóm tắt bởi các từ quan trọng thường được lặp đi lặp lại nhiều lần trong văn bản. Thêm vào đó, thuật toán lại đơn giản, tốn ít thời gian xử lý nên chí phí rẻ. Một chú ý của phương pháp là các dạng khác nhau của cùng một từ được tính như cùng một từ. Thêm vào đó, việc tính toán tần số của từ sẽ dẫn đến việc, các từ có tần số quá thấp hoặc quá cao (như “the”, “and”,..). Những từ này đều là các từ không quan trọng. Giải pháp đặt ra ở đây là với các từ có tần số thấp, có thể dễ dàng loại bỏ bằng cách thiết lập một ngưỡng tần số nhỏ nhất. Với những từ phổ biến (có tần số cao), loại bỏ bằng cách thiết lập một ngưỡng tần số lớn nhất, so sánh các từ tần số cao với một danh sách từ phổ biến. Đây cũng chính là việc loại bỏ các từ dừng ( như “the”, “a”, “for”, “is” … ). Để tính tần số của từ quan trọng, Luhn tính phấn phối của mỗi từ trong tài liệu (tf) và phân phối của từ ở trong corpus (idf – inverted document frequency). NUMDOC: số tài liệu trong corpus 23 NUMDOC(term): số tài liệu mà có term xuất hiện. Nếu tf(term)*idf(term) vượt một ngưỡng xác định, các cụm từ khóa được tìm thấy và được gán trọng số. Các câu với tổng trọng số cụm cao nhất được chọn. 2.2.2. Phương pháp của Edmundson Phương pháp tóm tắt của Edmundson [11] dựa vào kỹ thuật trích rút các phần quan trọng văn bản sử dụng tổng hợp bốn thông tin gồm: các cụm từ gợi ý, từ khóa, title và vị trí của câu. Đây chính là cơ sở của phương pháp. Cụm từ gợi ý (cue) trong văn bản Có các cụm từ gợi ý có thể hoàn toàn liên quan hoặc không liên quan tới các câu quan trọng. Ví dụ với các cụm từ ‘In this paper, ‘In conclusion’, ‘our work’,… thường theo sau chúng chính là phần quan trọng trong văn bản. Hoặc như cụm từ ‘for example’ thường chỉ ra phần không quan trọng của văn bản. Tiêu đề (title) của văn bản Giả thuyết của cách trích rút này là “tiêu đề của văn bản thường chỉ ra nội dung của văn bản đó”. Vì thế các từ trong tiêu đề giúp tìm ra nội dung có liên quan [11]. Edmundson là người đầu tiên chỉ ra các từ trong title và heading thường xuất hiện nhiều trong các câu quan trọng hơn các câu không quan trọng. Các câu tiêu đề và đề mục (title và heading) được xem như là các tóm tắt ngắn gọn của văn bản. Các câu có chứa nội dung các từ trong đầu đề và tiêu đề là những câu quan trọng trong văn bản. Một câu chỉ có thể có một title và có thể không có title. Việc xác định title hiện tại dựa vào nhận xét: Title là câu duy nhất của đoạn đầu tiên. Nghĩa là ta xét đoạn đầu tiên của văn bản, nếu đây chỉ có một câu thì câu này là title, ngược lại, ta coi văn bản không có title. Cách xác định này phụ thuộc định dạng của văn bản đầu vào. Các từ trong title còn được dùng để đánh giá các câu khác trong văn bản, câu nào sát nghĩa với title, câu đó sẽ đựoc gán trọng số cao hơn so với các câu khác. [1] Vị trí (location) của câu Phương pháp đơn giản là dựa trên giả thiết rằng các câu xuất hiện ở đầu văn bản thường quan trọng hơn các câu xuất hiện ở giữa hoặc cuối văn bản. Cách đơn giản nhất để xây dựng một tóm tắt là luôn chọn câu đầu tiên trong văn bản hoặc chọn k câu đầu tiên 24 trong văn bản, khi mà có thêm yêu cầu tham số tỷ lệ tóm tắt. Mặc dù hiệu suất của phương pháp này phụ thuộc vào kiểu văn bản và tỉ lệ tóm tắt, phương pháp vẫn có khả năng nhận dạng khoảng 33% các câu quan trọng trong văn bản [9] Ngoài ra, các văn bản có xu hướng có cấu trúc phụ thuộc vào kiểu của chúng. Ví dụ như theo quy tắc báo chí, văn bản thường chia làm ba phần: Phần giới thiệu, phần chính, phần tóm lược lại. Trong văn bản kiểu này: - Các câu thuộc đề tài thường có xu hướng xuất hiện ở vị trí bắt đầu của các đoạn. - Các câu quan trọng có xu hướng xuất hiện ở cuối của văn bản. Từ ví dụ trên, phương pháp trích rút phần quan trọng trong văn bản sử dụng thông tin vị trí câu đòi hòi: Các câu quan trọng được đặt ở các vị trí “phụ thuộc vào kiểu văn bản”; những vị trí này có thể đuợc tìm thấy tự động thông qua việc huấn luyện [19]. Tần số từ trong văn bản Các câu quan trọng chứa nội dung các từ xuất hiện thường xuyên trong văn bản. Các từ xuất hiện thường xuyên trong văn bản có xu hướng chỉ ra chủ đề của văn bản. Mức độ quan trọng của từ được tính toán trên cơ sở tần số của chúng (tf-term frequency). Một mục từ xuất hiện trong văn bản nhiều hơn một ngưỡng nào đó thì được cọi là từ quan trọng. Mức độ quan trọng của các câu được tính toán dựa trên cơ sở tầm quan trọng của các từ mà câu đó chứa. [15] Từ những cơ sở trên, Edmundson tính trọng số của một câu là một tổ hợp tuyến tính của các trọng số nhận được từ bốn phương pháp trích rút các phần quan trọng: Các câu có trọng số cao nhất sẽ được đưa vào tóm tắt. Trong phương trình trên: • Các tham số được điều chỉnh phù hợp bằng cách sử dụng tập huấn luyện. • Trọng số Cue của câu: Σ (Trọng số Cue của mỗi từ trong câu) - So sánh mỗi từ trong câu với từ điển Cue. - Gán tất cả các từ có lợi với trọng số b>0, các từ nhiễu với trọng số s<0, các từ Null với n=0 )(.)(.)(.)(.)( SPositionSKeywordSCueSTitleSWeight δγβα +++= 25 • Trọng số Key của câu: Σ (Trọng số Key của mỗi từ trong câu) Trọng số Key của mỗi từ xác định dựa theo phương pháp của Luhn[15], tính tần số của các từ. • Trọng số Title của câu: Σ (Trọng số Title của mỗi từ trong câu) Để xác định trọng số Title của mỗi từ trong câu: - Tạo một bảng Title bao gồm tất cả các từ non-Null trong title, subtitle và heading của tài liệu. - Các từ được cho một trọng số title dương nếu chúng xuất hiện trong bảng Title này. - Các từ Title được cho trọng số lớn hơn các từ Heading. • Trọng số Location của câu: - Các câu của đoạn đầu tiên được đánh dấu trọng số O1 - Các câu của đoạn cuối cùng đựoc đánh dấu trọng số O2 - Câu đầu tiên trong một đoạn được đánh dấu trọng số O3 - Câu cuối cùng của đoạn được dánh dấu trọng số O4 Thứ tự trọng số của câu: O1 + O2 + O3 + O4 Đánh giá phương pháp này, kết quả chỉ ra rằng việc tổ hợp cả bốn cách trích rút của Edmundson không cho hiệu suất tốt nhất. Từ hình 2, có thể dễ dàng thấy phương pháp cho kết quả tốt nhất là khi tổ hợp ba thông tin: Cue, Title và Location. Phương pháp tổ hợp này có giá trị trung bình cao nhất, xấp xỉ 55%. 26 Hình 2. Giá trị trung bình của các phương pháp [11] 2.2.3. Tóm tắt văn bản tự động sử dụng trích chọn câu hai bước Hệ thống tóm tắt trong [13] dựa trên cơ sở các phương pháp thống kê và thực hiện trích chọn câu theo hai bước. Vì nó tổ hợp các phương pháp thống kê và làm giảm dữ liệu nhiễu thông qua hai bước để có thể thu được hiệu suất cao. Mục tiêu của tóm tắt văn bản là lấy thông tin, trích rút nội dung và biểu diễn những nội dung quan trọng nhất cho người sử dụng theo một form nào đó. Phương pháp có chi phí thấp và kiến trúc hệ thống vững chắc (robust) bởi vì nó không yêu cầu bất cứ nguồn ngôn ngữ nào cả. Hai bước tóm tắt cụ thể như sau: - Bước đầu tiên, tạo ra các câu giả bi-gram bằng cách tổ hợp hai câu kề nhau (adjacent) để giải quyết vấn đề rời rạc đặc trưng (feature sparseness); vấn đề này xuất hiện nếu tóm tắt văn bản trích chọn đặc trưng chỉ từ một câu. Sau đó, ước lượng trọng số quan trọng của các câu giả bi-gram bằng phương pháp tổ hợp Title và Location. Có thể nhận được nhiều câu giả có ích hơn thông qua việc xóa đi các câu giả bi-gram không có giá trị (xóa dữ liệu nhiễu). - Ở bước thứ hai, chia các câu giả bi-gram thành mỗi câu đơn gốc và biểu diễn trích chọn các câu quan trọng bằng phương pháp Aggregation Similarity. Bởi vì phương pháp Aggregation Similarity (độ tương đồng kết hợp) ước lượng các phần quan trọng nhất của câu bằng việc tính toán độ tương đồng của tất cả các câu khác trong một tài liệu, phương pháp Aggregation Similarity hiệu quả hơn sau khi xóa bỏ đi các câu nhiễu. Vì thế hệ 27 thống tóm tắt không yêu cầu nguồn ngôn ngữ như WordNet và bộ phân tích luật, nó cho chi phí thấp và vững chắc. [13] Hình 3. Hệ thống tóm tắt sử dụng phương pháp trích chọn câu hai bước [13] 2.2.3.1. Các phương pháp thống kê tổng quát Title Method Trọng số của các câu được tính bằng số từ phổ biến được sử dụng giữa câu và title. Tính toán này yêu cầu một truy vấn từ title trong mô hình không gian vector trọng số Boolean. Trong đó: Si là một câu thứ i và Q là một truy vấn từ title, wik là trọng số của từ thứ k trong câu và wqk là trọng số của từ thứ k trong truy vấn. Location Method Trọng số của câu được tính theo công thức: 28 Trong đó: Si là câu thứ i và N là tổng số câu trong văn bản. Aggregation Similarity Method Trọng số của một câu được tính bằng tổng độ tương đồng của câu đó với tất cả các vectors câu khác trong mô hình không gian vector tài liệu. Mỗi trọng số được tính như sau: Phương trình sim(Si, Sj) tính độ tương đồng giữa hai câu i và j, wik là trọng số của từ thứ k trong câu thứ i. Frequency Method Tần số của từ xuất hiện trong một tài liệu thường được sử dụng để tính toán độ quan trọng của các câu [15]. Trong phương pháp này, trọng số của một câu có thể được tính bằng tổng trọng số của các từ trong câu. Có thể dùng phương pháp TF.IDF truyền thống để tính trọng số wi của từ i như sau: Trong đó: tfi là tần số từ của từ i trong tài liệu, N là tổng số từ trong văn bản và dfi là tần số tài liệu của từ i trong toàn bộ tập dữ liệu. 2.2.3.2. Phương pháp TF-Based Query Như mô tả ở trên, title thường sử dụng cho một truy vấn và phương pháp Title chỉ ra hiệu suất cao hơn các phương pháp tổng quan khác. Tuy nhiên, trong trường hợp đặc biệt, nó có thể khó trích rút một title từ các tài liệu hoặc bất cứ kiểu tài liệu nào không có title. Đối với trường hợp này, chúng tôi đề xuất một phương pháp để trích rút các từ chủ để cho một truy vấn. Phương pháp truy vấn trên cơ sở TF sử dụng một truy vấn – truy vấn bao 29 gồm các từ với tần số từ cao nhất trong một tài liệu. Phương pháp coi các từ với tần số cao như các khái niệm quan trọng [15]. Giống như phương pháp Title, ma trận tích được sử dụng như độ đo tương đồng giữa một câu và một truy vấn trên cơ sở TF. Để biểu diễn các câu, chỉ các từ thích hợp và danh từ phổ biến được sử dụng sau khi loại bỏ từ dừng. Trong đó, tfik là các tần số từ của từ thứ k trong câu thứ i (trọng số Boolean) và Si là vector câu. Phương trình tính toán độ tương đồng giữa các câu và truy vấn trên cơ sở TF: n là số lượng từ trong một tài liệu. wik là trọng số của từ thứ k trong câu thứ i và wTFQk là trọng số của từ thứ k trong truy vấn trên cơ sở TF. 2.2.3.3. Tổ hợp các phương pháp thống kê trong hai bước Xóa đi các câu nhiễu trong bước đầu tiên (First Step) Phương trình đánh trọng số cho các câu giả bi-gram: Sau khi tất cả các câu giả bi-gram được đánh trọng số, khoảng 50% trong số chúng bị xóa bởi vì chúng bị xem là những câu nhiễu. Tóm tắt trích chọn trong bước thứ hai (Second Step) Phương trình cuối cùng như sau: Trong đó wa là giá trị trọng số phản ánh tầm quan trọng của phương pháp Aggregation Similarity. 30 Với trường hợp các tài liệu không có title, phương pháp truy vấn TF-based được sử dụng thay cho phương pháp Title. Phương trình cụ thể như sau: 2.2.3.4. Kết quả thực nghiệm Trong thực nghiệm, phương pháp sử dụng dữ liệu test gồm nhiều bài báo tin tức của Korea Research and Development Information Center(KORDIC). Mỗi tài liệu test có title, content, tóm tắt theo tỉ lệ 30% và 10%. Các tóm tắt theo tỉ lệ 30% và 10% của các tài liệu test được làm bằng cách trích rút câu từ nội dung bằng tay. Để đo hiệu suất của phương pháp, độ đo F1 được sử dụng như phương trình (13) sau: Trong đó P là độ chính xác, R là độ hồi tưởng Dưới đây là các kết quả thực nghiệm cụ thể của phương pháp Để xác định hiệu quả của phương pháp tổ hợp hai bước, bài báo [13] so sánh hiệu suất của phương pháp tổ hợp hai bước với các phương pháp khác như Title, Location, và DOCUSUM. 31 Hình 4. So sánh giữa phương pháp Two-step và các phương pháp khác (trường hợp sử dụng Title) [13] Như trên hình 4, hệ thống trích chọn câu hai bước đã chỉ ra hiệu suất tốt hơn phương pháp Title, Location và thậm chí là DOCUSUM. Thực nghiệm trong trường hợp no-title. cũng chỉ ra kết quả như vậy. Hình 5. So sánh giữa phương pháp Two-step và các phương pháp khác (trường hợp không sử dụng Title) [13] Tóm lại, phương pháp sử dụng các câu giả bi-gram để giải quyết vấn đề rời rạc đặc trưng và tổ hợp thống kê hai bước để cải thiện hiệu quả. Như kết quả, phương pháp thu được hiệu suất cao hơn các phương pháp thống kê khác và DOCUSUM. Phương pháp này không chỉ có hiệu suất cao mà còn có điểm mạnh là dễ thực hiện bởi vì nó chỉ sử dụng các phương pháp thống kê đơn giản. 32 Chương 3. Độ tương đồng câu và phương pháp tính độ tương đồng câu 3.1. Độ tương đồng Trong toán học, một độ đo là một hàm số cho tương ứng với một "chiều dài", một "thể tích" hoặc một "xác suất" với một phần nào đó của một tập hợp cho sẵn. Nó là một khái niệm quan trọng trong giải tích và trong lý thuyết xác suất. Ví dụ, độ đo đếm được định nghĩa bởi µ(S) = số phần tử của S Rất khó để đo sự giống nhau, sự tương đồng. Sự tương đồng là một đại lượng (con số) phản ánh cường độ của mối quan hệ giữa hai đối tượng hoặc hai đặc trưng. Đại lượng này thường ở trong phạm vi từ -1 đến 1 hoặc 0 đến 1. Như vậy, một độ đo tương đồng có thể coi là một loại scoring function (hàm tính điểm). Ví dụ, trong mô hình không gian vector, ta sử dụng độ đo cosine để tính độ tương đồng giữa hai văn bản, mỗi văn bản được biểu diễn bởi một vector. Phân loại độ đo tương đồng, ở đây có thể liệt kê ra một số độ đo như độ đo tương đồng giữa các từ, độ đo tương đồng giữa các văn bản, độ đo tương đồng giữa nhiều ảnh, độ đo tương đồng giữa các ontology, … 3.2. Độ tương đồng câu Xét ví dụ gồm hai câu “Tôi là nam” và “Tôi là nữ”. Ta có thể nhận thấy hai câu trên có sự tương đồng cao, tuy nhiên chúng ta cần phải có một độ đo để có thể tính được độ tương đồng của chúng. Bài toán tính độ tương đồng câu được phát biểu như sau: Xét một tài liệu d gồm có n câu: d = s1,s2,… sn. Mục tiêu của bài toán là tìm ra được một giá trị của hàm S(si,sj) với S∈(0,1). Hàm S(si,sj) được gọi là độ tương đồng giữa hai câu si và sj. Giá trị này càng cao thì sự giống nhau về ngữ nghĩa của hai câu càng lớn. Độ tương đồng ngữ nghĩa là một giá trị tin cậy phản ánh mối quan hệ ngữ nghĩa giữa hai câu. Trên thực tế, khó có thể lấy một giá trị có chính xác cao bởi vì ngữ nghĩa chỉ được hiểu đầy đủ trong một ngữ cảnh cụ thể. 33 3.3. Phương pháp để đo độ tương đồng câu Như đã giới thiệu, hiện nay có hai phương pháp điển hình để đo độ tương đồng câu là phương pháp thống kê và phương pháp xử lý ngôn ngữ tự nhiên.. Với phương pháp thống kê, có một số phương pháp sử dụng các độ đo dựa vào tần suất xuất hiện của từ trong câu, nổi bật là phương pháp sử dụng độ đo cosin. Phương pháp này xử lý nhanh, tốn ít chi phí tuy nhiên vẫn chưa đảm bảo độ chính xác cao về mặt ngữ nghĩa. Còn các phương pháp sử dụng xử lý ngôn ngữ tự nhiên, một số cách tiếp cận đặc trưng được đưa ra là sử dụng phân tích cấu trúc ngữ pháp, sử dụng mạng ngữ nghĩa đối với từ, như sử dụng Wordnet corpus hoặc Brown corpus. Phương pháp xử lý ngôn ngữ tự nhiên xử lý chậm hơn, tốn nhiều chi phí hơn tuy nhiên khi xét về mặt ngữ nghĩa thì cao hơn phương pháp thống kê. Xét cho cùng, cả phương pháp xử lý ngôn ngữ tự nhiên cũng như phương pháp thống kê đều chỉ là những phương pháp “tạm thời” bởi vì chúng chưa đạt đến mức độ “thông minh” như con người mong muốn. 3.3.1. Phương pháp tính độ tương đồng câu sử dụng WordNet corpus 3.3.1.1. Mô hình của phương pháp Mô hình của phương pháp dựa trên mô hình được đề xuất trong báo cáo [16] để tính toán độ tương đồng câu tiếng Anh. 34 Hình 6. Lược đồ tính toán độ tương đồng câu [16] Về mặt cấu trúc, một đoạn văn bản gồm nhiều câu, mỗi câu được tạo thành bởi một chuỗi các từ mang các thông tin cần thiết. Phương pháp này được thực hiện dựa vào thông tin về ngữ nghĩa và cú pháp của các từ trong câu Dựa vào mô hình, giải quyết bài toán có 5 bước: Bước 1: Tiền xử lý - Tách mỗi câu thành một danh sách các từ tố (token): Mỗi câu được tách ra thành một danh sách các từ và xóa đi các từ dừng. Từ dừng là các từ xuất hiện thường xuyên, các từ không có ý nghĩa. - Xác định từ loại (part of speech: từ loại): Sau khi câu được tách thành danh sách các từ. Bước này sẽ xác định đúng từ loại (POS - như noun, verb, pronoun, adverb ...) của mỗi từ trong câu. Bước 2: Tính độ tương tự từ - Sau khi đã có danh sách các từ được gán nhãn, ta xác định được một tập từ chung cho hai câu. Tập từ chung này bao gồm tất cả những từ phân biệt có trong hai câu đó. - Dựa vào tập từ chung đồng thời sử dụng wordnet ta sẽ ước tính được độ tương đồng về ngữ nghĩa cho các từ trong mỗi câu với tập từ chung .Từ đó đưa ra được vector ngữ nghĩa cho hai câu. Bước 3: Tính độ tương đồng ngữ nghĩa cho hai câu Khi tính được độ tương tự từ, ta đưa ra được vector ngữ nghĩa si cho mỗi câu. Sử dụng vector ngữ nghĩa của hai câu để tính độ tương đồng về ngữ nghĩa cho hai câu đó. Bước 4: Tính độ tương đồng thứ tự từ Dựa tập từ chung ta xác định vector thứ tự từ cho mỗi câu. Bước 5: Tính độ tương đồng cho toàn bộ câu Kết hợp giữa vector ngữ nghĩa và vector thứ tự của hai câu ta tính ra được độ tương đồng cho hai câu. 35 3.3.1.2. Tính độ tương tự từ dựa trên WordNet Vì một đoạn văn bản gồm nhiều câu và mỗi câu có thể xem như một chuỗi các từ mang thông tin cần thiết nên từ được xem như là đơn vị thấp nhất về mặt ngữ nghĩa khi xét cho một văn bản. Vậy, muốn tính độ tương tự câu yêu cầu bắt buộc phải dựa vào độ tương tự của từ có trong câu. Độ tương tự giữa các từ có ý nghĩa trong các bài toán trích chọn thông tin từ corpus và trong NLP được dùng để hỗ trợ cho việc biên soạn các từ điển từ đồng nghĩa. Bên cạnh đó, nó cũng được ứng dụng để mở rộng và sửa các truy vấn ngôn ngữ tự nhiên [20]. Phương pháp tiến hành đo độ tương tự từ dựa vào wordnet Như trên đã giới thiệu, WordNet là một mạng ngữ nghĩa trong đó có chứa rất nhiều node. Mỗi node sẽ biểu diễn một khái niệm về thế giới thực. Wordnet được xây dựng dưới dạng cây phân cấp nên thể hiện được mối quan hệ giữa các từ. Vì thế, việc sử dụng wordnet cho việc tính độ tương tự từ sẽ thuận tiện rất nhiều. Ví dụ đối với hai từ boy và teacher, khi xét mối quan hệ giữa 2 từ này trên tập corpus wordnet ta có thể xây dựng được một cấu trúc cây thể hiện mối quan hệ ngữ nghĩa giữa hai từ thông qua các nút khác như trong hình vẽ. Teacher – educator – professional – adult – person – male – male child – boy [16]. 36 Hình 7. Hệ thống cây phân cấp ngữ nghĩa[16] Cho hai từ c1, c2, chúng ta cần tính độ tương tự từ cho hai từ đó dựa vào WordNet. Ta sẽ tìm một lớp nào đó trong cây phân cấp để xác định các từ trong nhóm lớp đó, rồi tiến hành so sánh. Phương pháp này có thể được thực hiện dựa vào nhiều độ đo như: độ đo Jiang Conrath (JCN), độ đo Lin, Extended Gloss Overlaps, Hirst-St Onge, Resnik, Leacock-Chodorow. Từ [20], có bảng sau: Measure Nouns Only All POS Jiang-Conrath 0.46 n/a Ex.Gloss Overlaps 0.43 0.34 Lin 0.39 n/a Vector 0.33 0.29 37 Hirst-St.Onge 0.33 0.23 Resnik 0.29 n/a Leacock Chodorow 0.28 n/a Bảng 1. Các kết quả so sánh các độ đo Độ đo JCN luôn có giới hạn dưới là 0 nhưng không có giới hạn trên. JCN sử dụng nội dung thông tin (Information Content) của các khái niệm (concept). IC = IC(concept) = –log(P(concept)) Xác suất xuất hiện của khái niệm trong một corpus được tính bằng tần số của từ đó trong corpus: P(concept) = freq(concept)/N Trong đó: N là tổng số khái niệm có trong corpus. Công thức tính khoảng cách ngữ nghĩa: distance = IC(c1) + IC(c2) – 2. IC(lcs(c1, c2)) Trong đ ó: lcs(c1, c2): Khái niệm thấp nhất trong hệ thống cấp bậc quan hệ is-a hay nó là cha của hai từ c1và c2; distance: Khoảng cách của hai từ. Từ đó, đưa ra được mối quan hệ giữa hai từ c1 và c2 như sau: Relatedness(c1, c2) = 1 / distance Ví dụ: Xét hai từ boy và teacher. Dựa vào hình 4 ta có lcs(boy, teacher) là person 3.3.1.3. Độ tương đồng về ngữ nghĩa giữa 2 câu Sau khi tính được độ tương tự từ, ta đưa ra được vector ngữ nghĩa si cho mỗi câu. Giá trị của từng thành phần có trong vector là giá trị về độ tương tự từ của từng từ trong câu với tập từ chung [16]. Sự giống nhau về ngữ nghĩa giữa 2 câu là hệ số cosin giữa 2 vector : ||||.|||| . 21 21 ss ssSs = 38 3.3.1.4. Độ tương đồng về thứ tự của các từ trong câu Mục tiêu của phần này là từ hai câu input, đưa ra được vector thứ tự từ cho mỗi câu. Ví dụ: Ta có hai câu T1 và T2 với T1: A quick brown dog jumps over the lazy fox T2: A quick brown fox jumps over the lazy dog Tập từ chung T = {A quick brown dog jumps over the lazy fox } Nếu chỉ xét đến độ tương đồng về ngữ nghĩa giữa các từ trong câu thì 2 câu này giống nhau hoàn toàn. Tuy nhiên thực tế lại khác, hai câu mang ý nghĩa hoàn toàn trái ngược nhau. Vì vậy, nãy sinh vấn đề cần phải tính đến thứ tự của các từ có trong câu [16]. Cách ước tính độ tương đồng về thứ tự của các từ trong mỗi câu như sau: - Nếu như từ trong tập từ chung mà có trong câu thì từ đó sẽ có cùng thứ tự với từ trong câu đó. - Ngược lại, nếu như từ trong tập từ chung không giống với từ nào trong câu thì thứ tự của nó sẽ là 0. Gọi r là vector thứ tự từ trong câu. Với hai câu T1 và T2 thì ta có hai vector r1 và r2 tương ứng như sau: r1 = { 1 2 3 4 5 6 7 8 9 } r2 = {1 2 3 9 5 6 7 8 4 } Công thức để tính độ tương đồng về thứ tự của từ trong câu như sau: 3.3.1.5. Tính độ tương đồng cho toàn bộ câu Sự giống nhau về toàn bộ câu được định nghĩa là sự kết hơp giữa độ tương tự về mặt ngữ nghĩa và thứ tự của từ trong câu |||| ||||)1( ||||.|||| . )1(),( 21 21 21 21 21 rr rr ss ss SSTTS rs + −−+= −+= δδ δδ |||| ||||1 21 21 rr rrS r + −−= 39 Với , quyết định việc đóng góp về ngữ nghĩa và thứ tự từ tới toàn bộ câu. 3.3.2. Phương pháp tính độ tương đồng câu sử dụng Hidden Topic Mục tiêu chính là làm thế nào để thu được lợi từ các nguồn tài nguyên lớn của dữ liệu trực tuyến nhằm tăng tính ngữ nghĩa trong việc tính độ tương đồng câu. Phương pháp tiếp cận vấn đề dựa trên cơ sở các nghiên cứu thành công gần đây của mô hình phân tích topic ẩn LDA (Latent Dirichlet Allocation) … Ý tưởng cơ bản của mô hình là với mỗi lần học, ta tập hợp một tập dữ liệu lớn được gọi là “Universal dataset” và xây dựng một mô hình học trên cả dữ liệu học và một tập giàu các topic ẩn được tìm ra từ tập dữ liệu đó. [6] 3.3.2.1. Latent Dirichlet Allocation (LDA) Latent Dirichlet Allocation (LDA) là một mô hình sinh xác suất cho tập dữ liệu rời rạc như text corpora. David Blei, Andrew Ng và Michael Jordan đã phát triển LDA vào năm 2003. LDA dựa trên ý tưởng: mỗi tài liệu là sự trộn lẫn của nhiều topic, mỗi topic là một phân bố xác suất trên các từ. Về bản chất, LDA là một mô hình Bayesian 3 cấp (three-level hierarchical Bayes model: corpus level, document level, word level) trong đó mỗi phần của một tập hợp được mô hình như một mô hình trộn hữu hạn trên cơ sở tập các xác suất topic. Trong ngữ cảnh của mô hình văn bản, xác suất topic cung cấp một biểu diễn tường minh của một tài liệu. Trong phần tiếp theo sẽ thảo luận nhiều hơn về mô hình sinh, ước lượng tham số cũng như inference trong LDA. Mô hình sinh trong LDA Cho một corpus của M tài liệu biểu diễn bởi D={d1,d2, …, dM}, trong đó, mỗi tài liệu m trong corpus bao gồm Nm từ wi rút từ một tập Vocabulary của các term {t1, …, tv}, V là số từ. LDA cung cấp một mô hình sinh đầy đủ chỉ ra kết quả tốt hơn các phương pháp trước. Quá trình sinh ra document như sau: 10 ≤≤ δ δ 40 Hình 8. Mô hình biểu diễn của LDA [6] Các khối vuông trong Hình 8 biểu diễn các quá trình lặp. Tham số đầu vào: α và β (corpus-level parameter) α: Dirichlet prior on mϑ r (theta) β: Dirichlet prior on kϕr mϑ r (theta): phân phối của topic trong document thứ m (document-level parameter) zm,n : topic index (word n của văn bản m) wm,n: word n của văn bản m chỉ bởi zm,n (word-level variable, observed word) kϕr : phân phối của các từ được sinh từ topic zm,n M: số lượng các tài liệu. Nm: số lượng các từ trong tài liệu thứ m. K: số lượng các topic ẩn. LDA sinh một tập các từ wm,n cho các văn bản md r bằng cách: • Với mỗi văn bản m, sinh ra phân phối topic mϑ r cho văn bản. • Với mỗi từ, zm,n được lấy mẫu dựa vào phân phối topic trên. • Với mỗi topic index zm,n, dựa vào phân phối từ kϕr , nmw , được sinh ra. 41 • kϕr được lấy mẫu một lần cho tòan bộ corpus. Mô hình sinh đầy đủ (đã chú giải) được biểu diễn trong Hình 9. Hình 9. Mô hình sinh cho LDA Ở đây, Dir, Poiss and Mult lần lượt là các phân phối Dirichlet, Poisson, Multinomial. (Lấy mẫu theo phân phối Dirichlet, Poisson, Multinomial). Ước lượng tham số và Inference thông qua Gibbs Sampling Cho trước một tập các văn bản, tìm xem topic model nào đã sinh ra tập các văn bản trên. Bao gồm: - Tìm phân phối xác suất trên tập từ đối với mỗi topic - kϕr - Tìm phân phối topic của mỗi tài liệu mϑ r Gibbs Sampling - Thuật toán nhằm lấy mẫu từ phân phối xác suất có điều kiện của 2 hoặc nhiều biến ngẫu nhiên. - Quá trình ước lượng tham số cho LDA gồm các bước: 42 Khởi tạo: lấy mẫu lần đầu zero all count variables, ( )zmn , mn , ( )tzn , zn for all documents [ ]Mm ,1∈ do for all words [ ]mNn ,1∈ in document m do sample topic index nmz , ~Mult(1/K) increment document-topic count: ( ) 1+smn increment document-topic sum: 1+mn increment topic-term count: ( ) 1+tsn increment topic-term sum: 1+zn end for end for Hình 10. Quá trình khởi tạo lấy mẫu lần đầu Trong đó: ( )zmn : số topic z trong văn bản m mn : tổng số topic trong văn bản m ( )tzn : số term t trong topic z zn : tổng số term trong topic z Mỗi lần lấy mẫu cho một từ, các tham số đối với từng term và topic trên lần lượt được tăng lên. 43 Burn-in period: quá trình lấy mẫu lại cho đến khi đạt được một độ chính xác nhất định while not finished do for all documents [ ]Mm ,1∈ do for all words [ ]mNn ,1∈ in document m do - for the current assignment of z to a term t for word nmw , : decrement counts and sums: ( ) 1−zmn ; 1−mn ; ( ) 1−tzn ; 1−zn - multinomial sampling acc. To Eq. Error! Reference source not found. (decrements from previous step): sample topic index ( )wzzpz ii rr ,|~~ − - use the new assignment of z to the term t for word nmw , to: increment counts and sums: ( ) 1+zmn r ; 1+tzn r ; 1+zn r end for end for Hình 11. Quá trình khởi tạo lấy mẫu lại Trong mỗi lần lấy mẫu lại: các tham số tương ứng với các topic và term cũ giảm đi 1, các tham số tương ứng với các topic và term mới tăng lên 1. 44 Check convergence and read out parameters: Quá trình kết thúc, đọc các tham số đầu ra Φ và Θ if converged and L sampling iterations since last read out then - the different parameters read outs are averaged read out parameter set Φ acc. to Eq. kϕr read out parameter set Θ acc. to Eq. mϑ r end if end while Hình 12. Quá trình đọc các tham số đầu ra 2 phân phối ẩn kϕr và mϑ r được tính như sau: Ước lượng tham số Để phát triển một bộ lấy mẫu Gibbs cho LDA, Heirich et al áp dụng phương pháp biến ẩn. Biến ẩn ở đây là nmz , , ví dụ, các topic xuất hiện với các từ nmw , của corpus. Ở đây, không cần gộp các tập tham số Θ và Φ bởi vì chúng chỉ là thống kê sự kết hợp giữa wm,n và zm,n tương ứng, các biến trạng thái của chuỗi Markov. 3.3.2.2. Sử dụng mô hình chủ đề ẩn để tính độ tương đồng câu Với mỗi câu, sau khi inference topic sẽ nhận được các phân phối xác suất của topic trên câu và phân phối xác suất của từ trên topic. Tức là với mỗi câu i, LDA sinh ra phân phối topic iϑ r cho câu. Với mỗi từ trong câu, zi,j – topic index (từ j của câu i) - đuợc lấy mẫu dựa theo phân phối topic trên. Sau đó, dựa vào topic index zi,j ta làm giàu các câu bằng cách thêm từ. Vector tương ứng với câu thứ i có dạng như sau: ( ) ( ) v V v v k t t k tk n n β βϕ + += ∑ =1 , ( ) ( ) z K z z m k k m km n n α αϑ + += ∑ =1 , { }||121 ,...,,,...,, VKi wwttts = 45 Ở đây, 1 1 =∑ = K i it và ∑ = = || 1 1 V i iw . ti là trọng số của topic thứ i trong K topic đã được phân tích (K là một tham số hằng của LDA); wi là trọng số của từ thứ i trong tập từ vựng V của tất cả các câu. Ở đây, không cần phải tìm phân phối xác suất từ đối với topic vì ở mức P(topic|câu), kết quả tóm tắt mang tính ngữ nghĩa bao quát hơn. Mỗi câu có thể có nhiều phân phối xác suất topic. Với hai câu thứ i và j, chúng ta sử dụng độ đô cosine để tính độ tương đồng giữa hai câu đã được làm giàu với Hidden Topic. 46 Chương 4. Đề xuất mô hình tóm tắt và kết quả thực nghiệm 4.1. Đề xuất mô hình tóm tắt Khóa luận đề xuất mô hình để giải quyết bài toán tóm tắt là tính toán độ tương tự câu sử dụng Hidden Topic. Ưu điểm của việc sử dụng Hidden Topic này là làm tăng tính ngữ nghĩa trong tính toán độ tương đồng câu mà không cần dùng tới một mạng ngữ nghĩa hay bất cứ một corpus nào khác. Cụ thể quy trình tóm tắt văn bản gồm các bước sau: Bước 1: Quá trình tiền xử lý: - Xử lý văn bản: Tách câu, đưa mỗi câu nằm trên từng dòng, bỏ các câu ngắn theo một ngưỡng đã xác định trước. - Sử dụng công cụ JvnSegmente [25] để tách các từ trong tiếng Việt cho kết quả trả về từ bước trên; Loại bỏ các từ stop-word không có ý nghĩa. - Lưu các câu vào một cấu trúc dữ liệu có dạng Sentence đã được định nghĩa trước (trong class Sentence). Class Corpus sẽ quản lý tập dữ liệu các câu. Bước 2: Quá trình tính toán độ tượng tự ngữ nghĩa giữa các cặp câu: - Sử dụng JgibbsLD [24] xác định topic model nào sinh ra tập các câu trên, tức là tìm phân phối xác suất của topic trên câu. - Tính độ tương đồng giữa các cặp câu sử dụng Hidden Topic bằng độ đo Cosine. Bước 3: Quá trình tóm tắt văn bản: - Tính trọng số lần lượt cho từng câu bằng phương pháp Aggregation Similarity [13]. - Sắp xếp theo thứ tự tăng dần trọng số của câu. 47 - Dựa vào một ngưỡng tỷ lệ tóm tắt cho trước, chọn ra được một số lượng các câu có trọng số cao nhất. 4.2. Thiết kế mô hình thử nghiệm Mô tả dữ liệu - Input: Một văn bản tiếng Việt Dữ liệu dùng để tóm tắt là các trang tin bài được lấy từ các trang báo điện tử của Việt nam như - Output: Văn bản đã được tóm tắt với tỷ lệ cho trước. Mục tiêu: - Tính được độ tương đồng câu bằng độ đo Cosine. - Tính được độ tương đồng câu bằng độ đo Cosine áp dụng thêm Hidden topic. - Áp dụng độ đo trên vào bài toán tóm tắt văn bản đơn. 4.3. Kết quả thực nghiệm Nội dung trang web tóm tắt 1 người VN mất tiền vì 'nước thần' Một người Việt Nam ở Nauy đã mất 180.000 kroner (35.000 USD) vì tin rằng, nếu trộn lượng tiền mặt này với một thứ nước lỏng đặc biệt, số tiền sẽ tự sinh ra gấp đôi. Trong tuần này, một người đàn ông 32 tuổi có quốc tịch Pháp sẽ phải ra hầu tòa ở Oslo vì bị cáo buộc tội lừa đảo bằng "nước thần". Đầu năm nay, anh chàng này đã dạy một người Việt Nam cách làm giàu chỉ qua một đêm. Theo cách làm này, một số tiền mặt được xếp chung với một lượng giấy trắng, nhúng vào một chất lỏng đặc biệt để qua đêm. Sáng hôm sau, số tiền sẽ tự sinh ra gấp đôi. Sau khi nghe theo lời khuyên, nạn nhân đã mất sạch cả tiền mặt và mất luôn dấu vết của "thầy phù thủy" khi thức dậy vào sáng hôm sau. Vào ngày 3/3, "thầy phù thủy" trên đã bị bắt khi tìm mọi cách rời khỏi Nauy với 200.000 kroner trong hành lý. Hình 13. Nội dung một văn bản đơn tiếng Việt 48 Áp dụng quy trình tóm tắt ở mục 4.1, tính được độ tương đồng lần lượt giữa các câu trong văn bản và trọng số của từng câu. Trường hợp không sử dụng Hidden Topic, trọng số của từng câu như bảng sau: Câu Trọng số 1 2.547 2 1.902 3 2.342 4 2.247 5 1.479 6 1.802 7 1.913 8 1.937 9 1.668 10 1.766 Bảng 2. Trọng số của từng câu trong văn bản [không dùng Hidden Topic] Với tỷ lệ trích xuất 30% có kết quả tóm tắt như sau: “Một người Việt Nam ở Nauy đã mất 180.000 kroner (35.000 USD) vì tin rằng, nếu trộn lượng tiền mặt này với một thứ nước lỏng đặc biệt, số tiền sẽ tự sinh ra gấp đôi. Đầu năm nay, anh chàng này đã dạy một người Việt Nam cách làm giàu chỉ qua một đêm. Theo cách làm này, một số tiền mặt được xếp chung với một lượng giấy trắng, nhúng vào một chất lỏng đặc biệt để qua đêm.” 49 Trường hợp không sử dụng Hidden Topic, trọng số của từng câu: Câu Trọng số 1 1.765 2 1.000 3 1.209 4 1.194 5 1.354 6 1.414 7 1.386 8 1.294 9 1.000 10 1.105 Bảng 3. Trọng số của từng câu trong văn bản [dùng Hidden Topic] Tương tự, với tỷ lệ trích xuất 30%, có kết quả tóm tắt: “Một người Việt Nam ở Nauy đã mất 180.000 kroner (35.000 USD) vì tin rằng, nếu trộn lượng tiền mặt này với một thứ nước lỏng đặc biệt, số tiền sẽ tự sinh ra gấp đôi. Sau khi nghe theo lời khuyên, nạn nhân đã mất sạch cả tiền mặt và mất luôn dấu vết của "thầy phù thủy" khi thức dậy vào sáng hôm sau. Vào ngày 3/3, "thầy phù thủy" trên đã bị bắt khi tìm mọi cách rời khỏi Nauy với 200.000 kroner trong hành lý.” Nhận xét, đánh giá Từ thực nghiệm, có thể thấy rằng, mô hình tóm tắt sử dụng Hidden Topic cho kết quả khả quan mặc dù các câu trả về vẫn chưa thể hiện ngữ nghĩa một cách súc tích ngắn gọn. Những câu có trọng số cao nhất sẽ được trích rút cho tóm tắt. Tỷ lệ trích rút sẽ chỉ ra số lượng câu được chọn cho văn bản tóm tắt. 50 Kết luận và hướng phát triển của khóa luận Với nhu cầu thực tiễn về các ứng dụng tóm tắt văn bản hiện nay, khóa luận đã tập trung nghiên cứu về bài toán tóm tắt văn bản nói chung và tóm tắt văn bản đơn nói riêng. Các kết quả cụ thể mà khóa luận đạt được là: - Khảo sát, nghiên cứu các phương pháp tóm tắt văn bản; áp dụng độ đo tương đồng câu vào trong tóm tắt. - Khóa luận cũng đã đề xuất được một mô hình tóm tắt văn bản đơn dựa trên tính toán độ tương đồng câu có sử dụng Hidden Topic. - Thử nghiệm mô hình đã đề xuất và cho được kết quả ban đầu khả quan. Do hạn chế về thời gian và kiến thức sẵn có, khóa luận mới chỉ dừng lại ở mức thử nghiệm mô hình. Với những kết quả thực nghiệm ban đầu, sẽ cần tiếp tục hoàn thiện phương pháp tóm tắt để nâng cao hiệu suất tóm tắt. Bên cạnh đó, tìm hiểu s ự khác nhau giữa văn bản đơn và đa văn bản. Từ đó áp dụng phương pháp tính độ tương đồng câu vào trong tóm tắt đa văn bản. Mục tiêu cụ thể là tiếp tục tăng tính ngữ nghĩa cho phương pháp tính độ tương đồng câu áp dụng vào bài toán tóm tắt đa văn bản. 51 Tài liệu tham khảo Tiếng Việt [1] Hà Thành Lê, Lương Chi Mai, Huỳnh Quyết Thắng, Định Thị Phương Thu (2006). Kết hợp các phương pháp chọn câu quan trọng xây dựng ứng dụng tóm tắt văn bản tiếng Việt, Một số vấn đề chọn lọc của công nghệ thông tin, 2006, 413-421. [2] Lương Chi Mai, Hồ Tú Bảo (2006). Về xử lý tiếng Việt trong công nghệ thông tin, Tài liệu Đề tài KC.01.01.06-10 "Nghiên cứu phát triển một số sản phẩm thiết yếu về xử lý tiếng nói và văn bản tiếng Việt", Viện Công nghệ Thông tin, Viện Khoa học và Công nghệ Việt Nam, 2006. [3] Đỗ Phúc, Hồ Anh Thư (2005). Rút trích và tóm tắt nội dung trang web tiếng Việt, Phát triển khoa học - công nghệ, 2005, 8/(10):13-22 [4] Phạm Thị Thu Uyên, Hoàng Minh Hiền, Trần Mai Vũ, Hà Quang Thụy. Độ tương đồng ngữ nghĩa giữa hai câu và ứng dụng trong tóm tắt văn bản tiếng Việt (gui Hoi nghi Hue). Tiếng Anh [5] Dang Thanh Hai, Nguyen Thu Trang, Ha Quang Thuy. The Graph of Concepts based Text Summarization, College of Technology, Vietnam National University, Hanoi. [6] Phan Xuan Hieu, Susumu Horiguchi, Nguyen Le Minh. Learning to Classify Short and Sparse Text & Web with Hidden Topics from Large-scale Data Collections, 17th International World Wide Web Conference, 2008. [7] Le Nguyen Minh (2004). Statistical Machine Learning Approaches to Cross Language Text Summarization, PhD thesis in School of Information Science Japan Advanced Institute of Science and Technology, September 2004. 52 [8] Cam-Tu Nguyen, Trung-Kien Nguyen, Xuan-Hieu Phan, Le-Minh Nguyen and Quang-Thuy Ha (2006). Vietnamese Word Segmentation with CRFs and SVMs: An Investigation. The 20th Pacific Asia Conference on Language, Information and Computation (PACLIC20), November 1-3, 2006, Wuhan, China, 215-222. [9] Blake,C., Kampov,J., Orphanides,A., West,D., & Lown,C. (2007). UNC-CH at DUC 2007: Query Expansion, Lexical Simplification, and Sentence Selection Strategies for Multi-Document Summarization, Document Understanding Conference 2007 (DUC 2007), Rochester, NY, April 26-27, 2007. [10] Dan Cohen. Automatic Text Summarization. Seminar in Natural Language Programming and Computational Linguistics. [11] H. Edmundson. New methods in automatic abstracting. Journal of ACM, 16(2):264-- 285, 1969. [12] Jiawei Han and Micheline Kamber. Data Mining: Concepts and Techniques, 2nd ed. The Morgan Kaufmann Series in Data Management Systems, Jim Gray, Series Editor Morgan Kaufmann Publishers, March 2006. ISBN 1-55860-901-6. [13] Wooncheol Jung, Youngjoong Ko, and Jungyun Seo (2004). Automatic Text Summarization Using Two-step Sentence Extraction, Proceedings of Asian Information Retrieval Symposium (AIRS 2004), in Beijing, China, pp.43-48, Oct, 2004. [14] Daniel Jurafsky, and James H. Martin, 2000. Speech and Language Processing: An Introduction to Natural Language Processing, Speech Recognition, and Computational Linguistics. Prentice-Hall. [15] H.P.Luhn. The automatic creation of literature abstracts. IBM Journal of Research Development, 2(2):159–165,1958. [16] Yuhua Li, David McLean, Zuhair Bandar, James O'Shea, Keeley A. Crockett (2006). Sentence Similarity Based on Semantic Nets and Corpus Statistics. IEEE Trans. Knowl. Data Eng. 18(8): 1138-1150 53 [17] A. A. Mohamed, S. Rajasekaran, (2006). Query-Based Summarization Based on Document Graphs, Document Understanding Workshop, June 8-9, 2006 (DUC2006),New York Marriott, Brooklyn, New York USA. [18] Inderjeet Mani and Mark T. Maybury (eds). Advances in Automatic Text Summarization. MIT Press, 1999. ISBN 0-262-13359-8. 442 pp. [19] Manabu Okumura. Text Summarization. Asian Applied Natural Language Processing for Linguistics Diversity and Language Resource Development (ADD2), Thailand Science Park, 2007. [20] Siddharth Patwardhan (2003). Incorporating Dictionary and Corpus Information into a Context Vector Measure of Semantic Relatedness. MSc. Thesis, University of Minnesota, Duluth, MN. [21] P. Senellart and V. D. Blondel (2008). Automatic discovery of similar words, Survey of Text Mining II: Clustering, Classification and Retrieval (M. W. Berry and M. Castellanos, editors): 25–44. Springer-Verlag, January 2008. [22] Pierre Senellart (2007). Understanding the Hidden Web, PhD thesis in Computer science, Université Paris-Sud, Orsay, France, December 2007. [23] Krishna Sapkota, Laxman Thapa, Shailesh Bdr. Pandey (2006). Efficient Information Retrieval Using Measures of Semantic Similarity, Conference on Software, Knowledge, Information Management and Applications, Chiang Mai, Thailand, December 2006, 94- 98. Các công cụ sử dụng [24] Phan Xuân Hiếu. JGibbsLDA. School of Information Sciences Tohoku University. [25] Nguyễn Cẩm Tú, Phan Xuân Hiếu. JvnSegmenter. Đại học Công nghệ - Đại học Quốc gia Hà Nội.

Các file đính kèm theo tài liệu này:

  • pdfK49_Hoang_Minh_Hien_Thesis.pdf