Luận văn Vần đề chất lượng dịch vụ trong mạng thế hệ mới và triển khai ứng dụng trên hạ tầng của công ty SPT

Tài liệu Luận văn Vần đề chất lượng dịch vụ trong mạng thế hệ mới và triển khai ứng dụng trên hạ tầng của công ty SPT: BỘ GIÁO DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC BÁCH KHOA HÀ NỘI -------------------------------------- LUẬN VĂN THẠC SĨ KHOA HỌC NGÀNH: XỬ LÝ THÔNG TIN VÀ TRUYỀN THÔNG VẤN ĐỀ CHẤT LƯỢNG DỊCH VỤ TRONG MẠNG THẾ HỆ MỚI VÀ TRIỂN KHAI ỨNG DỤNG TRÊN HẠ TẦNG MẠNG CỦA CÔNG TY SPT NGUYẾN VĂN NGOAN HÀ NỘI 2006 1 MỤC LỤC MỤC LỤC ...........................................................................................1 DANH MỤC CÁC THUẬT NGỮ VIẾT TẮT ..........................................6 DANH MỤC CÁC BẢNG ...................................................................11 DANH MỤC CÁC HÌNH VẼ, ĐỒ THỊ .................................................12 LỜI NÓI ĐẦU....................................................................................14 CHƯƠNG 1. MẠNG THẾ HỆ MỚI .....................................................16 1.1 Khái niệm.................................................................................16 1.2 Các đặc điểm của mạng NGN .........

pdf113 trang | Chia sẻ: haohao | Lượt xem: 1211 | Lượt tải: 0download
Bạn đang xem trước 20 trang mẫu tài liệu Luận văn Vần đề chất lượng dịch vụ trong mạng thế hệ mới và triển khai ứng dụng trên hạ tầng của công ty SPT, để tải tài liệu gốc về máy bạn click vào nút DOWNLOAD ở trên
BỘ GIÁO DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC BÁCH KHOA HÀ NỘI -------------------------------------- LUẬN VĂN THẠC SĨ KHOA HỌC NGÀNH: XỬ LÝ THÔNG TIN VÀ TRUYỀN THÔNG VẤN ĐỀ CHẤT LƯỢNG DỊCH VỤ TRONG MẠNG THẾ HỆ MỚI VÀ TRIỂN KHAI ỨNG DỤNG TRÊN HẠ TẦNG MẠNG CỦA CÔNG TY SPT NGUYẾN VĂN NGOAN HÀ NỘI 2006 1 MỤC LỤC MỤC LỤC ...........................................................................................1 DANH MỤC CÁC THUẬT NGỮ VIẾT TẮT ..........................................6 DANH MỤC CÁC BẢNG ...................................................................11 DANH MỤC CÁC HÌNH VẼ, ĐỒ THỊ .................................................12 LỜI NÓI ĐẦU....................................................................................14 CHƯƠNG 1. MẠNG THẾ HỆ MỚI .....................................................16 1.1 Khái niệm.................................................................................16 1.2 Các đặc điểm của mạng NGN .....................................................17 1.3 Kiến trúc dịch vụ của mạng thế hệ mới ........................................18 1.4 Các tham số đánh giá chất lượng mạng ........................................22 1.4.1 Băng thông .......................................................................23 1.4.2 Trễ ..................................................................................23 1.4.3 Trượt ...............................................................................24 1.4.4 Mất gói .............................................................................25 CHƯƠNG 2. CHẤT LƯỢNG DỊCH VỤ (QoS) .....................................25 2.1 Khái niệm.................................................................................26 2.2 Các kỹ thuật QoS ......................................................................26 2.2.1 Mô hình dịch vụ cố gắng tối đa (Best Effort) .........................28 2.2.2 Dịch vụ tích hợp (Integrated Service) ..................................28 2.2.2.1 Dịch vụ đảm bảo GS (Guaranteed Service) .....................30 2.2.2.2 Dịch vụ kiểm soát tải CL (Controlled Load)....................30 2.2.2.3 Kết luận .....................................................................30 2.2.3 Mô hình Differentiated Service ............................................31 2.2.3.1 Trường DS của DiffServ ..............................................32 2.2.3.2 Per-hop Behavior trong DiffServ ...................................32 2 2.2.3.3 Các cơ chế DiffServ.....................................................36 2.2.3.4 Ưu nhược điểm của mô hình DiffServ ...........................37 2.2.3.5 Kết luận về DiffServ....................................................38 2.2.4 So sánh 2 mô hình kiến trúc QoS chính ................................39 2.3 Các giao thức báo hiệu trong kỹ thuật QoS....................................39 2.3.1 Giao thức dành sẵn tài nguyên .............................................40 2.3.2 Mô hình RSVP end-to-end ..................................................42 CHƯƠNG 3. PHÂN LOẠI, PHÂN MẢNH .............................................. VÀ NÉN GÓI DỮ LIỆU TRONG KỸ THUẬT QoS ...............................44 3.1 Phân loại gói dữ liệu ..................................................................44 3.1.1 Quyền ưu tiên IP ...............................................................45 3.1.2 Định tuyến chính sách (PBR) ..............................................47 3.1.2.1 Đặc điểm của PBR ......................................................47 3.1.2.2 Nguyên tắc hoạt động ..................................................47 3.2 Phân mảnh gói dữ liệu (MLP) .....................................................48 3.2.1 Các đặc tính phân mảnh dữ liệu............................................48 3.2.2 Nguyên lý hoạt động...........................................................49 3.3 Các giải thuật nén tải tin .............................................................50 3.3.1 Nguyên tắc hoạt động .........................................................50 3.3.2 Nén tiêu đề ........................................................................52 3.3.2.1 Nén tiêu đề TCP..........................................................53 3.3.2.2 Nén tiêu đề giao thức thời gian thực (RTP) .....................53 CHƯƠNG 4. KỸ THUẬT QoS TRONG ĐIỀU KHIỂN TẮC NGHẼN .....56 4.1 Tránh tắc nghẽn.........................................................................56 4.1.1 Phương pháp bỏ đuôi ..........................................................57 4.1.2 Phương pháp loại bỏ ngẫu nhiên...........................................58 4.1.3 Phương pháp loại bỏ cân bằng ngẫu nhiên .............................59 3 4.1.4 Tốc độ truy nhập cam kết ....................................................61 4.1.4.1 Cơ chế hoạt động ........................................................61 4.1.4.2 Các chức năng của CAR...............................................62 4.1.4.3 Mô hình chiếc thùng và thẻ bài......................................64 4.1.5 Sửa dạng lưu lượng (GTS)...................................................65 4.1.5.1 Đặc điểm của GTS ......................................................65 4.1.5.2 Cơ chế hoạt động của GTS ...........................................66 4.1.5.3 Kết luận .....................................................................67 4.2 Điều khiển tắc nghẽn............................................................................ 68 4.2.1 Hàng đợi vào trước ra trước (FIFO) ......................................69 4.2.1.1 Các ưu nhược điểm của hàng đợi FIFO ..........................69 4.2.1.2 Cấu hình FIFO............................................................70 4.2.2 Hàng đợi tuần tự (CQ) ........................................................71 4.2.2.1 Cơ chế hoạt động ........................................................71 4.2.2.2 Những ưu nhược điểm của hàng đợi CQ.........................75 4.2.2.3 Cấu hình thực thi hàng đợi CQ ......................................75 4.2.3 Hàng đợi ưu tiên (PQ).........................................................77 4.2.3.1 Cơ chế hoạt động ........................................................77 4.2.3.2 Những ưu nhược điểm của hàng đợi PQ .........................78 4.2.3.3 Cấu hình thực thi hàng đợi ưu tiên .................................78 4.2.3.4 Kết luận .....................................................................80 4.2.4 Hàng đợi cân bằng trọng số (WPQ).......................................81 4.2.4.1 Cơ chế hoạt động ........................................................81 4.2.4.2 Hàng đợi cân bằng trọng số phân loại lưu lượng ..............82 4.2.4.3 Hàng đợi cân bằng trọng số phân lớp lưu lượng...............84 4.2.4.4 Hàng đợi cân bằng trọng số tốc độ cao ...........................85 4.2.4.5 Các ưu nhược điểm của hàng đợi WFQ ..........................87 4 4.2.4.6 Cấu hình thực thi WFQ ................................................87 CHƯƠNG 5. KỸ THUẬT QoS TRONG MẠNG IP/MPLS .....................89 5.1 Cơ sở .......................................................................................89 5.2 Định nghĩa chuyển mạch nhãn (MPLS) ........................................90 5.2.1 Chuyển mạch nhãn là gì?.....................................................90 5.2.2 Ưu điểm của kỹ thuật MPLS................................................90 5.3 Kiến trúc MPLS ........................................................................91 5.3.1 Cấu trúc khối .....................................................................91 5.3.2 Một số khái niệm trong chuyển mạch nhãn ............................92 5.3.2.1 Lớp chuyển tiếp tương đương (FEC)..............................92 5.3.2.2 Router chuyển mạch nhãn (LSR) ...................................92 5.3.2.3 Giao thức phân phối nhãn.............................................94 5.3.2.4 Tuyến đường chuyển mạch nhãn ...................................95 5.4 Thực hiện cơ chế QoS trong mạng MPLS .....................................95 5.4.1 Cấu trúc trường MPLS EXP trong gói IP được gán nhãn..........96 5.4.2 Gán nhãn tại biên mạng.......................................................98 5.4.3 Chuyển tiếp gói MPLS........................................................99 5.5 Kết luận ...................................................................................99 CHƯƠNG 6. PHƯƠNG ÁN TRIỂN KHAI MPLS QoS ............................ TRÊN HẠ TẦNG MẠNG CỦA CÔNG TY SPT .................................. 100 6.1 Hạ tầng mạng IP của công ty SPT.............................................. 100 6.2 Phương án triển khai ................................................................ 101 6.2.1 Chia sẻ băng thông kênh liên tỉnh ....................................... 101 6.2.1.1 Chính sách định tuyến................................................ 104 6.2.1.2 Địa chỉ IP cho các router ............................................ 105 6.2.1.3 QoS và phân lớp dịch vụ (CoS) .................................. 106 6.2.2 Tích hợp dịch vụ .............................................................. 106 5 6.3 Cấu hình triển khai MPLS QoS trên mạng SPT............................ 107 6.4 Kết luận ................................................................................. 109 KẾT LUẬN VÀ KIẾN NGHỊ ............................................................. 110 TÀI LIỆU THAM KHẢO .................................................................. 112 6 DANH SÁCH CÁC THUẬT NGỮ VIẾT TẮT A API Application Program Interface ARQ Admission Request ATM Asynchronous Transfer Mode AF Assured forwarding ASN Autonomous System Number B BGP Border Gateway Protocol BA Behavior Aggregate C CAR Commited Access Rate CPE Customer Premise Equipment CIR Committed Information Rate CATV Community Antenna Television cRTP compressed Real-time Transport Protocol CQ Custom Queuing CBWFQ Class-Based Weighted Fair Queuing CL Controlled Load CS Class – Selector CPU Central Processing Unit CDT Congestive Discard Threshold D DWDM Dense Wavelength Division Multiplexing DWFQ Distributed Weighted Fair Queuing DiffServe Differentiated Service 7 DSCP Differentiated Service Code Point DoS Denial of Service E Edge-LSR Edge Label Switching Router EXP Experimental Field EF Expedited Forwaring F FIFO First In First Out FEC Forwarding Equivalence Class FTP File Transfer Protocol FBWFQ Flow- Based WFQ G GRE Generic Route Encapsulation GSM Global System for Mobile Communications GTS Generic Traffic Shaping GS Guaranteed Service H HTML Hyper Text Mark Language HDLC Hyper level Data Link Control HQO Hold-queue I IPH IP Header IETF Interrnet Engineering Task Force IGP Interior Gateway Protocol IS-IS Intermediate System - Intermediate System ISP Internet Service Provider IXP Internet Exchange Point 8 ISDN Integrated Services Digital Network IP MTU IP Maximum Transfer Unit ITU-T International Telecommunication Union - Telecommunication standardization sector IntServ Integrated Service L LDP Label Distribution Protocol LFIB Label Forwarding Information Base LIB Label Information Base LSP Label Switching Path LSR Label Switching Router LFI Link Fragmentation and Interleaving LZ (LZV) Lempel – Ziv LAPB Link Access Procedure Balanced M MPLS Multi Protocol Label Switching MP-BGP Multiprotocol BGP MP_REACH_NLRI Multiprotocol Reachable NLRI MP_UNREACH_NLRI Multiprotocol Unreachable NLRI MTU Maximum Transfer Unit MCML PPP Multi- Class Multilink Point-to-Point Protocol MLP Multiling PPP MPPC Microsoft Point – to – point Compression MAC Medium Access Control N NH Next Hop NLRI Network Layer Reachability Information 9 O OSPF Open Shortest Path First P PSTN Public Switched Telephone Network PE Provider Edge POP Point Of Presence PVC Permanent Virtual Circuit PLMN Public Land Mobile Network PDH Plesiochronous Digital Hierarchy PQ Priority Queuing POS Packet over SONET PHB Per-hop behavior PPP Point – to – Point Protocol R RPT Resilient Packet Transport RFC Request for Comment RSVP Resource Reservation Protocol RESV Reservation request RTP Real-time Transport Protocol RIP S SDH Synchronous Digital Hierarchy SMTP Simple Mail Transfer Protocol SS7 Signalling System No 7 SVC Switched virtual circuit SONET Synchronous Optical Network SLA Service Level Agreement 10 STAC Stacker SQL Structured Query Language T TCP Transmission Control Protocol TDM Time Division Multiplex TTL Time-to-Live TAC Technical Assistance Center U UDP User Datagram Protocol V VC Virtual Circuit VPN Virtual Private Network VRF VPN Routing and Forwarding VoIP Voice over IP VIP Versatile Interface Processor Vd Ví dụ W WDM Wavelength Division Multiplexing WFQ Weighted Fair Queing WAN Wide Area Network WRED Weighted random early Drop/Detect WRR Weighted Round Robin 11 DANH MỤC CÁC BẢNG Bảng 1-1 So sánh công nghệ mạng hiện tại và tương lai ........................... 22 Bảng 1-2 Thống kê các loại trễ từ đầu cuối đến đầu cuối .......................... 25 Bảng 2-1 Giá trị IP Precedence và DSCP trong các PHB .......................... 35 Bảng 2-2 So sánh đặc điểm cơ bản của hai mô hình QoS .......................... 39 Bảng 3-1 Giá trị IP Precedence tương ứng với 3 bits ToS ............................. 46 Bảng 3-2 Phạm vi sử dụng của các giải thuật nén..................................... 51 Bảng 3-3 Hiệu quả nén tiêu đề TCP ...................................................... 53 Bảng 5-1 Chức năng của các kiểu LSR................................................... 94 Bảng 5-2 Mô tả mối liên hệ giữa giá trị IP DSCP và MPLS EXP ..............97 Bảng 6-1 Thống kê chính sách QoS ............................................................ 107 12 DANH MỤC CÁC HÌNH VÀ ĐỒ THỊ Hình 1.1 Nhu cầu tiến hóa mạng..................................................................... 19 Hình 1.2 Chiến lược phát triển........................................................................ 20 Hình 1.3 Sự hội tụ giữa các mạng................................................................... 21 Hình 1.4 Băng thông trong mạng đa truy nhập............................................... 23 Hình 1.5 Một ví dụ về trễ mạng...................................................................... 24 Hình 2.1 Các kỹ thuật QoS trong mạng IP ..................................................... 27 Hình 2.2 Mô hình dịch vụ IntServ ................................................................ 29 Hình 2.3 Sơ đồ khối kiến trúc DiffServ .......................................................... 32 Hình 2.4 Mô tả cấu trúc bit trong trường DSCP............................................. 34 Hình 2.5 Sơ đồ cơ chế phân loại và điều hoà lưu lượng................................. 36 Hình 2.6 Mô hình mạng đầu cuối đến đầu cuối với RSVP ............................ 42 Hình 2.7 Mô hình mạng đầu cuối đến đầu cuối non-RSVP ........................... 43 Hình 3.1 Mô tả trường ToS trong gói IP......................................................... 45 Hình 3.2 Nguyên lý hoạt động của LFI ......................................................... 49 Hình 3.3 Minh họa quá trình thực hiện thuật toán nén ................................... 51 Hình 3.4 Minh họa thuật toán nén tiêu đề....................................................... 52 Hình 3.5 Minh họa hiệu quả nén TCP ............................................................ 53 Hình 3.6 Cơ chế nén tiêu đề RTP ................................................................... 54 Hình 4.1 Thuật toán RED ............................................................................... 58 Hình 4.2 Cơ chế hoạt động của WRED .......................................................... 60 Hình 4.3 Sơ đồ khối của CAR ........................................................................ 62 Hình 4.4 Lưu đồ chức năng của CAR............................................................. 63 Hình 4.5 Mô hình chiếc thùng và thẻ bài........................................................ 64 Hình 4.6 Sơ đồ các khối chức năng của GTS ................................................. 67 Hình 4.8 Ví dụ cấu hình hàng đợi FIFO ......................................................... 70 13 Hình 4.9 Cơ chế hoạt động của CQ ................................................................ 72 Hình 4.10 Một trường hợp xấu nhất xảy ra đối với hàng đợi CQ .................. 73 Hình 4.11 Minh họa tính toán băng thông và độ trễ tối đa ............................. 73 Hình 4.12 Ví dụ cấu hình hàng đợi CQ .......................................................... 76 Hình 4.13 Cơ chế hoạt động của PQ............................................................... 77 Hình 4.14 Một Ví dụ cấu hình hàng đợi PQ ................................................... 80 Hình 4.15 Cơ chế hoạt động của WFQ........................................................... 82 Hình 4.16 Sự phân lớp WFQ dựa trên tiêu đề gói tin..................................... 85 Hình 5.1 Mạng IP chạy trên mạng trục ATM................................................. 89 Hình 5.2 Kiến trúc cơ bản của một node MPLS chạy trên nền IP.................. 91 Hình 5.3 Kiến trúc của Edge-LSR .................................................................. 93 Hình 5.4 Cấu trúc nhãn (label)........................................................................ 97 Hình 5.5 Gán nhãn và chuyển tiếp gói tin trong mạng MPLS ....................... 99 Hình 6.1 Sơ đồ mạng kết nối HNI – HPG của SPT ..................................... 101 Hình 6.2 Cấu trúc phân lớp mạng SPT ......................................................... 102 Hình 6.3 Mạng IP tích hợp nhiều kỹ thuật chuyển mạch khác nhau............ 104 14 LỜI NÓI ĐẦU Môi trường kinh doanh ngày càng mang tính cạnh tranh và phức tạp hơn bao giờ hết. Trong đó chất lượng dịch vụ là chìa khoá để có thể dẫn tới thành công. Song song với xu thế này, công nghệ viễn thông và công nghệ thông tin phát triển cũng có nhiều ảnh hưởng đến mạng viễn thông, đòi hỏi mạng viễn thông phải hội tụ được nhiều loại hình dịch vụ khác nhau. Để đáp ứng các yêu cầu này, một số nhà sản xuất thiết bị viễn thông và một số tổ chức nghiên cứu về viễn thông đã đưa ra các ý tưởng và mô hình về cấu trúc mạng thế hệ mới (Next Generation Network – NGN). NGN không phải là mạng hoàn toàn mới, mạng này dựa trên cơ sở chuyển mạch và truyền dẫn gói IP và hướng tới là MPLS. Tuy nhiên bên cạnh những ưu thế nổi bật, một yêu cầu đặt ra đối với mạng NGN là đảm bảo chất lượng truyền tải âm thanh và dữ liệu. Đây thực sự là một thách thức khó khăn về mặt công nghệ, vì các dịch vụ khác nhau có các yêu cầu về chất lượng dịch vụ khác nhau. Do vậy song song với tiến trình xây dựng mạng NGN thì việc triển khai các kỹ thuật QoS cũng phải được thực thi đồng thời nhằm đảm bảo các yêu cầu mà dịch vụ đưa ra. Luận văn tốt nghiệp cao học của tôi là “Vấn đề chất lượng dịch vụ trong mạng thế hệ mới và triển khai ứng dụng trên hạ tầng mạng của công ty SPT” Nội dung gồm 6 chương: Chương 1 – Mạng thế hệ mới (NGN). Giới thiệu tổng quan về mạng thế hệ mới. Tác giả phân tích xu thế phát triển của mạng viễn thông ngày nay. Các đặc điểm về dịch vụ, công nghệ và kiến trúc mạng NGN triển khai trên hạ tầng các mạng riêng lẻ có sẵn. Phân tích các tham số đánh giá chất lượng dịch vụ mạng và những yêu cầu cần được giải quyết. 15 Chương 2 – Chất lượng dịch vụ (QoS). Phân tích những yêu cầu cần thiết phải triển khai QoS trong mạng NGN, các khái niệm, các kỹ thuật triền khai và các giao thức báo hiệu trong QoS. Chương 3 – Phân loại, phân mảnh và nén gói dữ liệu trong kỹ thuật QoS. Phân tích các cơ chế phân loại, phân mảnh và nén gói dữ liệu trong kỹ thuật QoS. Các ưu, nhược điểm của những cơ chế này trong việc góp phần nâng cao chất lượng dịch vụ. Chương 4 – Kỹ thuật QoS trong phòng tránh và điều khiển tắc nghẽn. Phân tích các cơ chế hàng đợi và các cơ chế loại bỏ gói dữ liệu, cũng như ảnh hưởng của các cơ chế đó như thế nào trong việc đảm bảo QoS. Chương 5 – Kỹ thuật QoS trong mạng IP/MPLS. Phân tích những mặt hạn chế của công nghệ IP và miêu tả kiến trúc của chuyển mạch nhãn đa giao thức MPLS. Giới thiệu cách thực hiện MPLS QoS Chương 6 – Đề xuất phương án triển khai MPLS QoS. Phân tích các giải pháp xây dựng mạng MPLS QoS trên cơ sở hạ tầng mạng của công ty SPT để giải quyết một yêu cầu cụ thể. Tôi xin gửi lời cảm ơn đến các thầy cô bạn bè và đồng nghiệp đã tận tình giúp đỡ tôi trong suốt quá trình thực hiện luận văn. Tôi xin đặc biệt chân thành cảm ơn thầy giáo GSTS. Nguyễn Thúc Hải đã nhiệt tình hướng dẫn và chỉ bảo để tôi hoàn thành bản luận văn này. Do thời gian nghiên cứu có hạn, nên bản luận văn chắc chắn không tránh khỏi sơ suất cả về nội dung và hình thức. Kính mong nhận được sự góp ý của thầy cô, bạn bè và đồng nghiệp. Hà Nội, tháng 11 năm 2006 NGƯỜI THỰC HIỆN KS. Nguyễn Văn Ngoan 16 CHƯƠNG 1 MẠNG THẾ HỆ MỚI (NGN) Trong những năm gần đây, công nghệ mạng và các dịch vụ viễn thông phát triển hết sức nhanh chóng, trong đó lưu lượng các dịch vụ dữ liệu đã vượt qua lưu lượng thoại. Sự phát triển nhanh của các dịch vụ dữ liệu đòi hỏi có một sự chuyển biến trong việc xây dựng, quản lý và khai thác mạng. Có thể nói sự ra đời của mạng thế hệ mới NGN (Next Generation Network) sẽ thoả mãn được yêu cầu tăng trưởng nhanh của lưu lượng dữ liệu và cả lưu lượng thoại trong thời gian tới. Trong chương này tác giả sẽ phân tích tổng quan về các đặc điểm và kiến trúc mạng NGN cũng như các tham số đánh giá chất lượng dịch vụ mạng. 1.1 Khái niệm Cho tới nay, đã có rất nhiều các tổ chức viễn thông quốc tế cũng như các nhà cung cấp thiết bị viễn thông trên thế giới đều quan tâm và nghiên cứu về chiến lược phát triển mạng NGN nhưng vẫn chưa có một định nghĩa chính xác và thống nhất nào cho mạng NGN. Sau đây là những khái niệm tương đối chung nhất khi đề cập đến NGN ƒ Mạng hội tụ (hỗ trợ cho cả lưu lượng thoại và dữ liệu, cấu trúc mạng hội tụ). ƒ Mạng phân phối (phân phối tính thông minh cho mọi phần tử trong mạng). ƒ Mạng đa dịch vụ (cung cấp nhiều loại dịch vụ khác nhau). ƒ Mạng nhiều lớp (mạng được phân phối ra nhiều lớp mạng có chức năng độc lập nhưng hỗ trợ nhau thay vì một khối thống nhất như trong mạng TDM - Time Division Multiplex). 17 1.2 Các đặc điểm của mạng NGN Sự phát triển của các dịch vụ truyền thông hiện nay sẽ hướng đến việc các nhà cung cấp dịch vụ sẽ phải có sự mềm dẻo để có thể phục vụ được cả thị trường lớn và nhỏ. Các quyết định về việc cung cấp dịch vụ của họ có thể có nhiều vấn đề phải quyết như giá cả, việc đóng gói, tiếp thị và sự thuận tiện như là các dịch vụ thực tế họ cung cấp. Khi có nhiều phương tiện truyền tin, nhà cung cấp dịch vụ, nhà cung cấp thiết bị và các doanh nghiệp thương mại khác, tất cả phối hợp để cung cấp các dịch vụ cho người sử dụng. Dưới đây là trình bày một số đặc trưng dịch vụ quan trọng trong môi trường NGN: ƒ Liên lạc thông tin rộng khắp, thời gian thực, đa phương tiện - đảm bảo độ tin cậy, thân thiện trong việc liên kết mọi người, truy nhập tốc độ cao và truyền tải thông tin với bất kỳ phương tiện nào, bất kỳ thời gian nào, bất kỳ đâu, và trong bất kỳ kích cỡ nào. ƒ Sử dụng công nghệ chuyển mạch mềm (SoftSwitch) thay thế các thiết bị tổng đài chuyển mạch phần cứng cồng kềnh. Các mạng của từng dịch vụ riêng rẽ được kết nối với nhau thông qua sự điều khiển của một thiết bị tổng đài duy nhất, thiết bị tổng đài này dựa trên công nghệ chuyển mạch mềm. ƒ Nhiều mạng thông minh (network intelligence) được phân bố trên toàn mạng. Nó bao gồm các ứng dụng cho phép truy nhập và điều khiển các dịch vụ mạng độc lập với lớp truyền tải và lớp truy nhập của mạng thông qua cổng giao diện lập trình ứng dụng (API - Application Program Interface). Nó cũng có thể thực hiện các chức năng cụ thể thay mặt cho nhà cung cấp dịch vụ hoặc mạng. Ta có thể hiểu nó như một tác tử quản lý (management agents) mà nó có thể giám sát tài nguyên 18 mạng, tập hợp các số liệu hay sử dụng, cung cấp việc gỡ rối, hoặc môi giới các dịch vụ mới từ các nhà cung cấp khác,.… ƒ Dễ dàng sử dụng. Đó là việc làm trong suốt đối với người sử dụng về tính phức tạp của thu thập, xử lý, chế tạo và truyền thông tin. Nó cho phép dễ dàng sử dụng và truy nhập các dịch vụ mạng, bao gồm giao diện người sử dụng cho phép tương tác giữa người và mạng một cách tự nhiên, cung cấp các thông tin, trợ giúp, lựa chọn động theo ngữ cảnh (nhạy ngữ cảnh), quản lý một cách trong suốt các tương tác đa dịch vụ, cung cấp các menu khác nhau cho những người chưa có kinh nghiệm ngược lại với những người đã có kinh nghiệm, và cung cấp môi trường thống nhất cho tất cả các dạng truyền thông. ƒ Quản lý và chế tạo các dịch vụ cá nhân: Nó bao gồm khả năng của người sử dụng để quản lý các thông tin cá nhân của họ, các dịch vụ mạng cung cấp, giám sát thông tin sử dụng và tính cước. ƒ Quản lý thông tin thông minh: Nó giúp người sử dụng quản lý tình trạng quá tải thông tin bằng việc đưa khả năng tìm kiếm, sắp xếp, và lọc các bản tin hoặc dữ liệu. 1.3 Kiến trúc dịch vụ của mạng thế hệ mới Mạng thế hệ mới ra đời cùng với việc tái kiến trúc mạng, tận dụng tất cả các ưu thế về công nghệ tiên tiến để phát triển, kiến trúc mạng NGN dựa trên mạng chuyển mạch gói và cung cấp nhiều dịch vụ mới. Mạng thế hệ sau được tổ chức dựa trên các nguyên tắc cơ bản sau: ƒ Đáp ứng nhu cầu cung cấp các loại hình dịch vụ viễn thông phong phú, đa dạng, đa dịch vụ, đa phương tiện. ƒ Mạng có cấu trúc đơn giản. ƒ Nâng cao hiệu quả sử dụng chất lượng mạng lưới và giảm thiểu chi phí khai thác và bảo dưỡng. 19 ƒ Dễ dàng mở rộng dung lượng, phát triển các dịch vụ mới. ƒ Độ linh hoạt và tính sẵn sàng cao của mạng. Sau đây chúng ta xem xét quá trình tiến hóa về cấu trúc từ mạng hiện có lên cấu trúc mạng NGN hình 1.1 Hình 1.1 Nhu cầu tiến hóa mạng Như hình vẽ 1.1, chúng ta nhận thấy mạng viễn thông hiện tại gồm nhiều mạng riêng lẻ kết hợp lại với nhau thành một mạng “hỗn hợp”, chỉ được xây dựng ở cấp quốc gia, nhằm đáp ứng được nhiều loại dịch vụ khác nhau. Ví dụ xét mạng Internet, đó là một mạng đơn lớn, có tính chất toàn cầu, thường được đề cập theo một loạt các giao thức truyền dẫn hơn là theo một kiến trúc đặc trưng. Internet hiện tại không hỗ trợ QoS cũng như các dịch vụ có tính thời gian thực (như thoại truyền thống). Do đó, việc xây dựng mạng thế hệ mới NGN cần tuân theo các chỉ tiêu: ƒ NGN phải có khả năng hỗ trợ cả cho các dịch vụ của mạng Internet và của mạng hiện hành. 20 ƒ Một kiến trúc NGN khả thi phải hỗ trợ dịch qua nhiều nhà cung cấp khác nhau. Mỗi nhà cung cấp mạng hay dịch vụ là một thực thể riêng lẻ với mục tiêu kinh doanh và cung cấp dịch vụ khác nhau, và có thể sử dụng những kỹ thuật và giao thức khác nhau, nhưng tất cả đều phải được truyền qua mạng một cách thông suốt từ đầu cuối đến đầu cuối. ƒ Một mạng tương lai phải hỗ trợ tất cả các loại kết nối, thiết lập đường truyền trong suốt cả cho hữu tuyến cũng như vô tuyến. Vì vậy, mạng NGN sẽ tiến hóa lên từ mạng truyền dẫn hiện tại (phát triển thêm chuyển mạch gói) và từ mạng Internet công cộng (hỗ trợ thêm chất lượng dịch vụ QoS). Chiến lược phát triển mạng xem hình 1.2 Hình 1.2 Chiến lược phát triển Để thực hiện việc chuyển dịch một cách thuận lợi từ mạng viễn thông hiện có sang mạng thế hệ mới, việc chuyển dịch phải phân ra làm ba mức (kể cả kết nối và chuyển mạch). Thứ nhất là chuyển dịch ở lớp truy nhập và truyền dẫn. Hai lớp này bao gồm lớp vật lý, lớp 2 và lớp 3 nếu chọn công nghệ IP làm nền cho mạng thế hệ mới. Trong đó: 21 ƒ Công nghệ ghép kênh bước sóng quang DWDM sẽ chiếm lĩnh ở lớp vật lý. ƒ IP/MPLS làm nền cho lớp 3 ƒ Công nghệ ở lớp 2 phải thỏa mãn các điều kiện như: Đơn giản, tối ưu hóa truyền tải gói dữ liệu, có khả năng giám sát chất lượng, giám sát lỗi và bảo vệ, khôi phục mạng khi có sự cố. Hiện tại công nghệ RPT (Resilient Packet Transport) đang phát triển nhằm đáp ứng các chỉ tiêu này. Thứ 2 là chuyển dịch mạng đường dài (mạng truyền dẫn): Tín hiệu từ các cổng trung kế tích hợp hoặc độc lập được chuyển đến mạng IP hoặc ATM (Asynchronous Transfer Mode), rồi sử dụng chuyển mạch mềm để điều khiển luồng và cung cấp dịch vụ. Sử dụng phương thức này có thể giải quyết được vấn đề tắc nghẽn trong chuyển mạch kênh (Xem hình 1.3). Content Mạng lõi IP CATV Wireline Access Wireless Access Cable Access ` Hiện tại các mạng dịch vụ riêng lẻ Tương lai mạng đa dịch vụ Media Gateway Các mạng truy nhập, truyền dẫn, chuyển mạch riêng lẻ Liên mạng trên cơ sở IP Cellular PLMN PSTN/ ISDN Data/IP Network Điều khiển và quản lý các dịch vụ truy nhập Dịch vụ Hình 1.3 Sự hội tụ giữa các mạng 22 Bảng 1-1 dưới đây so sánh công nghệ mạng hiện tại và tương lai Thành phần mạng Công nghệ hiện tại Công nghệ tương lai Cáp xoắn băng hẹp Cáp xoắn băng hẹp Truyền hình cáp số và tương tự chuyên dụng Truyền hình cáp số và tương tự chuyên dụng GSM không dây GSM không dây Cáp quang Cáp quang Cáp xoắn băng rộng Modem cáp IP qua vệ tinh Mạng truy nhập Ethernet Tổng đài PSTN Định tuyến IP Chuyển mạch ATM Chuyển mạch quang Chuyển mạch Frame Relay Chuyển mạch và định tuyến Định tuyến IP PDH DWDM Mạng truyền dẫn đường trục SDH Bảng 1-1 So sánh công nghệ mạng hiện tại và tương lai 1.4 Các tham số đánh giá chất lượng mạng Như đã phân tích ở trên, mạng NGN là mạng hạ tầng thông tin dựa trên công nghệ chuyển mạch gói, nên việc đánh giá chất lượng mạng chủ yếu dựa trên 4 tham số cơ bản là: băng thông, độ trễ gói, trượt (jitter) và tỉ lệ mất gói. 23 1.4.1 Băng thông Thuật ngữ băng thông được sử dụng để chỉ khả năng truyền một lượng dữ liệu của một giao thức, phương tiện hoặc của một kết nối. Nói chung, kết nối của các dịch vụ được đảm bảo sẽ có các yêu cầu đối với mạng để cấp phát một lượng băng thông tối thiểu. Ví dụ một mạng có kiến trúc đa truy nhập ví dụ như Frame Relay, ATM. Băng thông thực tế đạt được dựa trên thỏa thuận kết nối dịch vụ giữa nhà cung cấp với khách hàng hay giữa các nhà cung cấp khác nhau. Hình 1.4 Băng thông trong mạng đa truy nhập Có vẻ như cách tốt nhất để giải quyết vấn đề băng thông là dành càng nhiều băng thông cho các kết nối càng tốt. Tuy nhiên thực tế để tăng băng thông, ngoài chi phí phát triển mạng lưới còn phát sinh các vấn đề trễ như trong các mạng hội tụ nhiều dịch vụ. 1.4.2 Trễ Tất cả các gói tin trong mạng đều trải qua một vài khoảng trễ nhất định trước khi tới được đích, hay nói cách khác trễ có rất nhiều loại, ở đây chỉ nêu ra một số loại cơ bản sau: ƒ Trễ lan truyền (Propagation Delay): Được định nghĩa là khoảng thời gian cần thiết để truyền 1 bit thông tin từ nơi gửi đến đích trên một liên kết môi trường vật lý. ƒ Trễ mạng (Network Delay): Đây là thời gian để một thiết bị nhận và chuyển một gói đi. Khoảng thời gian này thường nhỏ hơn sµ10 . Tất cả 24 các gói trong một luồng không có cùng độ trễ trong mạng. Độ trễ của mỗi gói biến đổi tuỳ theo điều kiện của từng chặng trên mạng. Nếu mạng không bị tắc nghẽn, các router sẽ không cần có hàng đợi, do đó trễ chuyển gói sẽ không còn. Điều này làm giảm rất nhiều độ trễ gói trong mạng. Nếu mạng bị tắc nghẽn. trễ hàng đợi sẽ ảnh hưởng rất lớn tới gói và gây ra sự biến đổi trễ của gói. Sự biến đổi trễ của mỗi gói là khác nhau và điều này gọi là jitter. Tóm lại trễ mạng là biến đổi và khó xác định trước nó phụ thuộc vào nhà cung cấp, trạng thái các tuyến trong mạng, vấn đề tắc nghẽn,... Trong một số trường hợp nhà cung cấp có thể giới hạn trễ này tùy theo thỏa thuận mức dịch vụ giữa nhà cung cấp và khách hàng hay giữa các nhà cung cấp với nhau (xem hình 1.5). Ngoài ra còn có các trễ cố định có thể xác định được như: Trễ mã hóa, trễ hàng đợi, trễ sửa dạng và trễ nén. Hình 1.5 Một ví dụ về trễ mạng ƒ Trễ chuyển tiếp và xử lý ( Forwading/ Processing Delay): Trễ xuất hiện do nguồn đẩy gói ra chậm so với tốc độ quy định. Loại trễ này phụ thuộc vào băng thông của kết nối cũng như kích thước gói được đẩy ra. 1.4.3 Trượt (Jitter) Jitter được định nghĩa là sự biến đổi trễ xuyên qua mạng trong quá trình truyền tin. Nguyên nhân chính của Jitter là thời gian trễ của các gói tin khi được phân phát từ nơi gửi đến đích là khác nhau. Trong mạng chuyển mạch gói, với các thành phần có trễ biến đổi thì hiện tượng Jitter luôn xảy ra. Bởi 25 vậy một vấn đề cần đặt ra là làm sao cho ảnh hưởng của Jitter không đủ để làm suy giảm chất lượng dịch vụ. 1.4.4 Mất gói (Loss Packet) Tỉ lệ mất gói chỉ ra số lượng gói bị mất trong mạng trong suốt quá trình truyền dẫn. Mất gói do hai nguyên nhân chính: gói bị loại bỏ khi mạng bị tắc nghẽn nghiêm trọng hoặc gói bị mất khi đường kết nối bị lỗi. Loại bỏ gói có thể xảy ra tại các điểm tắc nghẽn do kỹ thuật QoS khi số lượng gói đến vượt quá kích thước hàng đợi tại đầu ra. Kết luận: QoS có thể giúp giải quyết một số vấn đề như: mất gói, jitter, và xử lý trễ. Nhưng một số vấn đề mà QoS không thể giải quyết được như là trễ lan truyền, trễ do mã hóa/ giải mã, trễ lấy mẫu và trễ do số hóa. Điều quan trọng là phải biết phần nào không thể thay đổi và phần nào có thể điều khiển được theo như bảng 1-2 (trích tài liệu: Tiêu chuẩn G.114 “One-way transmission time”). Trễ cố định Trễ thay đổi Trễ mã hóa G.729 (5 ms) 5 ms Trễ mã hóa G.729 (10 ms/frame) 20 ms Trễ đóng gói bao gồm trong trễ mã hóa Trễ xếp hàng trên trung kế 64 kbps 6 ms Trễ chuyển nối tiếp trên trung kế 64 kbps 3 ms Trễ truyền lan (trên các dây riêng) 32 ms Trễ mạng (Vd Frame Relay) Đệm loại bỏ Jitter 2-200ms Tổng cộng – Giả sử Jitter Buffer 50 ms 110 ms Bảng 1-2 Thống kê các loại trễ từ đầu cuối đến đầu cuối Khuyến nghị G.114 của ITU-T cho rằng trễ từ đầu cuối đến đầu cuối không vượt quá 150ms là duy trì được chất lượng thoại tốt. 26 CHƯƠNG 2 CHẤT LƯỢNG DỊCH VỤ (QoS) Một trong những vấn cần giải quyết trong mạng NGN là tránh sự va chạm giữa các dịch vụ và đảm bảo chất lượng dịch vụ của chúng ở mức người dùng có thể chấp nhận được. Điều này khó có thể đảm bảo nếu mạng không áp dụng các kỹ thuật QoS. Thuật ngữ “kỹ thuật QoS” được tác giả đề cập đến xuyên suốt luận văn và được hiểu là kỹ thuật đảm bảo QoS cho phép mạng có thể ước lượng và dự đoán từng thay đổi của dịch vụ về các ứng dụng, lưu lượng và sử dụng nó để nâng cao các tính năng như điều khiển nguồn tài nguyên, dự trữ băng thông và đáp ứng các yêu cầu đặc biệt. Ngoài ra QoS còn góp phần nâng cao độ an toàn và tin cậy trong mạng và có thể mở rộng các dịch vụ trong tương lai. Trong chương này tác giả giới thiệu khái niệm QoS, các kỹ thuật QoS và ứng dụng. Ngoài ra các giao thức báo hiệu trong QoS cũng được phân tích trong chương này. 2.1 Khái niệm Chất lượng dịch vụ (QoS) là một thuật ngữ được sử dụng rộng rãi trong nhiều lĩnh vực khác nhau. Hiểu một cách đơn giản QoS là các cơ chế, công cụ đảm bảo cho các mức dịch vụ khác nhau thỏa mãn các tiêu chuẩn về băng thông và thời gian trễ cần thiết cho một ứng dụng đặc biệt nào đó. Có nhiều công cụ cho phép chúng ta thực hiện QoS. Trong một vài trường hợp chúng ta có thể không dùng đến công cụ nào mà vẫn đạt được QoS. 2.2 Các kỹ thuật QoS (hay còn gọi là các mô hình dịch vụ QoS) Một mô hình dịch vụ còn được gọi là một mức dịch vụ mô tả khả năng thiết lập từ đầu cuối đến đầu cuối của QoS, đầu cuối đến đầu cuối QoS là khả năng của mạng có thể phục vụ các yêu cầu đặc biệt tới mạng khác. Kỹ thuật QoS cung cấp 3 kiểu mô hình dịch vụ là: Best effort, Integrated và Differentiated services. 27 Chúng ta cần quan tâm đến những dữ kiện sau khi xác định kỹ thuật QoS sẽ được triển khai trong mạng: ƒ Các ứng dụng hoặc vấn đề bạn đang cố gắng giải quyết. ƒ Những khả năng bạn muốn cho phân chia tài nguyên. ƒ Phân tích những lợi ích về giá, Vd giá thành cần thiết cho các phương tiện và triển khai dịch vụ Differentiated services chắc chắn là đắt hơn rất nhiều so với dịch vụ Best effort. Các kỹ thuật Qos được mô tả trong hình 2.1 Hình 2.1 Các kỹ thuật QoS trong mạng IP Không phải tất cả các công nghệ QoS đều phù hợp cho tất cả các mạng định tuyến. Bởi vì định tuyến cho các nhánh và đường trục trong một mạng không cần thiết thực hiện giống nhau. QoS có thể thực hiện tốt các nhiệm vụ khác nhau. Vd cấu hình lưu lượng thoại thời gian thực cho một mạng IP bạn cần cân nhắc các chức năng định tuyến của cả đường trục và đường nhánh trong mạng, sau đó lựa chọn các tính chất QoS cho phù hợp. 28 2.2.1 Dịch vụ cố gắng tối đa (Best Effort) Best Effort là một mô hình dịch vụ đơn và phổ biến trên mạng Internet hay mạng IP nói chung, cho phép ứng dụng gửi dữ liệu bất cứ khi nào với bất cứ khối lượng nào nó có thể thực hiện và không đòi hỏi sự cho phép hoặc thông tin cơ sở mạng, nghĩa là mạng phân phối dữ liệu nếu nó có thể mà không cần sự đảm bảo về độ tin cậy, độ trễ hoặc khả năng thông mạng. QoS đặc tả dịch vụ Best Effort là xếp hàng đợi: firt - in, firt – out (FIFO). Dịch vụ Best Effort rất phù hợp cho những ứng dụng của mạng dải rộng như truyền file hoặc email. Cho đến thời điểm này đa phần các dịch vụ được cung cấp bởi mạng Internet vẫn sử dụng mô hình dịch vụ này. 2.2.2 Dịch vụ tích hợp (Integrated Service) Đứng trước nhu cầu ngày càng tăng trong việc cung cấp dịch vụ thời gian thực (Thoại, Video,...) và băng thông cao (đa phương tiện), dịch vụ tích hợp IntServ đã ra đời (xem hình 2.2). Đây là sự phát triển của mạng IP nhằm đồng thời cung cấp dịch vụ truyền thống Best Effort và các dịch vụ thời gian thực. Sau đây là những động lực thúc đẩy sự ra đời của mô hình này: ƒ Dịch vụ cố gắng tối đa không còn đủ đáp ứng nữa: ngày càng có nhiều ứng dụng khác nhau, các yêu cầu khác nhau về đặc tính lưu lượng được triển khai, đồng thời người sử dụng cũng yêu cầu chất lượng dịch vụ ngày càng cao hơn. ƒ Các ứng dụng đa phương tiện ngày càng xuất hiện nhiều: mạng IP phải có khả năng hỗ trợ không chỉ đơn dịch vụ mà còn hỗ trợ đa dịch vụ của nhiều loại lưu lượng khác nhau từ thoại, số liệu đến video. ƒ Tối ưu hóa hiệu suất sử dụng mạng và tài nguyên mạng: đảm bảo hiệu quả sử dụng và đầu tư. Tài nguyên mạng sẽ được dự trữ cho lưu lượng có độ ưu tiên cao hơn. 29 ƒ Cung cấp dịch vụ tốt nhất: mô hình IntServ cho phép nhà cung cấp mạng tung ra những dịch vụ tốt nhất, khác biệt với các đối thủ cạnh tranh khác. Appl Classifier Setup Sheduler Setup Classifier Các giao thức định tuyến / Database Sheduler Điều khiển chấp nhận/cưỡng bức Các bản tin Setup đặt trước Data IP Data Hình 2.2 Mô hình dịch vụ IntServ Một số thành phần trong mô hình 2.2 như: ƒ Giao thức thiết lập Setup: cho phép các máy chủ và các router dự trữ động tài nguyên mạng để xử lý các yêu cầu của các luồng lưu lượng riêng. RSVP (Resource Reservation Protocol), Q2391 là một trong những giao thức đó. ƒ Đặc tính luồng: xác định chất lượng dịch vụ QoS sẽ cung cấp cho các luồng xác định, luồng ở đây được định nghĩa như một luồng các gói từ nguồn đến đích có cùng yêu cầu về QoS như băng tần tối thiểu mà mạng bắt buộc phải cung cấp để đảm bảo QoS cho các luồng yêu cầu. ƒ Điều khiển lưu lượng: Trong các thiết bị mạng (máy chủ, router, chuyển mạch) có thành phần điều khiển và quản lý tài nguyên mạng cần thiết để hỗ trợ QoS theo yêu cầu. Các thành phần điều khiển lưu lượng này có thể được khai báo bởi giao thức báo hiệu RSVP hay nhân công. Thành phần điều khiển lưu lượng bao gồm: 30 • Điều khiển chấp nhận: Xác định các thiết bị mạng có khả năng hỗ trợ QoS theo yêu cầu hay không. • Thiết bị phân lớp (Classifier): Nhận dạng và chọn lựa lớp dịch vụ trên nội dung của một số trường nhất định trong mào đầu gói. • Thiết bị lập lịch và phân phối (Scheduler): Cung cấp các mức chất lượng dịch vụ (QoS) ở kênh đầu ra của thiết bị. Các mức QoS cung cấp bởi IntServ gồm: ƒ Dịch vụ Best Effort ƒ Dịch vụ đảm bảo GS (Guaranteed Service) ƒ Dịch vụ kiểm soát tải CL (Controlled Load) Sau đây chúng ta sẽ phân tích các dịch vụ được cung cấp bởi IntServ. 2.2.2.1 Dịch vụ đảm bảo GS (Guaranteed Service) GS cung cấp các dịch vụ chất lượng cao như: Dành riêng băng thông, giới hạn độ trễ tối đa và không bị mất gói tin trong hàng đợi. Các ứng dụng có thể kể đến: Hội nghị truyền hình chất lượng cao, thanh toán tài chính thời gian thực,.... 2.2.2.2 Dịch vụ kiểm soát tải CL (Controlled Load) CL không đảm bảo về băng tần hay trễ, nhưng khác với Best Effort ở điểm không giảm chất lượng một cách đáng kể khi tải mạng tăng lên. Dịch vụ này phù hợp cho các ứng dụng không nhạy cảm lắm với độ trễ hay mất gói như truyền hình multicast audio/video chất lượng trung bình. 2.2.2.3 Kết luận Mô hình dịch IntServ có thể sử dụng giao thức báo hiệu RSVP cung cấp nhiều loại hình dịch vụ khác nhau: Guaranteed Rate Service loại hình này cho phép dành sẵn độ rông băng thông để phù hợp với những yêu cầu của chúng, Vd ứng dụng VoIP có thể dành 32 Mbps từ đầu cuối đến đầu cuối sử dụng loại hình dịch vụ này. QoS sử dụng 31 xếp hàng cân bằng trọng số (WFQ) kết hợp với giao thức dành sẵn tài nguyên (RSVP) để cung cấp loại hình dịch vụ này. Controlled Load Service, loại hình này cho phép các ứng dụng có độ trễ thấp và tốc độ lưu lượng cao thậm trí ngay cả khi tắc nghẽn. Vd các ứng dụng không nhạy cảm với thời gian thực như khi phát lại băng ghi âm cuộc hội thoại có thể sử dụng loại hình dịch vụ này. QoS sử dụng RSVP kết hợp với Weighted Random early Detect (WRED) cung cấp loại hình dịch vụ này. 2.2.3 Mô hình Differentiated Service Việc đưa ra mô hình IntServ có vẻ như giải quyết được nhiều vấn đề liên quan đến QoS trong mạng IP. Tuy nhiên trong thực tế mô hình này đã không đảm bảo được QoS xuyên suốt (end to end). Đã có nhiều cố gắng nhằm thay đổi điều này nhằm đạt một mức QoS cao hơn cho mạng IP, và một trong những cố gắng đó là sự ra đời của DiffServ (xem hình 2.3). DiffServ sử dụng việc đánh dấu gói và xếp hàng theo loại để hỗ trợ dịch vụ ưu tiên qua mạng IP. Hiện tại IETF đã có một nhóm nghiên cứu DiffServ để đưa ra các khuyến cáo RFC về DiffServ. Nguyên tắc cơ bản của DiffServ như sau: ƒ Phân loại và đánh dấu các gói riêng biệt tại biên của mạng vào các lớp dịch vụ. Việc phân loại có thể dựa trên nhiều cách thức như sửa dạng lưu lượng, loại bỏ gói tin, và cuối cùng là đánh dấu trường DS (DiffServ) trong mào đầu gói tin để chỉ thị lớp dịch vụ cho gói tin. ƒ Điều chỉnh lưu lượng này tại biên mạng. DS là mô hình có sự phân biệt dịch vụ trong mạng có nhiều ứng dụng khác nhau, bao gồm cả lưu lượng thời gian thực có thể được đáp ứng mức dịch vụ của chúng trong khi vẫn có khả năng mở rộng các hoạt động trong mạng IP lớn. Khả năng mở rộng có thể đạt được bằng: • Chia nhỏ lưu lượng ra thành nhiều lớp khác nhau. 32 • Ánh xạ nhiều ứng dụng vào trong các lớp dịch vụ này trên biên mạng. Chức năng ánh xạ này đựơc gọi là phân loại (classification) và điều hoà (conditioning) lưu lượng. ƒ Cung cấp các xử lý cố định cho mỗi lớp dịch vụ tại mỗi hop (được gọi là Per-hop behavior - PHB) tương ứng với các yêu cầu QoS của nó). PHB bao gồm hàng đợi, phân lịch, và các cơ chế loại bỏ gói tin. Hình 2.3 Sơ đồ khối kiến trúc DiffServ 2.2.3.1 Trường DS của DiffServ Trường DS là trường được quá trình điều hoà và phân loại lưu lượng sử dụng tại biên mạng để mã hoá giá trị DSCP. Giá trị này được các router DiffServ sử dụng tại mỗi hop để lựa chọn PHB thích hợp cho mỗi gói tin. DSCP là giá trị 6 bit, được mang trong trường ToS của mào đầu gói tin. Với 6 bit có thể tạo ra đến 64 lớp dịch vụ. Tuy nhiên, trong thực tế chỉ có một số lớp dịch vụ được triển khai. Giá trị IP Precedence (đạt được từ 3 bit có trọng số lớn nhất trong trường ToS) có thể được ánh xạ đến trường DSCP, vừa vặn với các bit trong trường này. Tập hợp các gói tin có cùng giá trị DSCP, và di chuyển qua mạng theo cùng một hướng được gọi là tập hợp hành vi (Behavior Aggregate - BA). PHB sẽ thực hiện các chức năng của nó (hàng đợi, phân lịch, đánh rớt) cho bất kì gói tin nào thuộc về một BA 2.2.3.2 Per-hop Behavior trong Diff Serv Có 4 PHB quan trọng trong khi triển khai DiffServ là: Default PHB (PHB 33 mặc định), Class – selector PHB (PHB lựa chọn theo lớp), Expedited Forwaring PHB (PHB chuyển tiếp ưu tiên nhất – EF PHB), Assured forwarding PHB (PHB chuyển tiếp được đảm bảo – AF PHB). PHB không đưa ra các cơ chế thực thi cụ thể cho gói tin. Để miêu tả cho một PHB cụ thể, nhà quản trị mạng kích hoạt, điều chỉnh, và kết hợp các cơ chế phân lịch gói tin thích hợp cũng như kích hoạt các cơ chế quản lý hàng đợi (như Priority Queueing, Class-based Weight Fair Queue) hay các cơ chế tránh tắc nghẽn như (WRED, CAR,...) được các router Diff-serv hỗ trợ. ƒ Default PHB: Mặc định PHB tương ứng với tiến trình chuyển tiếp gói tin best-effort, nó là mặc định trên tất cả các router. Nó chỉ đơn giản phân phối càng nhiều gói tin càng tốt. PHB này không có sự cam kết về chất lượng dịch vụ cho gói tin. Các gói tin được ánh xạ đến PHB này sẽ có giá trị DSCP là 0. ƒ Class – selector PHB: Trong một vài triển khai IP QoS, giá trị IP Precedence thường được sử dụng vì tính đơn giản và dễ sử dụng của nó. Do đó, để cho tương thích với các giá trị Precedence, các giá trị DSCP được định nghĩa dưới dạng xxx000 (trong đó x có thể là 0 hay 1). Các giá trị đó được gọi là class – selector codepoint. Giá trị mặc định là 0. PHB kết hợp với một class – selector codepoint được gọi là Class – selector PHB. Các PHB này sẽ có cùng kiểu chuyển tiếp như các node sử dụng giá trị IP Precedence. Ví dụ, các gói tin có giá trị DSCP là 101000 (IP Precedence là 101) sẽ có độ ưu tiên chuyển tiếp lớn hơn các gói tin có giá trị DSCP là 011000 (IP Precedence 011). ƒ EF PHB: PHB chuyển phát nhanh EF PHB là PHB đáp ứng cho gói tin các dịch vụ có việc mất gói tin thấp (low - loss), độ trễ thấp (low - delay), độ jitter thấp (low - jitter). EF PHB đảm bảo rằng lưu lượng của nó được phục vụ ở tốc độ ít nhất là bằng với tốc độ dịch vụ cam kết. 34 Các ứng dụng như VoIP, video, thương mại điện tử được sử dụng PHB này. Bất kì lưu lượng nào vượt qúa hợp đông lưu lượng sẽ bị huỷ bỏ. Giá trị DSCP (xem hình 2.4) cho EF là 101110. ƒ AF PHB: PHB chuyển phát đảm bảo Đây là công cụ được sử dụng để đưa ra các mức dịch vụ đảm bảo chuyển tiếp cho gói tin của người dùng. Có tất cả 4 lớp AF. Trong mỗi lớp AF, một gói tin được đăng kí một trong 3 mức ưu tiên đánh rớt, tức là gói tin có 3 giá trị ưu tiên đánh rớt khác nhau trong cùng một lớp dịch vụ. Mỗi PHB sẽ tương đương với một lớp khác nhau và được gọi là AFij, trong đó i là lớp AF, và j là độ ưu tiên đánh rớt. Mỗi lớp AF được chỉ định với số lượng nguồn tài nguyên nhất định phụ thuộc vào hợp đồng mức dịch vụ SLA (Service Level Agreement) của khách hàng, gồm có băng thông và không gian bộ đệm. Việc chuyển tiếp được thực hiện độc lập dọc mỗi lớp AF. Class Drop Precedence 011101 DSCP EF CU 0yyxxx DSCP AFxy CU Hình 2.4 Mô tả cấu trúc bit trong trường DSCP Vì có 4 lớp nên các lớp có thể là AF1y, AF2y, AF3y, AF4y. Trong mỗi lớp Afx, có đến 3 giá trị ưu tiên đánh rớt. Nếu có nghẽn xảy ra trong mạng Diff-serv trên một kết nối nào đó, các gói tin thuộc về lớp AF nào đó sẽ bị đánh rớt. Độ ưu tiên đánh rớt của các gói tin là như sau: dp(AFx1)<=dp(AFx2)<=dp(AFx3)<=dp(AFx4), trong đó dp(AFxy) là xác suất mà các gói tin của lớp Afxy bị đánh rớt. 35 Ví dụ, AF23 sẽ bị đánh rớt trước AF22, AF22 sẽ bị đánh rớt trước AF21. Lớp AFx có thể được biểu diễn bằng giá trị DSCP xyzab0, trong đó xyz là 001, 010, 011, 100 và ab là bit ưu tiên đánh rớt. Bảng 2-1 là giá trị của IP Precedence và DSCP trong các PHB DSCP in Binary DSCP in Decimal Precedence PHB 000000 0 0 Default 001000 8 1 CS1 001010 10 1 AF11 001100 12 1 AF12 001110 14 1 AF13 010000 16 2 CS2 010010 18 2 AF21 010100 20 2 AF22 010110 22 2 AF23 011000 24 3 CS3 011010 26 3 AF31 011100 28 3 AF32 011110 30 3 AF33 100000 32 4 CS4 100010 34 4 AF41 100100 36 4 AF42 100110 38 4 AF43 101000 40 5 CS5 101110 46 5 EF 110000 48 6 CS6 111000 56 7 CS7 Bảng 2-1 Giá trị IP Precedence và DSCP trong các PHB 36 2.2.3.3 Các cơ chế DiffServ Hai chức năng này được thực hiện tại biên mạng giữa khách hàng và nhà cung cấp dịch vụ hoặc giữa hai mạng nhà cung cấp dịch vụ với nhau. Nó được áp đặt trên mỗi gói tin đi vào và dùng nhận diện lưu lượng với nhiều dịch vụ khác nhau (phân loại), sau đó áp đặt giá trị DS (DiffServ) cho mỗi lưu lượng đó (điều hoà). Rõ ràng, chính sách phân loại và điều hoà lưu lượng đáp ứng yêu cầu của khách hàng các các lớp dịch vụ do nhà cung cấp đưa ra. Hình 2.5 mô tả sơ đồ khối cơ chế phân loại và điều hòa lưu lượng. Hình 2.5 Sơ đồ cơ chế phân loại và điều hoà đến lưu lượng Cơ chế phân loại gói: Việc phân loại có thể dựa trên trường DS, có thể dựa trên các giao thức được vận chuyển như SMTP, HTTP, hoặc là địa chỉ nguồn và đích. Phân loại lưu lượng được sử dụng để chuyển tiếp gói tin đến trạng thái điều hoà lưu lượng thích hợp. Bộ phân loại hoạt động ở hai chế độ: ƒ Bộ phân loại tổng hợp hành vi (BA) phân loại các gói tin chỉ dựa trên giá trị DSCP. ƒ Bộ phân loại đa trường (multifield) phân loại các gói tin bởi nhiều trường trong gói, như là địa chỉ, số cổng,…. Cơ chế điều hòa lưu lượng: Điều hoà lưu lượng bao gồm các thành phần sau : hoạt động đo, hoạt động đánh dấu, hoạt động sửa dạng, và hoạt động đánh rớt gói tin. 37 ƒ Hoạt động đo (meter): Sau khi gói tin được phân loại, meter sẽ đo tốc độ luồng lưu lượng. ƒ Hoạt động đánh dấu thiết lập trường DS của mào đầu gói tin dựa vào kết quả có được từ bộ đo. ƒ Hoạt động sửa dạng sẽ làm trễ vài gói tin trong luồng dữ liệu được phân loại, định hướng lưu lượng trước khi đi vào miền DiffServ. ƒ Hoạt động đánh rớt sẽ đánh rớt gói tin trong luồng dữ liệu đó (ví dụ các gói tin vượt quá profile được nhận diện trong bộ đo), tiến trình này được gọi là policing. Nghĩa là các gói tin được đưa đến bộ điều hoà lưu lượng có thể là in-profile hoặc là out-of-profile. Các gói in-profile là các gói tuân thủ theo hợp đồng mức dịch vụ giữa khách hàng và nhà cung cấp. Các gói out-of-profile nằm bên ngoài hợp đồng SLA, hoặc do hành vi mạng mà các gói này đến bộ điều hoà, tại đây bộ điều hoà sẽ có những xử lý thích hợp. 2.2.3.4 Ưu nhược điểm của mô hình DiffServ Với nguyên tắc này, Diffserv có nhiều lợi thế hơn so với IntServ: ƒ Không yêu cầu báo hiệu cho từng luồng. ƒ Dịch vụ ưu tiên có thể áp dụng cho một số luồng riêng biệt cùng một lớp dịch vụ. Điều này cho phép nhà cung cấp dịch vụ dễ dàng phân phối một số mức dịch vụ khác nhau cho khách hàng cho nhu cầu. ƒ Không yêu cầu thay đổi tại các máy chủ hay các ứng dụng để hỗ trợ dịch vụ ưu tiên. Đây là nhiệm vụ của thiết bị biên. ƒ Hỗ trợ rất tốt dịch vụ VPN (Virtual Private Network). Tuy nhiên có thể nhận thấy DiffServ cần vượt qua một số vấn đề như: ƒ Không có khả năng cung cấp băng tần và độ trễ đảm bảo như GS của IntServ hay ATM (Asynchronous Transfer Mode). 38 ƒ Thiết bị biên vẫn yêu cầu bộ Classifier chất lượng cao cho từng gói giống như trong mô hình IntServ. ƒ Vấn đề quản lý trạng thái Classifier của một số lượng lớn các thiết bị biên là một vấn đề không nhỏ cần quan tâm. ƒ Chính sách khuyến khích khách hàng trên cơ sở giá cước cho dịch vụ cung cấp cũng ảnh hưởng đến giá trị của DiffServ. 2.2.3.5 Kết luận về DiffServ Differentiated Service là một mô hình đa dịch vụ, chúng có thể làm thỏa mãn các yêu cầu QoS khác nhau. Dẫu sao nó không giống mô hình dịch vụ Integrated, một ứng dụng sử dụng mô hình dịch vụ Differentiated không cần xác định rõ ràng tín hiệu tới bộ định tuyến trước khi gửi dữ liệu. Bởi vì đối với dịch vụ Differentiated, mạng cố gắng phân loại dịch vụ dựa trên lý thuyết QoS cho mỗi gói tin. Đặc điểm kỹ thuật này có thể thực hiện bằng nhiều cách khác nhau, Vd sử dụng IP Precedence bit thiết lập trong gói IP hoặc địa chỉ nguồn và đích, mạng sử dụng đặc điểm kỹ thuật QoS để phân loại, đánh dấu, sửa dạng và chính sách điều khiển lưu lượng nhằm xếp hàng đợi thông minh. Mô hình dịch vụ Differentiated được sử dụng dành cho những ứng dụng đặc biệt và để cung cấp đầu cuối tới đầu cuối QoS. Tiêu biểu cho loại hình dịch vụ này phù hợp cho việc tập trung lưu lượng, bởi vì nó thực hiện việc phân loại lưu lượng ở cấp độ thô. QoS cung cấp các mô hình dịch vụ Differentiated sau: ƒ Committed access rate (CAR), loại hình này thực hiện phân loại gói thông qua IP Precedence và thiết lập nhóm QoS. CAR thực hiện đo và điều khiển lưu lượng, quản lý độ rộng băng thông. ƒ Xếp hàng đợi thông minh như WRED và WFQ và những đặc tính tương đương dựa trên bộ xử lý giao diện đa năng – Versatile Interface 39 Processor (VIP) gọi là VIP – Distributed WRED và VIP – Distributed WFQ. Những đặc điểm này có thể được sử dụng với CAR để phân phối các dịch vụ Differentiated. 2.2.4 So sánh hai mô hình kiến trúc QoS chính ƒ Integrated Services (IntServ) ƒ Differentiated Serviecs (DiffServ) Vậy giữa chúng có những đặc điểm gì khác nhau. Bảng 2-2 So sánh đặc điểm cơ bản của hai mô hình trên: DiffServ IntServ Có ít phần tử mạng Có nhiều phần tử mạng Tỉ lệ ứng dụng lớn, được các nhà cung cấp dịch vụ ngày nay ưu dùng Tỉ lệ ứng dụng nhỏ, phù hợp với một vài đặc tính mạng vd admission control Không có trạng thái bảo dưỡng trong mạng Trạng thái mềm dẻo bảo dưỡng ở bất kỳ nút mạng nào Không có điều khiển quản trị nguồn tài nguyên Điều khiển quản trị nguồn tài nguyên Không có điều khiển quản trị chính sách Điều khiển quản trị chính sách Bảng 2-2 So sánh đặc điểm cơ bản của hai mô hình QoS Trong tương lai để cung cấp một giải pháp đầy đủ đầu cuối tới đầu cuối cần có sự kết hợp cả 2 mô hình kiến trúc trên. 2.3 Các giao thức và cơ chế báo hiệu trong kỹ thuật QoS Bên cạnh các đặc tính về xử lý lưu lượng, báo hiệu cũng là một thành phần khá quan trọng của QoS. Cũng như các dạng báo hiệu khác, báo hiệu QoS là một dạng của mạng thông tin mà cho phép các phần tử nút mạng, các trạm đầu xa bắt tay nhau để thực hiện quá trình truyền dữ liệu. 40 Một mạng QoS end-to-end yêu cầu mỗi phần tử trong mạng, Router, Switch, Firewall, Host..., đóng vai trò như là một phần của QoS và tất cả các thành phần này được phối hợp liên kết bởi báo hiệu QoS. Có nhất nhiều giải pháp báo hiệu QoS được áp dụng trong mạng, tuy nhiên chúng thường bị giới hạn bởi phạm vi hoạt động của mạng. Đối với mạng ứng dụng trên nền IP đưa ra các tính năng cho phép ứng dụng báo hiệu QoS trên cơ sở của các mạng không đồng nhất. Đó là các giải pháp báo hiệu QoS lớp 2 của RSVP (Resource Reservation Protocol) và phương thức báo hiệu QoS IP lớp 3 dựa trên đặc tính về quyền ưu tiên IP. Tương ứng là cơ chế báo hiệu trong băng (IP precedence) và báo hiệu ngoài băng (RSVP). Báo hiệu IP Precedence phân biệt QoS, còn báo hiệu RSVP nhằm đảm bảo QoS. 2.3.1 Giao thức dành sẵn tài nguyên (Resource Reservation Protocol) RSVP là giao thức chuẩn cho phép cài đặt QoS đầu cuối đến đầu cuối trên một mạng hỗn hợp. RSVP chạy trên nền IP rất hữu hiệu trong dự trữ băng thông mạng. Sử dụng RSVP, các ứng dụng có thể yêu cầu mức QoS xác định cho một luồng dữ liệu vận chuyển qua mạng. Trên các nền ứng dụng của QoS, RSVP có thể được khởi tạo thông qua RSVP proxy. RSVP cũng chỉ là một giao thức báo hiệu tiêu chuẩn được thiết kế để đảm bảo băng thông từ đầu cuối này đến đầu cuối kia trong mạng IP. Nếu 1 node mạng không hỗ trợ RSVP thì RSVP sẽ di chuyển đến node kế tiếp. Một node mạng có tùy chọn là đồng ý hay từ chối sự dành riêng căn cứ vào tải của giao tiếp mà dịch vụ yêu cầu. RSVP không định tuyến chính nó và không hiệu chỉnh bảng định tuyến IP, thay vào đó nó sử dụng các giao thức định tuyến để xác định ở đâu cần gửi các yêu cầu dành riêng (reservation). 41 RSVP hoạt động trong mối liên kết với các cơ chế hàng đợi hiện thời. Chúng ta có thể sử dụng RSVP để điều khiển tải trọng và đảm bảo tốc độ dịch vụ. RSVP là một đặc tính quan trọng của QoS nhưng nó không giải quyết tất cả các vấn đề đưa ra bởi QoS, Vd như thời gian cần để thiết lập một sự đăng ký dành riêng từ đầu cuối đến đầu cuối, khả năng phát triển, điều khiển chấp nhận (admission). Các host và router phân phối các yêu cầu QoS tới các router trên suốt đường truyền dữ liệu và duy trì trạng thái cung cấp dịch vụ được yêu cầu từ trước, thông thường đó là băng thông và yếu tố trễ. RSVP sử dụng tốc độ truyền dữ liệu trung bình (mean data rate - lượng dữ liệu lớn nhất mà router có thể lưu trữ trong hàng đợi) và tối thiểu hóa QoS (đảm bảo lượng băng thông được yêu cầu) để xác định lượng băng thông dành riêng. Khi một Host dùng RSVP để yêu cầu một dịch vụ QoS nó sẽ gửi yêu cầu tới mạng trên một nửa của luồng truyền dữ liệu. Dịch vụ QoS được yêu cầu bởi RSVP, tuy nhiên nó để cho các cơ chế hàng đợi thực hiện sự dành riêng đó. RSVP chuyên trở yêu cầu xuyên xuốt tất cả các nút trong mạng ở trên đường truyền dữ liệu. Tại đó yêu cầu dự trữ tài nghuyên cho luồng dữ liệu thông qua module điều khiển truy nhập của chính node đó. Chú ý rằng với RSVP, một ứng dụng có thể được gửi với tốc độ lớn hơn yêu cầu đưa ra bởi QoS, tuy nhiên dịch vụ đó chỉ được đảm bảo tại tốc độ yêu cầu tối thiểu. Nếu băng thông khả dụng lưu lượng sẽ được truyền đi với tốc độ lớn hơn tốc độ yêu cầu, còn nếu như không đủ toàn bộ phần lưu lượng vượt quá sẽ bị rớt. 42 2.3.2 Mô hình RSVP end-to-end. Nếu end-to-end được thiết kế trong mạng, tất cả thiết bị trong đường dẫn đặt trước phải enable RSVP. Khi thiết bị nhận được bản tin RSVP, nó xác định xem có đủ tài nguyên cho yêu cầu đặt trước ở mức nội tại. Một mạng từ đầu cuối đến đầu cuối cài đặt RSVP được mô tả như hình vẽ 2.6 Hình 2.6 Mô hình mạng đầu cuối đến đầu cuối với RSVP Hai bản tin chính được dùng cho bản tin báo hiệu RSVP. Khi cần thiết một sự đặt trước, client gửi bản tin đường dẫn RSVP PATH trong mạng yêu cầu một băng thông xác định nào đó tới đích. Mục đích của bản tin PATH là khám phát tất cả RSVP-enable trên các router. Khi phía thu end-node nhận bản tin PATH, nó sẽ xác định lại sự đặt trước bằng cách reply với bản tin RSVP RESV. Bản tin RESV chuyển tiếp ngược về phía phát. Nếu bản tin RESV đến phía phát thành công , mỗi hop trong kết nối end-to-end dành trước tài nguyên và băng thông đặt trước được thiết lập end-to-end. Nếu nguồn tài nguyên không có khả năng đáp ứng thì sự đặt trước bị từ chối. Khi một phần của mạng không hỗ trợ RSVP, có nghĩa là khi bản tin RSVP không được xử lý bởi tất cả các hop ở giữa 2 ứng dụng endpoints, một vài cơ chế khác có thể được áp dụng để cố gắng đạt được yêu cầu của ứng dụng trong non-RSVP network được gọi là pass-through RSVP. Mạng từ đầu cuối đến đầu cuối pass-through RSVP được mô tả như hình 2.7 43 Hình 2.7 Mô hình mạng đầu cuối đến đầu cuối non-RSVP Pass-through RSVP chỉ thực thi phân phát best-effort giữa 2 phần mạng RSVP-enable. Một ứng dụng khác là áp dụng CoS để phân phát các gói trên phần mạng non-RSVP-enable. Trong trường hợp này, lưu lượng ứng dụng RSVP được đánh dấu với các bộ đánh dấu lớp như IP Precedence hoặc bit DSCP ở trên thực thể non-RSVP. Sự đánh dấu gói của IP Precedence và DSCP dựa vào byte ToS trong IP header, nó sẽ nhận dạng các lớp lưu lượng trên mỗi hop. IP precedence và DSCP luôn được cấu hình ở phần biên của mạng, ở đó lưu lượng được đánh dấu và phân lớp. RSVP được áp dụng cho các ứng dụng trong đó băng thông và trễ quan hệ đảm bảo với nhau là cần thiết. Các ứng dụng là VoIP, netmeeting, MPLS traffic Engineering,.... 44 CHƯƠNG 3 PHÂN LOẠI, PHÂN MẢNH VÀ NÉN GÓI DỮ LIỆU TRONG KỸ THUẬT QoS Phân loại gói là cơ sở để từ đó ta xây dụng các ứng dụng kỹ thuật QoS khác nhau. Tuy nhiên không phải lúc nào các gói dữ liệu đến cũng có kích thước phù hợp, vì vậy trước khi phân loại, các gói có kích thước lớn sẽ được phân mảnh thành các gói nhỏ hơn có kích thước phù hợp. Song song với việc phân loại và phân mảnh gói, cơ chế nén gói dữ liệu cũng được đề cập đến trong chương này. Có thể nói phân loại góp giúp chúng ta có thể áp dụng các kỹ thuật QoS, thì phân mảnh và nén dữ liệu rất hữu ích trong việc giảm trễ chuyển tiếp và xử lý, trễ mạng cũng như các hiện tượng trượt phát sinh bởi trễ. 3.1 Phân loại gói dữ liệu Dựa trên các đặc tính của lưu lượng được truyền tải, thực hiện phân loại các gói tin thành các nhóm riêng biệt mà có thể áp dụng các kỹ thuật QoS. Bằng việc phân loại gói, ta có thể phân chia lưu lượng truyền tải thành nhiều mức ưu tiên khác nhau hay nhiều lớp dịch vụ khác nhau. Các phương thức phân loại gói trước đây bị giới hạn bởi số bít trong trường tiêu đề (header). Trong các phương thức gần đây đánh dấu gói kết hợp với phân loại gói cho phép ta có thể thiết lập giá trị trên các tiêu đề tại các lớp 2,3 hoặc có thể thiết lập trên tải trọng của gói. Các router tại biên của mạng sử dụng chức năng phân loại gói để nhận dạng các gói thuộc về lớp lưu lượng nào trên mạng tuỳ theo một hoặc nhiều trường trong tiêu đề gói IP. Sau đó chức năng đánh dấu được sử dụng để đánh dấu gói đó bằng cách thiết lập các bit trong trường IP Precedence hoặc trường DSCP (Differentiated Service Code Point). 45 3.1.1 Quyền ưu tiên IP Trong mạng IP các gói được lưu chuyển từ nguồn đến đích với mức ưu tiên khác nhau. Để xác định IP Prececdence cho các gói tin người ta sử dụng 3 bits ToS, được mô tả như hình vẽ 3.1 Hình 3.1 Mô tả trường ToS trong gói IP Trên cơ sở đó thiết lập các lớp dịch vụ khác nhau cho các gói tin. Với các lớp dịch vụ tùy theo các yêu cầu cụ thể mà thực hiện các phương pháp cấu hình tính năng QoS khác nhau để quản lý tắc nghẽn hay phân phối băng thông. Chú ý rằng IP Precedence không phải là phương thức hàng đợi tuy nhiên các phương thức hàng đợi như WFQ (Weighted Fair Queuing) hay WRED (Weighted random early Drop/Detect) có thể sử dụng IP Precedence để thiết lập thứ tự ưu tiên cho các gói IP. Bên cạnh đó thông qua việc thiết lập các mức ưu tiên cho các lưu lượng dữ liệu đầu vào và tổ hợp với các đặc tính hàng đợi QoS để tạo ra các dịch vụ khác nhau. Chúng ta cũng có thể sử dụng các đặc tính như định tuyến chính sách (PBR - Policy-based routing) và tốc độ truy cập cam kết (CAR - Committed Access Rate), để đặt thứ tự ưu tiên dựa trên mở rộng phân loại danh sách truy nhập. Ví dụ như chúng ta có thể gán thứ tự ưu tiên dựa trên ứng dụng của người sử dùng hay mạng nguồn và mạng đích. 46 Như đã nói ở trên việc gán thứ tự ưu tiên cho các gói thông qua tổ hợp 3 bits ToS trong địa chỉ mào đầu IP để tạo ra các lớp dịch vụ khác nhau. Về lý thuyết với 3 bits ToS có thể phân chia thành 8 loại CoS khác nhau. Tuy nhiên chỉ phân 6 lớp dịch vụ tương ứng với 6 giá trị ToS, 2 giá trị còn lại được dành cho sử dụng trong thông tin nội bộ mạng. Giá trị IP Precedence tương ứng với 3 bits ToS được quy định trong bảng 3-1 IP precedence value IP precedence name 0 Routine 1 Priority 2 Immediate 3 Flash 4 Flash-override 5 Critical 6 Internet 7 Network Bảng 3-1 Giá trị IP Precedence tương ứng với 3 bits ToS Trong chế độ mặc định các phần mềm thường không thiết lập các gía trị của IP Precedence. Như vậy để có thể sử dụng các phần tử mạng cần thực hiện gán giá trị IP Precedence trong trường tiêu đề (header). Chú ý rằng các gói đến từ các mạng khác có thể đã được gán giá trị ưu tiên do đó nên thực hiện thiết lập lại giá trị ưu tiên cho tất cả các gói được gửi tới. Bằng cách điều khiển giá trị IP Precedence chúng ta có thể ngăn chặn các người dùng không mong muốn hay lựa chọn các dịch vụ thích hợp hơn. 3.1.2 Định tuyến chính sách (PBR) 47 PBR (Policy-based routing) cung cấp cơ chế định tuyến linh hoạt cho việc định tuyến các gói tin dựa trên chính sách định tuyến cho các luồng lưu lượng. PBR làm tăng khả năng điều khiển định tuyến bằng cách mở rộng hay bổ sung các đặc tính của các giao thức định tuyến. Bên cạnh đó PBR cho phép thiết lập các giá trị IP Precedence, ưu tiên cho loại dữ liệu nào đó trên tuyến dành riêng. 3.1.2.1 Đặc điểm của PBR Chúng ta có thể sử dụng PBR như một phương án định tuyến. Ví dụ như chúng ta có thể cho phép hay từ chối các luồng dữ liệu dựa trên cơ sở nhận dạng một dạng đặc biệt của điểm kết cuối, một giao thức ứng dụng hay dựa trên cơ sở kích cỡ của các gói tin. Nói chung PBR cung cấp các đặc tính sau: ƒ Phân loại lưu lượng dựa trên cơ sở mở rộng danh sách truy nhập (ACL – Access List), sau đó các ACL thiết lập tiêu chuẩn thích hợp. ƒ Thiết lập giá trị IP Precedence, trên cơ sở đó thành lập các lớp dịch vụ khác nhau trên mạng. ƒ Định tuyến các gói tin tới tuyến xác định. Định tuyến chính sách có thể dựa trên địa chỉ IP, các cổng (port), các giao thức hay kích cỡ của các gói tin. Đối với các bài toán định tuyến đơn giản ta có thể chỉ cần sử dụng một trong các đặc tính ở trên tuy nhiên với các phương án định tuyến phức tạp chúng ta cũng có thể sử dụng tất cả các đặc tính đó. 3.1.2.2 Nguyên tắc hoạt động Mỗi một PBR được xây dựng trên cơ sở thiết lập bảng định tuyến, các gói tin được chuyển đến trên một giao diện mà có sử dụng cơ chế PBR sẽ được chuyển tới bảng định tuyến từ đó xác định cơ chế chuyển tiếp đến đầu ra. Bảng định tuyến được xây dựng từ các trạng thái, các trạng thái này có thể 48 được xem như quyết định chấp nhận hay từ chối. Cụ thể chúng được quy định như sau: ƒ Nếu các gói tin không phù hợp với bất cứ kỳ trạng thái nào của bảng định tuyến thì tất cả các nguyên tắc định tuyến sẽ được áp dụng. ƒ Nếu trạng thái từ chối thì các gói tin sẽ được gửi trở lại và cơ chế định tuyến dựa trên cơ sở trạm đích (destination-based routting) sẽ được áp dụng. 3.2 Phân mảnh gói dữ liệu ( MLP - Multiling PPP) Đối với các lưu lượng mà có sự tương tác qua lại như Telnet và VoIP dễ làm tăng trễ khi mạng xử lý các gói có kích cỡ lớn như lưu chuyển các gói (FTP) LAN-to-LAN qua mạng WAN. Các gói bị trễ là rất đáng kể khi mà các gói có kích cỡ lớn này được cùng xếp hàng trong một hàng đợi sẽ dễ gây tắc nghẽn. Để giải quyết vấn đề này một phương thức phân mảnh được áp dụng nhằm chia chúng thành các gói có kích cơ nhỏ hơn sau đó mới được sắp xếp vào hàng đợi. 3.2.1 Các đặc tính phân mảnh dữ liệu Như đã biết tiêu chuẩn trễ cho phép truyền các gói thời gian thực đặc biệt là các gói thoại khoảng 150 – 200ms. Với các kỹ thuật truyền bản tin dựa trên nền IP khó có thể đáp ứng các dịch vụ thoại do các vấn đề giới hạn băng thông, đặc biệt là các yêu cầu khắt khe độ trễ thoại cho phép khoảng 150ms. ƒ Sự phân mảnh (LFI - Link Fragmentation and Interleaving) làm giảm thiểu thời gian trễ trên các liên kết tốc độ thấp bằng cách “chặt” các gói tin cỡ lớn sau đó chèn các gói tin đòi hỏi trễ nhỏ để truyền đi. ƒ LFI cung cấp công cụ cho phép, cắt, tổ hợp lại, sắp xếp bản tin thông qua nhiều liên kết dữ liệu logic. Các gói cỡ lớn được đóng gói đa liên kết và phân mảnh thành các gói có kích cỡ nhỏ hơn mà đủ thỏa mãn 49 các yêu cầu về trễ của lưu lượng có độ nhạy trễ. Các gói tin có độ nhạy trễ thấp sẽ không được đóng gói đa liên kết nhưng được chèn giữa các bản tin được phân mảnh. ƒ MLP (Multiling PPP) cho phép các gói phân mảnh được gửi tới cùng một trạm đầu xa tại cùng thời điểm thông qua nhiều liên kết điểm điểm. Tải trọng có thể được tính toán ở đầu vào, đầu ra hoặc cả hai để xác định lưu lượng giữa các trạm xác định. MLP có thể phân phối băng thông theo yêu cầu để giảm thiểu trễ truyền dẫn trên các liên kết WAN. 3.2.2 Nguyên lý hoạt động Nguyên lý hoạt động của LFI được mô tả trong hình 3.2 Hình 3.2 Nguyên lý hoạt động của LFI Lưu lượng đến giao diện bao gồm các gói IP voice và các gói cỡ lớn, Khi chuyển đến giao diện đầu vào các gói sẽ được sắp xếp vào hàng đợi dựa trên đặc tính phân loại của gói mỗi gói. Sau khi đã được xếp vào hàng đợi các gói lớn sẽ bị phân mảnh thành các gói nhỏ hơn và chuẩn bị xen kẽ với các gói thoại IP, các gói này sẽ được gửi đi theo lịch trình của cơ chế hàng đợi được cấu hình. Chú ý để đảm bảo đúng thứ tự của các gói tin khi được truyền và thiết lập 50 lại, LFI bổ sung các tiêu đề đa liên kết vào các gói phân mảnh và sắp xếp chúng vào hàng đợi để gửi đi. 3.3 Các giải thuật nén tải tin Cùng với việc phân loại, phân mảnh và chèn gói tin, QoS hỗ trợ 3 phương thức nén tải tin khác nhau được sử dụng trên nền giao thức lớp 2, nhằm giảm kích cỡ gói tin. Hiệu quả sử dụng của các giải thuật này cũng rất khác nhau tuy nhiên rất hiệu dụng trong việc tiết kiệm tài nguyên, đặc biệt hiệu quả trong việc sử dụng CPU cho router. Các giải thuật bao gồm: ƒ STAC hoặc Stacker (STAC Electronics hoặc Hi/fn, Inc.) ƒ MPPC (Microsoft Point – to – point Compression) ƒ Predictor (Public domain algorithm). 3.3.1 Nguyên tắc hoạt động Hai giải thuật STAC hay Stacker và MPPC được xây dựng dựa trên nền tảng giải thuật nén LZ (Lempel – Ziv). Giải thuật LZ (thỉnh thoảng còn được gọi là LZW) tìm kiếm trong byte truyền dữ liệu những chuỗi dư thừa và thay thế bằng các Token ngắn hơn (Các Token này được xây dựng từ trước và lập nên một thư viện). Thư viện này được xây dụng trong thời gian thực (real time), và không cần thiết thay đổi thư viện bởi vì thư viện này được xây dựng lại từ thu nhận dữ liệu trạm đầu xa. Cả hai giải thuật này cho kết quả nén rất tốt tuy nhiên chúng đòi hỏi tần suất CPU (Central Processing Unit) làm việc cao. Giải thuật Predictor dựa trên việc đoán trước thứ tự byte tiếp theo trong luồng dữ liệu thông qua thư viện đơn giản, thư viện này được xây dựng lại từ trạm gửi hoặc dữ liệu nén và không cần thay đổi trong mỗi chặng. Đây là một giải thuật đơn giản, rất nhanh và tần suất CPU làm việc không cao tuy nhiên tỉ lệ nén là tương đối thấp. 51 Quá trình thực hiện thuật toán nén được minh họa trong hình 3.3 FH cIPFH IP Hàng đợi Đầu raBộ chuyển tiếp Thuật toán nén CPU thực hiện thuật toán nén Kích thước các gói giảm, làm giảm thời gian truyền và nhiều gói có thể được truyền hơn Hình 3.3 Minh họa quá trình thực hiện thuật toán nén STAC, MPPC và Predictor là những thuật toán thường được sử dụng thực hiện nén tải tin tại lớp 2 trên các liên kết point – to – point giữa các Router. STAC và MPPC đòi hỏi tần suất hoạt động của CPU cao nhưng có hiệu quả nén lớn (trong đó Stacker cho phép khả năng điều chỉnh). Tuy nhiên hai giải thuật này thường phát sinh trễ nên hay được sử dụng trên các liên kết tốc độ thấp. Predictor được xem như là khá đơn giản nó có thể triển khai trên các liên kết tốc độ cao, trễ và tần suất sử dụng CPU thấp tuy nhiên đòi hỏi bộ nhớ lớn và hiệu quả nén là thấp hơn so với 2 thủ tục kia. Phạm vi sử dụng của các giải thuật được mô tả theo bảng 3-2 Giải thuật Công nghệ STAC Predictor MPPC Ghi chú PPP a∗ a a Frame Relay a∗ r r ∗ Cũng được cung cấp bởi các Module nén phần cứng. HDLC a r r LAPB a a r X.25 a r r Bảng 3-2 Phạm vi sử dụng của các giải thuật nén 52 3.3.2 Nén tiêu đề Tất các phương thức nén đều cùng chung một mục đích đó là hạn chế dư thừa khi gửi dữ liệu trên môi trường truyền dẫn. Các trường thông tin tiêu đề của các gói trong cùng một luồng không thay đổi nhiều trong suốt quá trình truyền, bởi vậy việc các thông tin này thực sự gây lãng phí băng thông. Như vậy một vấn đề đặt ra là cần nén tiêu đề này để hạn chế băng thông. Nén header là cách mà không truyền lặp lại thông tin tiêu đề của các gói trong suốt một phiên giao tiếp. Chú ý rằng nén tiêu đề thực hiện trên cơ sở liên kết link – by – link, và không thể thực hiện qua nhiều router, bởi vì các router cần đầy đủ thông tin trường tiêu đề lớp 3 để có thể định tuyến tới hop kế tiếp. Nén tiêu đề được thực hiện trên các giao tiếp ở các kết nối lớp truyền dẫn. Khi các gói tin được chuyển đến thuật toán nén tiêu đề sẽ nén tiêu đề lớp 3 và lớp 4 vào một khung và thay thế chúng bởi 1 session. các gói sẽ được gửi tới đầu ra hàng đợi và được truyền tới trạm đầu xa. Tại đầu xa quá trình giải nén được thực hiện và chuyển tiếp tới quá trình xử lý tiếp theo. Với việc nén tiêu đề các khung lớp 2 sẽ nhỏ đi từ đó thời gian truyền cũng giảm đi do đó giảm tổng trễ. Thuật toán nén tiêu đề dược minh họa như 3.4 Tải tincHFHTải tinL4 (L5)IPFH Hàng đợi Đầu raBộ chuyển tiếp Thuật toán nén tiêu đề Thuật toán nén tiêu đề giữ đường truyền không thay đổi Nén IP và các tiêu đề lớp cao hơn Hình 3.4 Minh họa thuật toán nén tiêu đề 53 Có 2 phương thức nén tiêu đề đó là: ƒ Nén tiêu đề TCP ƒ Nén tiêu đề RTP 3.3.2.1 Nén tiêu đề TCP Phần lớn các ứng dụng Internet sử dụng TCP như một giao thức truyền tải và đa phần các thông tin tiêu đề TCP là cố định hoặc có thể đoán trước được thông qua một phiên. Với việc nén TCP header (bao gồm IP 20 byte và TCP 20 byte header) có thể làm giảm tổng số cần truyền 40 byte còn 3-5 byte. Hiệu quả nén TCP minh họa theo như hình 3.5 Hình 3.5 Minh họa hiệu quả nén TCP Hiệu quả nén tiêu đề TCP được mô tả trong bảng 3-3 Kích cỡ gói IP Không nén tiêu đề Thời gian trễ (trên 64 kbps) Nén tiêu đề Thời gian trễ (trên 64 kbps) 10 82% 7 ms 50% 2 ms 50 48% 12 ms 17% 7 ms 100 32% 18 ms 9% 13 ms 500 8% 67 ms 2% 62 ms 1500 3% 189 ms 1% 184 ms Bảng 3-3 Hiệu quả nén tiêu đề TCP 3.3.2.2 Nén tiêu đề giao thức thời gian thực (RTP) Real-Time Protocol (RTP) là giao thức chuẩn internet được sử dụng truyền 54 tải các dữ liệu thời gian thực RTP. Nó cung cấp các chức năng mạng truyền dẫn đầu cuối đến đầu cuối phục vụ các ứng dụng như thoại, video hoặc dữ liệu mô phỏng thông qua dịch vụ mạng đơn nhóm (unicast) hay đa nhóm (multicast). RTP bao gồm 2 phần tải tin và tiêu đề (header). Phần tải tin của RTP là một giao thức nhỏ mà cung cấp khôi phục lại, phát hiện lỗi và nhận dạng nội dung. Phần tiêu đề của RTP là tương đối lớn, bao gồm IP header (IPH), User Datagram Protocol (UDP) header, tạo nên IP/UDP/RTP header. Để giảm thiểu lãng phí băng thông không cần thiết, nén RTP header là một biến pháp hữu hiệu để tiết kiệm tài nguyên. cRTP nén IP/UDP/RTP header trong gói tin RTP từ 40 bytes xuống còn xấp xỉ 2 - 5 byte. việc giải nén có thể khôi phục lại trường tiêu đề mà không gây mất mát thông tin. Cơ chế nén RTP được mô tả như hình vẽ 3.6 VOIP Các gói Tin đến Hàng Đợi Tx Các gói tin ra Hàng đợi được cấu hình Nén RTP RTP các lưu lượng (video, Audio,...) Không nén RTP Nhận dạng lưu lượng RTP Nén IPHUDP IP DataRTP 12 8 12 IP Data 5 20 bytes ~ 240% ~ 13% ~ 2.3% 256 bytes 1500 bytes SQL FPT Hiệu quả Tải tin Kích thước gói giảm * * ~ giảm 5ms đối với giao diện 64kbps Phân lớp Hình 3.6 Cơ chế nén tiêu đề RTP 55 cRTP là cơ chế nén hop-by-hop tương tự như nén tiêu đề TCP. cRTP làm giảm chiều dài của tiêu đề do đó nó làm giảm được độ trễ. cRTP đặc biệt hữu ích đói với tải tin có cỡ gói nhỏ ví như thoại VoIP có cỡ gói 20 bytes sử dụng nén cRTP có thể làm giảm cỡ gói xấp xỉ 240%. Nó cũng rất hữu hiệu trong các ứng dụng truyền tải cả lưu thoại và backbone đa hướng trên các liên kết tốc độ thấp. Không nên sử dụng cRTP trên bất cứ liên kết tốc độ cao nào (lớn hơn E1). Chỉ nên sử dụng cRTP trên giao tiếp WAN tại đó băng thông xác định và lưu lượng chủ yếu là dữ liệu RTP. Trên các giao tiếp serial sử dụng đóng gói Frame Relay, HDLC hay PPP đều hỗ trợ tính năng với cRTP. Bên cạnh đó cRTP cũng được hỗ trợ trên các giao tiếp ISDN. Kết luận: Phương thức phân loại, phân mảnh và nén gói dữ liệu giúp giảm kích thước các gói tin và sắp xếp chúng theo thứ tự ưu tiên khi qua mạng. Điều này là hết sức quan trọng, vì các gói tin sẽ trở nên linh hoạt hơn rất nhiều khi tìm đường qua mạng, làm giảm trễ chuyển tiếp và xử lý, trong trường hợp xảy ra tắc nghẽn nó vẫn đảm bảo cho các gói có quyền ưu tiên cao hơn (như thoại) và không bị các gói có kích thước lớn làm tràn bộ đệm. Tuy nhiên các phương pháp này lại làm phát sinh thêm trễ xử lý của CPU. 56 CHƯƠNG 4 KỸ THUẬT QoS TRONG ĐIỀU KHIỂN TẮC NGHẼN Nói đến các kỹ thuật QoS người ta người nhắc nhiều đến cơ chế hàng đợi. Ở trạng thái bình thường khi không có tắc nghẽn xảy ra các gói tin sẽ được gửi đi ngay khi chúng được chuyển tới (đây còn gọi là quá trình bypass hệ thống hàng đợi phần mềm). Trong trường hợp xảy ra tắc nghẽn trên một giao diện nào đó, nếu như không áp dụng các kỹ thuật điều khiển tắc nghẽn, các gói tin đến nhanh hơn có thể được gửi đi trước kết hợp với thời gian tắc nghẽn kéo dài có thể phát sinh rớt gói, ảnh hưởng đến chất lượng dịch vụ. Trong một số trường hợp hiện tượng tắc nghẽn kéo dài, khả năng xử lý của CPU bị quá tải rất dễ dẫn đến hiện tượng “treo” mạng, hoặc các gói bị loại bỏ nhiều gây ảnh hưởng đến chất lượng dịch vụ, do đó ngoài các cơ chế điều khiển tắc nghẽn, các cơ chế tránh tắc nghẽn cũng cần được áp dụng trong các mạng hội tụ. Tuy nhiên khi các dụng các kỹ thuật QoS này cũng làm phát sinh trễ mạng. Trong chương này tác giả cũng giới thiệu một số lệnh cấu hình trên các thiết bị của hãng Cisco để minh họa cho các cơ chế hàng đợi. 4.1 Tránh tắc nghẽn Tránh tắc nghẽn là kỹ thuật giám sát tải trọng lưu lượng mạng nhằm tiên đoán trước và ngăn chặn nghẽn mạch trước khi nó xảy ra trong mạng có “hiệu ứng nút cổ trai” (bottlenect) thông qua biện pháp làm rớt gói. Có các phương pháp tránh tắc nghẽn như sau: ƒ Phương pháp bỏ đuôi (Tail drop). ƒ Phương pháp loại bỏ ngẫu nhiên (RED). ƒ Phương pháp loại bỏ cân bằng ngẫu nhiên (WRED - Weighted Random Early Detection) ƒ Tốc độ truy nhập cam kết. 57 ƒ Sử dạng lưu lượng. 4.1.1 Phương pháp bỏ đuôi (Tail drop) Phương pháp bỏ đuôi là kỹ thuật kinh điển cho việc quản lý chiều dài hàng đợi của router, ta đặt một chiều dài cực đại (theo gói) cho mỗi hàng đợi, chấp nhận các gói vào hàng đợi cho đến khi đạt được chiều dài cực đại của hàng đợi (thường gọi là đầy hàng đợi), sau đó bỏ những gói tin đến tiếp sau đó cho đến khi chiều dài hàng đợi giảm xuống do một gói tin trong hàng đợi được truyền đi. Phương pháp bỏ đuôi rất đơn giản, nhưng nó có hai hạn chế đáng kể. Thứ nhất, trong một vài trường hợp, nó cho phép một kết nối đơn hoặc một một vài luồng để chiếm giữ khoảng trống hàng đợi, ngăn cản những kết nối khác vào hàng đợi. Hiện tượng này thường là kết quả của sự đồng bộ hoặc các kết quả định thời khác. Thứ hai, phương pháp bỏ đuôi cho phép hàng đợi duy trì trạng thái đầy (hoặc gần đầy) trong một khoảng thời gian dài, sau đó nó sẽ thông báo nghẽn nếu như hàng đợi bị đầy. Sự giảm kích thước hàng đợi ở trạng thái ổn định có ý nghĩa quan trọng trong quản lý hàng đợi, bởi vì mặc dù TCP (Transmission Control Protocol) ấn định một kích thước cửa sổ của luồng thì các gói vẫn thường xuất hiện tại các router dưới dạng cụm (nhiều gói cùng đến router trong một khoảng thời gian ngắn). Nếu như hàng đợi đầy hoặc gần đầy thì sẽ dẫn đến có thể mất nhiều gói. Điều này có thể dẫn đến việc đồng bộ toàn thể sự điều tiết (throttling) các luồng để giảm tổng thông lượng. Vấn đề của bộ đệm ở trong mạng là nhận những cụm dữ liệu và truyền chúng trong khi các cụm tiếp theo chưa kịp đến. Điều này là cần thiết trong việc truyền dữ liệu kiểu cụm. Giới hạn hàng đợi không phản ánh hàng đợi ở trạng thái ổn định mà ta muốn duy trì trong mạng, thay vào đó nó phản ánh kích thước của các cụm mà chúng ta muốn nhận. 58 Trong mạng NGN hay mạng ứng dụng trên nền IP (Internet Protocol), việc loại bỏ gói là một cơ chế quan trọng của việc thông báo tắc nghẽn đến các trạm (node) đầu cuối. Giải pháp về vấn đề đầy hàng đợi cho các router sẽ làm cho các node đầu cuối đáp ứng được tắc nghẽn trước khi tràn hàng đợi. Việc giải quyết trước này được gọi là quản lý hàng đợi động. 4.1.2 Phương pháp loại bỏ ngẫu nhiên (RED) RED (Random Early Detection) được tìm ra bởi Sally Floyd và Van Jacobson vào đầu những năm 90 của thập kỷ 20. RED là một phương thức để báo hiệu tắc nghẽn. RED điều khiển cỡ hàng đợi trung bình bằng cách báo hiệu cho 1 trạm giảm tốc độ hay ngừng truyền dữ liệu thông qua việc loại bỏ một phần lưu lượng của trạm đó. Khả năng loại bỏ gói trong cơ chế RED có thể được mô tả ở hình 4.1 Hình 4.1 Thuật toán RED Khi quá trình tắc nghẽn xẩy ra RED bắt đầu làm rớt gói tại tốc độ mà đã được thiết lập trên giao diện đó. Khả năng rớt gói dựa trên cơ sở ngưỡng max, min và “mark probability denominator” . Khi hàng đợi trung bình vợt quá giới hạn min thì quá trình rớt gói bắt đầu xẩy ra. Tốc độ mất gói tăng tuyến tính với tốc độ tăng của hàng minth maxth avg Pmax 1 Drop probability 59 đợi và nó tăng cho tới khi đạt tới ngưỡng tối đa (max). Khi vượt quá ngưỡng này tất cả các gói sẽ bị rớt. Giá trị nghưỡng tối thiểu nên gán đủ lớn để tận dụng tối đa liên kết. Khi giá trị này đặt quá nhỏ có thể phát sinh rớt gói không cần thiết. 4.1.3 Phương pháp loại bỏ cân bằng ngẫu nhiên (WRED) Thuật toán RED không phải lúc nào cũng đảm bảo cho các luồng chia sẻ băng thông một cách cân đối nhau. Trong thực tế, RED không ưu tiên đối với các luồng TCP tốc độ thấp. Điều này là bởi vì RED bỏ ngẫu nhiên các gói khi ngưỡng bị vượt quá. WRED (Weighted Random Early Detection) là phương pháp tránh tắc nghẽn dựa trên việc tổ hợp các thuộc tính của thuật toán RED và ưu tiên IP. WRED có thể lựa chọn loại bỏ lưu lượng có mức ưu tiên thấp khi trên giao diện bắt đầu xẩy ra quá trình tắc nghẽn và cung cấp các đặc tính tiêu chuẩn khác nhau cho các lớp dịch vụ khác nhau. Với các giao diện được cấu hình sử dụng đặc tính giao thức dành sẵn tài nguyên (RSVP), khi quá trình nghẽn xẩy ra WRED ưu tiên các luồng RSVP hơn là các luồng dữ liệu khác trong quá trình loại bỏ gói để tránh tắc nghẽn. Cũng giống như RED trong cơ chế của mình WRED loại bỏ gói một cách ngẫu nhiên, từ đó thông báo tới trạm gốc giảm tốc độ truyền dẫn. Nếu trạm gốc sử dụng TCP, nó sẽ làm giảm tốc độ của chính các gói đó cho tới khi tất cả các gói có thể đến được đích. WRED làm rớt gói dựa trên giá trị ưu tiên IP được gán cho mỗi gói. Các gói có giá trị ưu tiên thấp hơn có khả năng bị làm rớt cao. WRED khắc phục các điểm yếu của cơ chế Tail drop khi đầu ra giao diện có nguy cơ bị tắc nghẽn nó sẽ thực hiện lựa chọn làm mất một số gói thay vì chờ cho tới khi các hàng đợi được làm đầy mới thực hiện quá trình cắt gói. WRED tránh làm mất một lượng lớn các gói trong tại một thời điểm từ đó nó cho phép các đường truyền được sử dụng hữu ích tại mọi thời điểm. 60 WRED tránh được các vấn đề về sự đồng bộ xẩy ra khi sử dụng Tail drop để tránh tắc nghẽn. Sự đồng bộ toàn bộ là quá trình xẩy ra khi nhiều trạm TCP giảm tốc độ truyền dẫn để ngăn cản quá trình mất gói và cùng tăng tốc độ truyền dẫn trở lại khi khả năng tắc nghẽn được giảm đi. Chú ý rằng WRED chỉ hữu ích khi phần lớn lưu lượng là dữ liệu TCP/IP, khi đó các gói bị rớt sẽ phát sinh thông báo nghẽn mạch để từ đó trạm phát giảm tốc độ truyền dẫn của mình. Đối với các gói tin được đóng gói theo một giao thức khác có thể trạm gửi không phát hiện quá trình mất gói xẩy ra, như vậy có thể không ngăn chặn được quá trình nghẽn mạch. Với các dữ liệu mà không thuộc dạng gói IP, WRED coi đó như là dữ liệu có mức ưu tiên thấp nhất, Precedence 0, bởi vậy khả năng bị mất gói của nó là cao hơn các dữ liệu IP. Cơ chế làm việc của WRED được minh trong hình 4.2 Các gói tin đến Hàng đợi Tx Các gói tin ra Kiểm tra loại bỏ dựa trên: Kích thước của bộ nhớ đệm, IP precedence hoặc RSVP Bộ đệm Lập lịch FIFO Kiểm tra loại bỏ Phân lớp Hình 4.2 Cơ chế hoạt động của WRED Router sẽ tự động tính toán các thông số của WRED để xác định cỡ hàng đợi trung bình. Cỡ hàng đợi trung bình được tính trên cơ sở cỡ hàng đợi trung bình trước và cỡ hàng đợi hiện tại. Giá trị của nó được tính theo công thức (5.1) average = (old_average * (1 – 2-n)) + (current_queue_size * 2-n) (5.1) 61 Trong đó: n: là hệ số trọng số và có thể cấu hình được. average: Cỡ hàng đợi trung bình old_average: Cỡ hàng đợi trung bình trước đó current_queue_size: Kích thước hàng đợi hiện tại Chúng ta nên chọn hệ số trọng số cho phù hợp nếu n quá lớn WRED sẽ không tác động để chống tắc nghẽn, các gói tin sẽ được gửi hoặc bị rớt như thể là không được cấu hình WRED, tuy nhiên việc lựa chọn n quá nhỏ WRED sẽ phản ứng mãnh liệu với sự bùng nổ lưu lượng tạm thời và có thể làm mất gói trong khi không thực sự cần thiết. 4.1.4 Tốc độ truy nhập cam kết (CAR) CAR là một cơ cấu giám sát tốc độ cho phép người quản trị mạng đưa ra các biện pháp xử lý để kiểm soát lưu lượng. Do CAR là một cơ chế kiểm soát chứ không phải là cơ chế hàng đợi vì vậy nó không có bộ đệm (buffer) và nó cũng không làm phát sinh trễ có thể cho phép truyền tốc độ cao. 4.1.4.1 Cơ chế hoạt động Khi dữ liệu được gửi đến một giao tiếp, CAR thực hiện việc kiểm tra lưu lượng sau đó so sánh tốc độ của lưu lượng với thông số thùng token “token bucket” và đưa ra hành động tương ứng dựa trên cơ sở kết quả so sánh đó. Ví dụ CAR sẽ làm rớt gói, sửa lại quyền ưu tiên IP hay cài khởi tạo lại các bit ToS. Người quản trị mạng cũng có thể cấu hình CAR để truyền gói, loại bỏ gói hoặc thiết lập quyền ưu tiên (xem hình 4.3). 62 Bộ đo (Meter) Bộ phân lớp (Classifier) Bộ đánh dấu (Marker) Bộ rớt gói (Dropper) Chuyển tiếp gói (Forwarding) Bộ đo (Meter) Bộ phân lớp (Classifier) Bộ đánh dấu (Marker) Bộ rớt gói (Dropper) Hàng đợi (Queuing) Hướng vào (Inbound) Hướng ra (Outbound) Hình 4.3 Sơ đồ khối của CAR Lưu lượng chuyển đến đòi hỏi phải được nhận dạng phù hợp với các đặc tính về tốc độ giới hạn, quyền ưu tiên hoặc cả hai. Cơ sở của việc định nghĩa tốc độ giới hạn dựa trên 3 thông số sau: ƒ Tốc độ trung bình, được xác định là tốc độ truyền dẫn trong một thời gian dài. Đó là lưu lượng luôn dưới mức tốc độ giới hạn cho phép. ƒ Cỡ khối trung bình, xác định lưu lượng lớn cỡ nào trước khi một vài phần lưu lượng vượt quá tốc độ giới hạn cho phép. ƒ Cỡ khối quá mức, xác định lưu lượng lớn cỡ nào trước khi tất cả lưu lượng vượt quá tốc độ giới hạn cho phép (CAR ). 4.1.4.2 Các chức năng của CAR Chức năng giới hạn tốc độ được thể hiện như sau: ƒ Cho phép điều kiển tốc độ tối đa truyền hay nhận trên một giao diện. ƒ Thực hiện điều khiển tại lớp 3 để điều khiển lưu lượng cụ thể nào đó khi lưu lượng có thể phù hợp hoặc quá tải. ƒ Nhà quản trị có thể giới hạn tốc độ dữ liệu dựa trên các đặc tính về quyền ưu tiên, địa chỉ MAC (Medium Access Control) hoặc các thông số khác. CAR thường được thiết lập tại các router biên (edge) trong tổ chức của một mạng để giới hạn tốc độ truyền dữ liệu đi và đến mạng. 63 Lưu đồ thuật toán CAR được minh họa họa ở hình 4.4 Lớp 1? CAR Lớp 2? Lớp n? CAR CAR Truyền Truyền Truyền Tiếp Tiếp Rớt Rớt Rớt Hàng đợi đầu ra hoặc chuyển tiếp . . . Hình 4.4 Lưu đồ chức năng của CAR Khi CAR có hiệu lực, lưu lượng sẽ được đi vào phân lớp đầu tiên rồi đưa vào quá trình xử lý CAR. Sau đó CAR đo lưu lượng và trên kết quả đo của CAR cho biết lưu lượng có thể phù hợp hoặc vượt quá mức chính sách đã cấu hình. Có 3 hành động cơ bản có thể xẩy ra trên mỗi gói, phụ thuộc vào các gói đó hợp hay vượt quá so với chính sách: ƒ Truyền (Transmit): gói được gửi đi. ƒ Rớt (Drop): Gói bị loại bỏ. ƒ Tiếp (Continue): Gói được đưa tiếp đến chính sách về tốc độ tiếp theo trên dây truyền giới hạn tốc độ. Nếu không còn chính sách nào khác thì gói sẽ được chuyển đi. Như đã đề cập ở phần trước, CAR cũng có thể được đánh dấu hoặc đánh dấu lại lưu lượng cũng như thực hiện giới hạn tốc độ. Phụ thuộc vào hình dạng lưu lượng các hành động đánh dấu hoặc tái đánh dấu có thể được thực hiện trong xử lý CAR như: 64 ƒ Đặt Precedence hoặc giá trị DSCP và phát đi- IP Precedence ToS hoặc bit DSCP trong header của gói được viết lại. Sau đó gói được phát đi. Hành động này có thể đánh dấu hoặc tái đánh dấu các gói. ƒ Đặt bit MPLS experimental và truyền- bit experimental MPLS có thể được thiết lập. Thường sử dụng các tham số QoS báo hiệu trong MPLS. ƒ Đặt QoS group và phát-QoS group có thể được đặt. Nó chỉ được sử dụng trong router nội tại (local router). QoS group có thể được dùng trong cơ chế QoS cuối cùng và thực hiện trên cùng một router, như là CB-WFQ. 4.1.4.3 Mô hình chiếc thùng và thẻ bài Thưc hiện cơ chế đo lưu lượng bằng mô hình chiếc thùng và thẻ bài được chỉ ra trong hình 4.5 Số thẻ được thêm vào cứ sau mỗi khoảng thời gian Tc [ms] Tc = Bc / CIR Bc + Be Hình 4.5 Mô hình chiếc thùng và thẻ bài Mô hình chiếc thùng và thẻ bài (Token Bucket) là một mô hình để xử lý bất kỳ một gói mới nào đi đến. Mỗi một thẻ (Token) đại diện sự cho phép gửi một số lượng bit cố định vào mạng. Bucket (cái thùng) là khả năng giữ một số lượng thẻ bài nào đó. Nếu bucket được điền đầy, thì các gói mới đến sẽ bị lờ đi, không có thẻ bài cho các gói đến sau, do vậy các gói sẽ bị drop. Ví dụ Token bucket với khả năng có thể là 700 bytes, khi một gói 500 byte đi đến giao diện, kích thước của gói sẽ được so sánh với Bucket và gói 500 byte này được lấy thẻ bài. Khi một gói 300 byte tiếp theo đến ngay sau gói thứ nhất, 65 gói này không được nhận thẻ bài vì trong bucket chỉ còn có 200 thẻ cho gói tiếp theo, nên gói này bị drop. Thực hiện token bucket dựa vào 3 tham số CIR, Bc, Be. ƒ CIR (Committed Information Rate) là tốc độ thông tin cam kết và cũng được gọi là tốc độ cam kết hoặc tốc độ được định dạng. ƒ Bc được biết đến như là khả năng bùng nổ nằm trong giới hạn, ƒ Be là khả năng bùng nổ quá giới hạn. ƒ Tc là chu kỳ mà số thẻ được thêm vào. 4.1.5 Sửa dạng lưu lượng (GTS) Một trong những nguyên nhân gây ra nghẽn là sự bùng phát lưu lượng. Nếu các nguồn tin được truyền theo tốc độ chuẩn thì có thể hạn chế đáng kể hiện tượng nghẽn. Ý tưởng này được sử dụng rộng rãi trong một số mạng tốc độ cao. Cụ thể là để người sử dụng được lợi ích tối đa từ mức QoS do mạng cung cấp, thiết bị kết nối mạng phải đảm bảo gói gửi đến mạng phải phù hợp với các thông số trong hợp đồng lưu lượng. Các tiêu chuẩn thực thi gồm các phương pháp nhằm đạt được mục đích này gọi là sửa dạng lưu lượng GTS (Generic Traffic Shaping). 4.1.5.1 Đặc điểm của GTS ƒ Sửa dạng lưu lượng cho phép người quản trị điều khiển lưu lượng đầu ra của một giao diện phù hợp với các yêu cầu giữa tốc độ trạm đầu xa và chỉ tiêu của giao diện mà đã được thỏa thuận trước. Từ đó loại trừ hiệu ứng nút cổ trai xẩy ra trong mạng. ƒ Sửa dạng lưu lượng cho phép thực hiện điều khiển truy nhập băng thông khả dụng, bên cạnh đó nó cũng có tính năng ngăn cản quá tình làm mất gói. 66 ƒ Sửa dạng lưu lượng cũng có thể sử dụng để giới hạn tốc độ truyền dẫn. Người sử dụng có thể giới hạn tốc độ truyền dẫn theo một trong các đặc tính sau: • Tốc độ được thiết lập. • Tốc độ của trạm gửi dựa trên mức tắc nghẽn ƒ Sửa dạng lưu lượng làm “nhẵn” lưu lượng bằng cách lưu giữ lưu lượng có tốc độ lớn hơn tốc độ được thiết lập trong một hàng đợi. 4.1.5.2 Cơ chế hoạt động của GTS GTS bao gồm các khối chức năng (xem hình 4.6) như sau: ƒ Bộ phân lớp lưu lượng: Phân loại các lớp lưu lượng khác nhau để có thể có các chính sách được áp dụng khác nhau. ƒ Bộ đo (Metering): Dùng cơ chế token-bucket để phân biệt lưu lượng thỏa mãn và lưu lượng quá ngưỡng. ƒ Định dạng: Dùng buffer để trễ những lưu lượng vượt quá tốc độ, và sửa dạng chúng tới một tốc độ giới hạn đã được cấu hình. GTS được thực hiện như cơ chế hàng đợi, trong đó có các hàng đợi trễ WFQ riêng biệt được thực hiện cho mỗi lớp lưu lượng. Mỗi hàng đợi trễ các gói cho tới khi chúng thỏa mãn tốc độ giới hạn, và cũng sắp xếp chúng theo thuật toán WFQ. Sau đó lưu lượng được thỏa mãn sẽ được gửi tới giao diện vật lý. 67 Sửa dạng WFQ Bộ phân lớp Bộ phân lớp Bộ phân lớp Sửa dạng WFQ Sửa dạng WFQ Bộ chuyển tiếp Giao diện vật lý (hàng đợi) có có có có có có không không không không không không Hình 4.6 Sơ đồ các khối chức năng của GTS Đầu tiên các gói được đưa tới các bộ phân loại, sự phân lớp có thể được thực hiện bằng access-list. Một gói được phân lớp đi vào một lớp định dạng, kích thước của chúng được so sánh với số lượng thẻ bài có thể trong token bucket của lớp đó. Gói được chuyển tiếp tới hàng đợi giao diện chính nếu đủ thẻ bài. Nếu không đủ thẻ bài cho các gói chuyển tiếp, các gói nằm trong bộ đệm (buffer) trong hệ thống WFQ được gán cho lớp định dạng này. Sau đó router làm đầy token bucket định kỳ và kiểm tra nếu đủ thẻ bài cấp cho các gói chuyển tiếp. Các gói được xếp ra khỏi hàng đợi định dạng tùy thuộc vào thuật toán sắp xếp WFQ. 4.1.5.3 Kết luận GTS thực thi trong phiên bản router hỗ trợ đa giao thức và làm việc trên nhiều loại giao diện khác nhau. WFQ được dùng như hàng đợi trễ định dạng, cho phép sự sắp xếp công bằng trong một lớp lưu lượng. GTS có thể thực hiện kết hợp với các cơ chế hàng đợi khác như: FIFO, PQ, CQ, WFQ. GTS chỉ làm việc ở đầu ra của giao diện. GTS có thể được dùng để định dạng tất cả lưu lượng đầu ra trên giao diện hoặc nó có thể chia thành nhiều lớp định dạng. 68 Quản lý nghẽn là cơ chế các phần tử mạng xử lý các luồng lưu lượng chuyển đến nhằm hạn chế hay loại trừ các khả năng tắc nghẽn có thể xẩy ra. Các đặc tính quản lý tắc nghẽn của QoS cho phép các cơ chế điều khiển tắc nghẽn thông qua việc xác lập thứ tự các gói tin sẽ được chuyển tới đầu ra dựa trên cơ sở thứ tự ưu tiên tương ứng. Trong chương này sẽ phân tích việc ứng dụng công nghệ lập lịch và hàng đợi trong quản lý tắc nghẽn. 4.2 Điều khiển tắc nghẽn Việc điều khiển tắc nghẽn đòi hỏi xây dựng các cơ chế hàng đợi, các gói tin sẽ được ‘tích tụ’ tại giao diện tạo thành hàng đợi và được gửi đi ngay khi có thể. Thứ tự các gói tin được gửi đi tùy theo giá trị ưu tiên của chúng và phương thức xử lý hàng đợi được cấu hình trên cổng giao diện. Nói cách khác hàng đợi trên router là cần thiết để điều chỉnh sự bùng nổ khi tốc độ gói đến lớn hơn tốc độ gói xuất phát vì một trong 2 lý do sau: ƒ Giao diện đầu vào nhanh hơn giao diện đầu ra. ƒ Giao diện đầu ra thu nhận các gói đến từ nhiều giao diện khác nhau. Lúc đầu tiên thực hiện hàng đợi chỉ sử dụng một chiến lược đơn FIFO. Sau đó nhiều cơ chế hàng đợi được đưa vào phục vụ khi những yêu cầu cụ thể cần các router phân biệt giữa các gói có độ quan trọng khác nhau. Hàng đợi được chia ra làm 2 thành phần: ƒ Hệ thống hàng đợi phần cứng (hardware queue): Vẫn dùng theo chiến lược FIFO, cần thiết cho giao diện chuyển phát từng gói một. Hàng đợi phần cứng thỉnh thoảng cũng được biết đến như là transmit queue hay TxQ. ƒ Hệ thống Hàng đợi phần mềm (Software queue) sắp xếp các gói trong hhardware queue dựa trên cơ sở các yêu cầu QoS. 69 Trong kỹ thuật QoS có 4 loại cơ chế hàng đợi được sử dụng, mỗi một cơ chế có các nguyên tắc sắp xếp hàng đợi và xử lý tắc nghẽn khác nhau: ƒ FIFO (First In First Out). ƒ WFQ (Weighted Fair Queuing). ƒ CQ (Custom Queuing). ƒ PQ (Priority Queuing). 4.2.1 Hàng đợi vào trước ra trước (FIFO) Đối với các mạng đơn giản hàng đợi dạng FIFO (First In First Out) thường được áp dụng, nó không đòi hỏi các khái niệm về quyền ưu tiên hay phân loại lưu lượng. Cơ chế thực hiện của FIFO là: Vào trước ra trước. 4.2.1.1 Các ưu nhược điểm của hàng đợi FIFO Ưu điểm của FIFO bao gồm: ƒ Đơn giản và nhanh. ƒ Hỗ trợ trên tất cả các thiết bị. ƒ Hỗ trợ tất cả các đường chuyển mạch (switching paths). ƒ Hỗ trợ tất cả các phiên bản phần mềm. Nhược điểm: ƒ FIFO không cấp băng thông cân bằng giữa các luồng. Một vài luồng nhận được băng thông nhiều hơn bởi vì chúng sử dụng các gói lớn hơn hoặc gửi nhiều gói hơn. ƒ FIFO cực kỳ không cân bằng khi một luồng lớn tranh chấp với một luồng nhỏ (fragile flow). Luồng lớn gửi một số lượng lớn các gói và khi tràn hàng đợi sẽ có nhiều gói trong đó bị drop. Luồng nhỏ gửi một số lượng gói vừa phải và hầu hết chúng bị drop bởi vì hàng đợi luôn bị đầy do luồng lớn. Loại quan hệ này được gọi là Starvation (sự thiếu hụt). 70 4.2.1.2 Cấu hình FIFO Khởi tạo hàng đợi FIFO trên giao diện (xem hình 4.8) ƒ FIFO mặc định được thiết lập trên các giao diện tốc độ lớn hơn 2M. ƒ WFQ là mặc định được thiết lập trên các giao diện tốc độ nhỏ hơn 2M. ƒ Lệnh này dùng để không cho phép WFQ và khởi tạo FIFO. Hình 4.8 Ví dụ cấu hình hàng đợi FIFO Cấu hình bộ nhớ đệm hàng đợi FIFO. ƒ Hàng đợi FIFO cho phép tối đa 40 gói được lưu lại trong hàng đợi đầu ra. ƒ Câu lệnh này có thể được dùng để tăng hoặc giảm số lượng gói tối đa trong bộ đệm gói. ƒ Một giá trị lớn có thể được đặt để hỗ trợ sự bùng nổ dài hơn (drop ít hơn, chiếm nhiều bộ đệm được dùng). ƒ Giá trị nhỏ có thể được thiết lập để tránh sự bùng nổ (drop nhiều hơn). 71 4.2.2 Hàng đợi tuần tự (CQ) CQ (Custom Queuing) thực hiện phục vụ các hàng đợi theo cơ chế tuần tự, nó thực hiện truyền phần trăm lưu lượng trên mỗi hàng đợi trước khi chuyển đến hàng đợi kế tiếp bởi vậy nó có khả năng đảm bảo cho một vài mức dịch vụ hay toàn bộ lưu lượng được truyền tải. 4.2.2.1 Cơ chế hoạt động Hàng đợi CQ cho phép người sử dụng (user) định ra phần trăm băng thông khả dụng cho một dịch vụ đặc biệt nào đó. Nghĩa là CQ cho phép người dùng chỉ định số lượng byte xác định từ hàng đợi sẽ được gửi đi dựa trên cơ sở tốc độ giao tiếp và phần trăm lưu lượng được cấu hình. CQ cũng cho phép người dùng chỉ định số lượng tối đa các gói được sắp xếp trong hàng đợi và có thể định nghĩa lên tới 17 hàng đợi, trong đó hàng đợi số 0 được dùng cho hàng đợi của hệ thống, hàng đợi hệ thống có thứ tự ưu tiên cao nhất, hàng đợi này là rỗng trước khi có bất kỳ hàng đợi dữ liệu nào được tham gia xử lý, nó mang các thông tin báo hiệu và các thông điệp của hệ thống. Cơ chế hoạt động của CQ được mô tả theo hình vẽ 4.9 72 Hình 4.9 Cơ chế hoạt động của CQ Trong hình vẽ 4.9 CQ sử dụng kỹ thuật lập lịch (scheduling) round-robin, trong đó mỗi hàng đợi được cấu hình với một số byte (byte-count) mà nó có thể gửi đi trong một vòng. Gói cuối cùng luôn luôn được gửi, thậm chí tổng số byte được gửi trong một chu kỳ lớn hơn giới hạn (byte-count). Như vậy việc thiết lập số lượng byte giới hạn quá nhỏ có thể phát sinh những vấn đề không mong đợi trong việc phân phối băng thông. Tuy nhiên khi số lượng byte giới hạn được thiết lập quá lớn thì có thể phát sinh thời gian chờ được phục vụ của hàng đợi tiếp theo. Do đó việc xác định số lượng byte phải dựa trên cỡ gói trong mỗi giao thức nếu không tỉ lệ phần trăm phân phối băng thông sử dụng sẽ không giống như các thông số được cấu hình. Hình 4.10 sẽ minh họa một trường hợp xấu nhất trong đó các tham số được sử dụng để thực thi CQ trên giao diện như sau: ƒ MTU trên giao diện là 1500. ƒ Byte-count là 3000. 73 Hì

Các file đính kèm theo tài liệu này:

  • pdfLuận văn- Vần đề chất lượng dịch vụ trong mạng thế hệ mới và triển khai ứng dụng trên hạ tầng của công ty SPT.pdf