Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Đỗ Tiến Dũng
HÀ NỘI - 2005
Khoá luận tốt nghiệp
MỞ ĐẦU
Để đáp ứng nhu cầu phát triển không ngừng của người sử dụng, nhà cung cấp
dịch vụ cần phải có các thiết bị định tuyến và chuyển mạch tốc độ cao. Mặc dù vậy,
mạng lõi của nhà điều hành và nhà cung cấp dịch vụ thường chạy trên mạng đường
trục ATM, nhưng phần lớn các kết nối tới nhà cung cấp vẫn duy trì tốc độ chuyển
mạch chậm và các kiểu kết nối điểm-điểm, dẫn tới trễ và tắc nghẽn tại các điểm truy
cập biên. Các bộ định tuyến lõi cũng góp phần vào trễ đường đi, vì mỗi bộ định tuyến
phải thực hiện các giải pháp độc lập trên đường tốt nhất để chuyển tiếp gói. Thông
thường IP phải được định tuyến trên ATM bằng việc sử dụng IP qua ATM qua các
kênh ảo hoặc các giao thức trên ATM. Các phương thức chuyển tiếp này đã được
chứng minh là không thuận tiện và phức tạp.
Hơn nữa với sự phát triển rộng khắp của mạng Internet đã làm ra đời một loạt
các ứng dụng mới trong thương mại. Những ứng dụng này đòi hỏi phải tăng và đảm
bảo băng thông trong mạng đường trục. Ngoài ra bên cạnh các dịch vụ dữ liệu truyền
thống, thoại và các dịch vụ đa phương tiện đang được phát triển và triển khai. Nó đã
làm nảy sinh vấn đề cần phải có một mạng hội tụ cung cấp đầy đủ các dịch vụ.
Nhu cầu về một mạng hội tụ với phương thức chuyển tiếp đơn giản, thông
minh mà có các đặc tính quản lý lưu lượng và chất lượng dịch vụ là một nhu cầu cấp
thiết. Tất cả các yêu cầu đó có thể được đáp ứng bởi chuyển mạch nhãn đa giao thức
MPLS, nó không bị hạn chế bởi các giao thức lớp 2 và lớp 3. Cùng với kĩ thuật điều
khiển lưu lượng, MPLS là một giải pháp quan trọng trong việc định tuyến, chuyển
mạch và cung cấp chất lượng dịch vụ để đáp ứng được sự phát triển của các ứng dụng
cũng như các nhu cầu dịch vụ của khách hàng.
Luận văn của em sẽ trình bày những kiến thức cơ bản về công nghệ chuyển
mạch nhãn đa giao thức, về chất lượng dịch vụ và việc triển khai, hỗ trợ chất lượng
dịch vụ trong mạng MPLS.
MỤC LỤC
3 giúp giảm bớt nghẽn trong định tuyến lớp 3 bằng cách chuyển việc tìm kiếm tuyến
cho một chuyển mạch phần cứng tốc độ cao.
Các giải pháp trước đây chỉ quan tâm tới tốc độ truyền của các gói khi chúng
truyền qua mạng chứ không quan tâm tới thông tin yêu cầu dịch vụ có trong gói. Hầu
hết các giao thức định tuyến sử dụng ngày nay đều dựa trên thuật toán được thiết kế để
tìm ra con đường ngắn nhất trong mạng với các gói truyền tải mà không quan tâm tới
các yếu tố khác ( như trễ, rung pha, nghẽn), mà có thể làm giảm bớt đáng kể chức năng
mạng.
1.1.3. MPLS là gì?
MPLS là một framework do IETF đưa ra , cung cấp thiết kế hiệu quả cho việc
định tuyến, chuyển tiếp, chuyển mạch cho luồng lưu lượng qua mạch.
MPLS thực hiện những chức năng sau:
o Định quá trình quản lý lưu lượng luồng của các mạng khác nhau, như luồng
giữa các máy, phần cứng khác nhau hoặc thậm chí luồng giữa các ứng dụng
khác nhau.
o Duy trì sự độc lập của giao thức lớp 2 và lớp 3.
o Cung cấp cách thức để ánh xạ các địa chỉ IP thành các nhãn đơn giản có độ
dài không đổi được sử dụng bởi các công nghệ chuyển tiếp gói và chuyển
mạch gói khác nhau.
o Giao diện chung đối với các giao thức định tuyến như RSVP và OSFP.
o Hỗ trợ IP, ATM, Frame Relay.
Trong MPLS, dữ liệu được chuyển theo LSP. LSP là một chuỗi các nhãn ở
mỗi node từ nguồn tới đích. LSP được thiết lập theo chu kì để truyền dữ liệu (control-
driven) hoặc dựa trên sự phát hiện có một luồng dữ liệu nào đó (data-driven). Các
nhãn, theo giao thức đã được định sẵn sẽ được phân phối sử dụng LDP hoặc RSVP
hoặc được “cõng” trên một giao thức định tuyến như BGP và OSFP. Mỗi gói dữ liệu
được đóng gói và mang nhãn trong suốt hành trình từ nguồn tới đích. Tốc độ chuyển
mạch cao vì nhãn có chiều dài cố định được chèn vào đầu gói hay tế bào và có thể
được sử dụng bởi phần cứng để chuyển tiếp gói nhanh chóng giữa các tuyến.
Relay, Ethenet) và chuyển những luồng lưu lượng này tới mạng MPLS sau khi thiết
lập các LSP, sử dụng giao thức báo hiệu nhãn ở đầu vào và phân phối lưu lượng trở lại
mạng truy cập ở đầu ra. LER đóng vai trò rất quan trọng trong việc gán và bỏ nhãn khi
các luồng lưu lượng vào và tồn tại trong mạng MPLS.
Frame Relay hay ATM), định danh lớp 2, như DLCI trong trường hợp mạng Frame
Relay hay VPIs/VCIs trong trường hợp mạng ATM có thể được sử dụng trực tiếp như
nhãn. Các gói được chuyển dựa trên giá trị nhãn.
Nhãn được ràng buộc tới một FEC theo một vài sự kiện hoặc một vài cách
thức chỉ ra sự cần thiết đối với sự ràng buộc.Những sự kiện có thể là ràng buộc data-
driven hay ràng buộc control-driven.
Gán nhãn có thể được quyết định dựa trên cơ sở tiêu chuẩn chuyển tiếp như:
o Định tuyến đơn hướng
o Công nghệ điều khiển lưu lượng (TE)
o Multicast
o Chất lượng dịch vụ (QoS)
Định dạng thông thường của nhãn được cho như hình 2. Nhãn có thể được
nhúng trong tiêu đề của lớp liên kết dữ liệu ( ATM VCI/VPI như hình 3 và Frame
Relay DLCI như hình 4) hoặc được chèn vào ( giữa tiêu đề lớp 2 và tiêu đề lớp 3 như
trong hình 5)
Tiêu đề lớp MPLS Tiêu đề lớp mạng
SHIM
Dữ liệu và các tiêu đề các lớp khác
liên kết
32 bit
Tiêu đề IP Data
Gói IP
Tiêu đề PPP
(gói qua PPP header Shim header Tiêu đề lớp 3
SONET/SDH)
Tiêu đề MAC
Tạo nhãn Tiêu đề MAC Shim header Tiêu đề lớp 3
Tạo nhãn
Có một vài phương pháp để tạo nhãn:
o Phương pháp dựa trên giao thức ( topology-base method) sử dụng quá trình
của các giao thức định tuyến ( như OSPF và BGP).
o Phương pháp dựa trên yêu cầu (Request-base method) sử dụng quá trình
yêu cầu dựa trên điều khiển lưu lượng.
o Phương pháp dựa trên lưu lượng (Traffic-base method) sử dụng một gói để
kích hoạt sự gán và phân phối nhãn.
Phương pháp dựa trên giao thức và dựa trên yêu cầu là ví dụ của ràng buộc
nhãn control-driven, trong khi phương pháp dựa trên lưu lượng là ví dụ của ràng buộc
data-driven
Phân phối nhãn
Kiến trúc MPLS không giao chỉ một phương pháp báo hiệu cho việc phân phối
nhãn. Các giao thức định tuyến đang tồn tại, như BGP đã được nâng cao để có thể
“cõng” thông tin nhãn trong nội dung của giao thức. RSVP cũng đã được mở rộng để
hỗ trợ chuyển giao nhãn. IETF đã định nghĩa một giao thức mới gọi là giao thức phân
phối nhãn (LDP) để thực hiện báo hiệu và quản lý không gian nhãn. Mở rộng dựa trên
cơ sở giao thức LDP có thể hỗ trợ thực hiện định tuyến dựa trên các yêu cầu QoS và
CoS. Sự mở rộng này tạo ra giao thức CR-LDP.
Không gian nhãn
Nhãn được sử dụng bởi một LSR cho ràng buộc nhãn-FEC có thể được phân
chia như sau:
o per platform : Giá trị nhãn là độc nhất qua toàn bộ LSR. Nhãn được cấp
phát từ một quỹ chung. Không có hai nhãn trên hai giao diện khác nhau có
cung giá trị.
o per interface : Phạm vi của nhãn kết hợp với giao diện. Những quỹ nhãn
được định nghĩa cho mỗi giao diện, và các nhãn được cung cấp ở những
giao diện đó được cấp phát từ những quỹ tách biệt. Giá trị nhãn ở các giao
diện khác nhau có thể giống nhau.
Kết hợp nhãn
Luồng đầu vào của lưu lượng từ các giao diện khác nhau có thể được kết hợp
lại với nhau và thực hiện chuyển mạch dựa trên một nhãn chung nếu nó được truyền
qua mạng tới cùng đích cuối cùng.
Nếu mạng truyền tải lớp dưới là mạng ATM, các LSR có thể thực hiện việc
kết hợp VP và VC.
Cầm giữ nhãn
MPLS định nghĩa cách đối xử với ràng buộc nhãn nhận được từ các LSR mà
không có chặng tiếp với một FEC đã cho. Có hai mode được định nghĩa:
o Conservative : Trong mode này, ràng buộc giữa nhãn và FEC nhận được từ
các LSR mà không có chặng tiếp với một FEC đã cho sẽ bị bỏ. Mode này
yêu cầu các LSR duy trì ít nhãn hơn. Đây là mode được khuyến cáo cho
ATM-LSRs
o Liberal : Trong mode này, ràng buộc giữa nhãn và FEC nhận được từ các
LSR mà không có chặng tiếp với một FEC đã cho được giữ lại. Mode này
đòi hỏi thích ứng nhanh hơn với sự thay đổi topo mạng và cho phép chuyển
lưu lượng tới các LSP khác trong trường hợp thay đổi.
Hình 7 : Tạo LSP và chuyển tiếp gói tin qua miền MPLS
Phải tiến hành những bước sau đây để có thể truyền gói tin quan miền MPLS
o Tạo nhãn và phân phối
MPLS actions Mô tả
Tạo nhãn và phân Trước khi bắt đầu truyền bất cứ lưu lượng nào, router tạo
phối nhãn quyết định ràng buộc nhãn với một FEC nhất định và xây
dựng bảng của nó
Trong LDP, luồng xuống router khởi phát sự phân bố nhãn
và ràng buộc FEC/nhãn
Ngoài ra, các đặc tính liên quan tới lưu lượng và khả năng
MPLS được dàn xếp sử dụng LDP
Một giao thức truyền tải tin cậy và trật tự được sử dụng để
làm giao thức báo hiệu. LDP sử dụng TCP
Tạo bảng Khi nhận được ràng buộc nhãn, mỗi LSRs tạo các đầu vào
trong bảng cơ sở dữ liệu nhãn (LIB)
Nội dung của bảng sẽ xác định ánh xạ giữa nhãn và FEC
Ánh xạ giữa port lối vào và bảng nhãn đầu vào tới port lối
ra và bảng nhãn đầu ra
Các lối vào được cập nhật bất cứ khi nào nhận ra có ràng
buộc nhãn xảy ra
Tạo tuyến chuyển Như đường đứt đoạn trong hình 7, các LSP được tạo theo
mạch nhãn hướng ngược lại với sự tạo thành các lối vào trong LIB
Chèn nhãn/tìm Router đầu tiên (LER1 trong hình 7) sử dụng bảng LIB để
kiếm bảng tìm chặng tiếp theo và yêu cầu nhãn với một FEC nhất định
Chuỗi router con sử dụng nhãn để tìm chặng tiếp theo
Khi một gói tới LSR biên lối ra (LSR4), nhãn sẽ bị bỏ và
gói được cấp tới đích
Chuyển tiếp gói Từ hình 7 chúng ta hãy xem con đường của một gói khi nó
đi tới đích từ LSR1, LSR biên lối vào, tới LSR4, LSR biên
lối ra
LER1 có thể không có bất kì nhãn nào cho gói này khi xảy
ra yêu cầu này lần đầu tiên. Trong mạng IP, nó sẽ tìm địa
chỉ dài nhất để tìm các bước tiếp theo. LSR1 là bước tiếp
theo của LER1.
LER1 sẽ khởi phát các yêu cầu nhãn tới LSR1.
Yêu cầu này sẽ được phát trên toàn mạng như hình 7. LDP
sẽ xác định đường dẫn ảo đảm bảo QoS, CoS.
Mỗi bộ định tuyến trung gian LSR2 và LSR3 sẽ nhận gói
tin gán nhãn thay đổi nhãn và truyền đi.
Gói tin đến LER4, loại bỏ nhãn vì gói ra khỏi miền hoạt
động của MPLS và phân phát tới đích. Đường truyền gói
tin được chỉ ra trong hình 7
1 3 3 6
2 9 1 7
nhãn hoàn chỉnh cùng lúc. Hai nhãn được sử dụng cho mỗi phần là (1) phần đầu tiên –
nhãn cho LSP1 và LSP2 và (2) phần thứ hai – nhãn cho LSP1 và LSP3.
Khi các LER3 nhận các gói tin tồn tại trong mạng đầu tiên, các gói tin sẽ loại
bỏ nhãn của LSP2 và thay bằng nhãn LSP3 trong khi quá trình trao đổi nhãn LSP1 bên
trong gói tin với nhãn của đường đi tiếp theo. LER4 sẽ loại bỏ cả hai nhãn trước khi
gửi gói tin đến đích.
Thành phần MPLS lõi có thể chia thành các phần sau:
o Khả năng tương thích với các loại chuyển tiếp lớp 2 khác nhau (ATM,
Frame Relay, PPP)
Hình 9 miêu tả các giao thức có thể sử dụng trong hoạt động MPLS. Phương
thức định tuyến có thể là bất kỳ một trong các giao thức phổ biến. Phụ thuộc vào môi
trường hoạt động, các giao thức định tuyến có thể là OSPF, BGP, hay PNNI của ATM,
v.v… Module LDP tận dụng giao thức điều khiển truyền tin (TCP) để đảm bảo quá
trình truyền dữ liệu điều khiển từ một LSR đến LSR khác trong suốt một phiên. LDP
cũng duy trì LIB. LDP sử dụng giao thức UDP trong suốt giai đoạn vận hành tìm kiếm
của nó. Trong trường hợp này, LSR cố gắng xác định các phần tử lân cận và đồng thời
báo hiệu sự có mặt của chúng trong mạng. Điều này được thực hiện thông qua một
trao đổi các gói tin hello.
IP Fwd là phương thức chuyển tuyến lớp IP để tìm đường tiếp theo bằng cách
khớp địa chỉ dài nhất trong bảng của chúng. Với MPLS, điều này được thực hiện bởi
các LER. MPLS Fwd là phương thức chuyển tiếp để kết nối một nhãn với một cổng lối
ra cho các gói tin. Các lớp với miêu tả trong hình hộp với đường nét đứt có thể thực
hiện bằng phần cứng tạo nên hoạt động nhanh và hiệu quả.
tập trung vào việc nâng cao chức năng mạng trên cở sở vật chất có sẵn hiện tại. Thứ
tư, rất quan trọng đó là việc đưa ra mô hình kinh doanh trên cơ sở tiếp cận các dịch cụ
bổ sung và nâng cao. Mạng hội tụ có thể cung cấp thoại, dữ liệu, và các dịch vụ video
được hi vọng là dễ dàng vận hành và quản lý hơn các mạng song song đang tồn tại, mà
ảnh hưởng đáng kể tới chi phí vận hành. Nhưng để có thể thực hiện hội nghị từ xa dựa
trên chuyển mạch gói và các dịch vụ multimedia với đối tượng doanh nghiệp, mạng
hội tụ phải cung cấp chất lượng hoàn hảo và hỗ trợ thoả thuận cấp độ dịch vụ chặt chẽ.
2.2. Các định nghĩa cơ bản
2.2.1. QoS là gì ?
Trước khi thảo luận các quá trình QoS và liên hệ của nó tới MPLS, chúng ta
nên xem lại một vài định nghĩa chính và các khái niệm liên quan. Trong khi không có
một định nghĩa chính thức của QoS thì những định nghĩa sau được xem là có hiệu lực
trong phạm vi đề tài này.
Một cách cơ bản nhất, QoS cho phép bạn cải thiện chất lượng dịch vụ tốt hơn
đối với các luồng nhất định. Điều này được thực hiện bằng cách tăng mức ưu tiên đối
với một luồng và giảm mức ưu tiên của luồng khác. Khi sử dụng các công cụ quản lý
nghẽn mạch, bạn cố tăng mức ưu tiên của một luồng bằng hàng đợi và đảm bảo hàng
đợi theo các cách khác nhau.Công cụ quản lý hàng đợi được sử dụng để tránh tắc
nghẽn tăng mức ưu tiên bằng cách bỏ các luồng ưu tiên thấp trước các luồng ưu tiên
cao. Kiểm soát (policing) và hoạch định (shaping) cung cấp mức ưu tiên đối với một
luồng bằng cách hạn chế thông lượng (throughput) của luồng khác.
Yoram Bernet đã phân biệt giữa định nghĩa QoS thụ động và chủ động. Định
nghĩa thụ động miêu tả chất lượng dịch vụ như là lưu lượng chuyển tải qua mạng.
Trong khi định nghĩa chủ động liên quan tới quá trình điều khiển chất lượng dịch vụ
thu được bởi lưu lượng chuyển qua mạng. Định nghĩa chủ động của Bernet về chất
lượng dịch vụ mạng là “ Khả năng điều khiển các quá trình xử lý lưu lượng trong
mạng để mạng có thể gặp được đòi hỏi dịch vụ của ứng dụng nào đó và các chính sách
mà người dùng đưa ra đối với mạng”.
Jerry Ash cung cấp một tập hợp mở rộng các định nghĩa liên quan tới TE và
QoS từ quan điểm của nhà cung cấp dịch vụ. Trong khi khả năng quản lý và hoạch
định mạng đảm bảo cho chức năng của mạng trong tương lai, quản lý lưu lượng lại
liên quan tới việc tối ưu nguồn tài nguyên có sẵn của mạng dưới các điều kiện khác
nhau. Quản lý lưu lượng bao gồm các chức năng điều khiển định tuyến, quản lý bảng
định tuyến, định tuyến động.
Trong [TE-QoS], QoS được định nghĩa là “một tập hợp các yêu cầu gặp phải
bởi mạng khi truyền dẫn một kết nối hay một luồng, hay tập hợp các ảnh hưởng của
chức năng dịch vụ mà xác định mức độ thoả mãn của người dùng dịch vụ”. Định nghĩa
này là “thụ động” theo phân biêt của Bernet, nhưng định nghĩa sau của Quản lý tài
nguyên QoS là “chủ động” : “chức năng mạng mà bao gồm phân biệt cấp độ dịch vụ,
rút ra bảng định tuyến, quản lý kết nối, cấp phát băng thông, bảo vệ băng thông, dành
sẵn băng thông, định tuyến ưu tiên, hàng đợi ưu tiên”.
Tóm lại, ta sẽ nói về QoS như là sự yêu cầu dịch vụ của rất nhiều các ứng
dụng, và về các quá trình QoS / các chức năng quản lý tài nguyên QoS như quá trình
điều khiển mạng mà cho phép một mạng thoả mãn QoS.
Yêu cầu dịch vụ của các ứng dụng khác nhau có thể biểu diễn bằng một tập
các tham số bao gồm băng thông, trễ, rung pha, mất mát gói, quyền ưu tiên và một vài
thứ khác. Ví dụ thoại và các ứng dụng multimedia rất nhạy cảm với trễ và rung pha,
trong khi các ứng dụng truyền dữ liệu có thể đòi hỏi mất mát gói rất thấp. Chúng ta sẽ
xem các tham số đó là các biến QoS.
2.2.2. Một số khái niệm cơ bản của QoS
Trễ
Trễ là khoảng thời gian một bản tin chiếm khi truyền từ điểm này sang điểm
khác trên mạng. Trễ bao gồm một số thành phần như thời gian tiêu tốn trong hàng đợi
của bộ định tuyến-trễ xếp hàng, thời gian cần thiết để thực hiện quyết định trong bộ
định tuyến-trễ chuyển tiếp, thời gian cần thiết để tuyến vật lý truyền dữ liệu-trễ lan
truyền và thời gian sử dụng để đặt gói tin lên mạng-trễ nối tiếp hoá. Thành phần có thể
được quản lý với QoS là trễ xếp hàng. Gói có ưu tiên cao hơn sẽ được đưa ra để truyền
trước các gói có ưu tiên thấp hơn và các kĩ thuật quản lý hàng đợi như RED có thể
được sử dụng.
Rung pha
Rung pha được định nghĩa như sự biến đổi trong các trễ chuyển tiếp đầu cuối-
đầu cuối. Trong một số ứng dụng, như các ứng dụng thời gian thực không thể chấp
nhận rung pha. Giao thức TCP cũng thực hiện rất kém dưới tác dụng của rung pha, vì
nó cố gắng điều chỉnh tốc độ truyền dẫn của nó tương ứng.
Băng thông
Băng thông biểu thị tốc độ tryền dữ liệu cực đại có thể đạt được giữa hai điểm
kết cuối
Tổn hao
Tổn hao gói tin là trường hợp khi gói tin không tới được đích của nó trước thời
gian timeout của bộ thu. Trong mạng TCP/IP thì tổn hao gói tin chủ yếu là do nghẽn,
đây là nguyên nhân tạo ra sự tràn bộ nhớ hoặc loại bỏ gói tin bởi các phương tiện quản
lý lưu lượng.
Cấp độ dịch vụ (CoS)
Khái niệm cấp độ dịch vụ CoS có nghĩa hẹp hơn QoS và chỉ ra một cách đơn
giản rằng các dịch vụ có thể phân loại được trong các cấp độ khác nhau, có thể được
cung cấp cho người sử dụng và được quản lý độc lập.
Thoả thuận mức dịch vụ (SLA)
SLA là hợp đồng giữa khách hàng và nhà cung cấp dịch vụ SP, SLA định mức
dịch vụ nào SP định cung cấp. Ý tưởng rất đơn giản : khách hàng nào báo cáo bao
nhiêu lưu lượng họ sẽ gửi và trả tiền cho mức độ tối thiểu được đảm bảo trong lưu
lượng đó.
2.2.3. Điều kiện cần thiết cho QoS.
Với QoS như được định nghĩa ở trên, chúng ta hãy xem xét các yêu cầu cơ bản
mà cần phải có để có thể thu được nó. Để có thể cung cấp QoS cho nhiều loại yêu cầu
của ứng dụng (ví dụ : thoại, multimedia..), mạng phải thoả mãn hai điều kiện cần thiết
o Điều kiện thứ nhất là băng thông phải được đảm bảo cho một ứng dụng
dưới các điều kiện khác nhau, bao gồm cả nghẽn và lỗi.
o Điều kiện thứ hai là khi một ứng dụng truyền qua mạng, nó phải nhận được
sự đối xử dựa trên cấp độ thích hợp, bao gồm cả sự sắp xếp và việc loại bỏ
gói. Chúng ta có thể nghĩ là hai điều kiện đó là trực giao. Một luồng có thể
có băng thông hiệu quả nhưng phải chịu trễ (điều kiện thứ nhất đạt được
còn điều kiên thứ hai thì không). Hoặc một luồng có thể được phục vụ một
cách thích hợp trong mọi node mạng nhưng bị chấm dứt hoặc bị méo bởi sự
dao động một chút của băng thông (điều kiện thứ hai đạt được nhưng điều
kiện thứ nhất thì không). Vì thế cần phải thoả mãn cả hai điều kiện này để
thu được đảm bảo QoS chắc chắn mà đã được yêu cầu bởi nhà cung cấp
dịch vụ và khách hàng của họ.
2.3 Kiến trúc cơ bản của QoS
Kiến trúc cơ bản đối với việc thực thi QoS bao gồm ba phần cơ sở
o Kĩ thuật phân biệt (identification) và đánh dấu (marking) QoS cho việc định
QoS từ đầu cuối tới đầu cuối giữa các phần tử mạng
o QoS trong các phần tử mạng riêng lẻ ( Ví dụ : hàng đợi, sắp xếp và các
công cụ hoạch định lưu lượng)
o Chức năng kiểm soát, quản lý, hoạch định (accouting) đối với việc điều
khiển và quản trị lưu lượng đầu cuối-đầu cuối qua mạng
Các phương pháp phân biệt luồng thông dụng gồm điều khiển danh sách truy
cập (ACL-Access control list), định tuyến kiểm soát (policy-base routing), tốc độ truy
cập cam kết (CAR-commited access rate), thừa nhận ứng dụng mạng (NAR-
network-base application recognition)
2.3.2. QoS trong các phần tử mạng riêng lẻ
Quản lý tắc nghẽn, quản lý hàng đợi, hiệu suất tuyến và các công cụ hoạch
định/kiểm soát cung cấp QoS với các phần tử đơn lẻ của mạng
- Quản lý tắc nghẽn
Bởi bản chất bùng nổ tự nhiên của voice/video/dữ liệu, thỉnh thoảng số lượng
lưu lượng vượt quá tốc độ của tuyến. Trong trường hợp đó, router sẽ làm gì? Liệu nó
sẽ lưu trữ các lưu lượng trong một hàng đợi và để gói đầu tiên là gói đầu sẽ ra? Hay nó
sẽ đặt các gói trong các hàng đợi khác nhau và phục vụ hàng đợi nào đó thường xuyên
hơn? Công cụ quản lý tắc nghẽn sẽ quan tâm tới câu hỏi này. Công cụ bao gồm hàng
đợi ưu tiên (PQ), hàng đợi tùy ý (CQ), hàng đợi trọng số (WFQ-weighted fair
queuing), hàng đợi có trọng số dựa trên cấp độ (CBWFQ-class-base weighted fair
queuing).
- Quản lý hàng đợi
Bởi vì hàng đợi không phải kích thước vô hạn, nên nó sẽ đầy và tràn. Khi hàng
đợi đầy. Bất cứ một gói thêm nữa bất kì sẽ không thể vào trong hàng đợi và nó sẽ bị
bỏ. Đây là hiện tượng bỏ đuôi (tail drop). Vấn đề với bỏ đuôi là router sẽ không thể
bảo vệ những gói này khỏi bị bỏ( kể cả những gói ưu tiên cao). Vì vậy cần thiết có một
quá trình thực hiện hai việc:
o Cố gắng đảm bảo rằng hàng đợi không bị làm đầy, vì thế cần có một không
gian cho các gói ưu tiên cao
o Cần có một vài loại tiêu chuẩn đối với việc bỏ một gói có mức ưu tiên thấp
trước khi bỏ gói có mức ưu tiên cao
Phát hiện trọng số sớm ngẫu nhiên(Weighted early random detect-WERD)
cung cấp phương thức thực hiện những quá trình này
- Hiệu suất tuyến
Nhiều lần các tuyến tốc độ thấp nảy sinh vấn đề với các gói lớn. Ví dụ trễ nối
tiếp của gói 1500 byte trong một tuyến 56kbps
o Bước 3 : Đánh giá kết quả bằng việc kiểm thử đáp ứng của các ứng dụng để
xem khi nào mục tiêu chất lượng dịch vụ đã đạt được.
Để dễ dàng phát triển, có thể sử dụng Quản lý kiểm soát chất lượng dịch vụ
của Cisco(QPM-QoS policy manager), Quản lý thiết bị chất lượng dịch vụ (QDM-QoS
devices manager). Để kiểm định mức dịch vụ, có thể sử dụng Giám sát chức năng
mạng của Cisco (IPM-Internetwork Performance Monitor)
2.4. Mức chất lượng dịch vụ đầu cuối-đầu cuối
Mức độ dịch vụ liên quan tới khả năng chất lượng dịch vụ đầu cuối-đầu cuối
thực tế, có nghĩa là khả năng cung cấp các dịch vụ cần thiết bằng cách xác định rõ lưu
lượng đầu cuối-đầu cuối hay biên-biên(edge-to-edge). Các dịch vụ khác nhau ở mức
độ chất lượng dịch vụ, miêu tả chặt chẽ cách thức xác định giới hạn dịch vụ bằng cách
xác định băng thông, trễ, rung pha, và đặc tính mất mát.
Có ba mức cơ bản của chất lượng dịch vụ đầu cuối-đầu cuối có thể được cung
cấp bởi mạng không đồng nhất:
o Best-efford service : Có rất ít chất lượng dịch vụ, best-efford service cơ bản
dựa trên kết nối không có sự đảm bảo. Được đặc trưng bởi hàng đợi FIFO,
không có sự khác biệt giữa các luồng.
o Differentiated service ( còn gọi là chất lượng dịch vụ mềm) : Một vài luồng
được đối xử tốt hơn các luồng khác ( tiến hành nhanh hơn, băng thông trung
bình cao hơn, tốc độ mất mát trung bình thấp hơn). Đây là sự ưu tiên mang
tính thống kê, không phải là đảm bảo cứng và nhanh. Nó được thực hiện
bằng cách phân loại lưu lượng và sử dụng các công cụ chất lượng dịch vụ
như PQ, CQ, WFQ, và WRED.
o Gruaranteed service ( còn gọi là chất lượng dịch vụ cứng) : Thực sự là cách
dành riêng tài nguyên mạng cho lưu lượng xác định thông qua các công cụ
chất lượng dịch vụ như RSVP, CBWFQ.
Quyết định loại dịch vụ thích hợp với mạng triển khai phụ thuộc vào vài nhân
tố:
o Ứng dụng hay khó khăn mà khách hàng đang cố gắng giải quyết. Mỗi loại
dịch vụ thích hợp cho ứng dụng nhất định.
o Tốc độ mà khách hàng thực tế có thể nâng cao hệ thống của họ. Có một
phương thức nâng cao tự nhiên từ công nghệ cần thiết để cung cấp các dịch
vụ khác nhau cho tới sự cần thiết cung cấp các dịch vụ bảo đảm.
o Cái giá cho việc thực thi và triển khai các dịch vụ đảm bảo (Gruaranteed
Service) cao hơn so với dịch vụ phân biệt (Differentiated service).
2.5. Tóm tắt chương
Trong chương 2, chúng ta đã là quen với các khái niệm cơ bản về chất lượng
dịch vụ (QoS) cũng như kiến trúc cơ bản của QoS.
Chất lượng dịch vụ (QoS) cung cấp dịch vụ khác biệt ( Differentiated service),
cung cấp mức ưu tiên cao hơn cho các luồng hay dịch vụ đảm bảo (Guranteed service)
cung cấp sự đảm bảo mức độ dịch vụ. Cả hai tương phản với Best-effort service, cung
cấp những gì mà được xem như là có rất ít QoS.
Dịch vụ đảm bảo ( Guaranteed Service ) và Dịch vụ tải được điều khiển
(Controlled Load Service), cả hai đều tập trung vào những đòi hỏi của ứng dụng riêng
lẻ.
Dịch vụ đảm bảo được định nghĩa để cung cấp mức độ chắc chắn của băng
thông, một biên trễ đầu cuối-đầu không đổi, không mất mát hàng đợi; và nó được dự
kiến cho các ứng dụng thời gian thực như thoại và video. Định nghĩa dịch vụ tải được
điều khiển không bao gồm bất kì một sự đảm bảo chất lượng chắc chắn nhưng nó đúng
hơn là “ sự xuất hiện của một mạng tải nhẹ”. Nó dự định dành cho các ứng dụng mà có
thể dung sai trong một khoảng giới hạn lượng mất mát và trễ, bao gồm các ứng dụng
thời gian thực thích nghi.
Để có thể đạt được các mục tiêu đã đề ra và cung cấp các dịch vụ dự kiến, mô
hình IntServ gồm rất nhiều các tham số lưu lượng như tốc độ và giới hạn chùng (slack
term) cho dịch vụ đảm bảo; và tốc độ trung bình và kích cỡ bùng nổ (burst size) cho
dịch vụ tải được điều khiển. Để thiết lập giá trị những tham số này trong một mạng và
để cung cấp dịch vụ đảm bảo cho lưu lượng thời gian thực, RSVP được phát triển như
giao thức báo hiệu cho việc dành sẵn và điều khiển hiện.
Kiến trúc IntServ đã thoả mãn cả hai điều kiện cho mạng QoS. Nó cung cấp
băng thông thích hợp và tài nguyên hàng đợi cho mỗi luồng ứng dụng ( một “vi
luồng”). Tuy nhiên triển khai IntServ với RSVP đòi hỏi trạng thái mỗi vi luồng và báo
hiệu ở mỗi chặng. Nó thêm sự phức tạp đáng kể đối với việc vận hành mạng và không
linh hoạt. Vì thế mô hình IntServ chỉ được triển khai ở một số hữu hạn mạng, và IETF
đã chuyển sang phát triển hướng DiffServ thay thế với sự phức tạp tối thiểu.
3.2.2 DiffServ
Kiến trúc DiffServ thừa nhận một khía cạnh trái ngược với IntServ. Nó định
nghĩa Cấp độ dịch vụ (CoS), gọi là toàn thể (Aggregates), và chức năng quản lý tài
nguyên QoS với mỗi node, hay mỗi chặng (Per-Hop). Các định nghĩa CoS bao gồm
hành vi toàn thể (BA) xác định những yêu cầu cho việc sắp xếp (scheduling) và loại bỏ
gói, và thứ tự toàn thể (OA) thực hiện dựa trên phân loại chỉ dựa trên yêu cầu sắp xếp,
và có thể gồm vài giá trị loại bỏ ưu tiên. Vì thế OA là cách phân loại thô hơn BA và có
thể gồm vài BA. Hành vi của node định nghĩa tương ứng với các định nghĩa CoS.
Hành vi cho mỗi chặng (PHB) liên quan tới BA, trong khi sắp xếp cấp độ hành vi mỗi
chặng (PSC-PHB Scheduling Class) phục vụ OA. Các quá trình PHB gồm sắp xếp và
loại bỏ gói, trong khi PSC chỉ đề cập tới việc sắp xếp.
Mô hình DiffServ dựa vào việc định nghĩa lại ý nghĩa của 8 bit trường ToS
trong tiêu đề IP. Định nghĩa ToS gốc không được triển khai rộng rãi, và bây giờ nó bị
chia thành 6 bit giá trị DSCP và 2 bit phần ECN
Ưu tiên D T R C O
Trong hình 12, Các chữ cái biểu thị như sau : D = Delay, T = Throughput, R =
Reliability, C = Cost, ECN = Explicit Congestion Notification
Giá trị của trường DSCP được dùng để định BA ( ví dụ : một lớp), được sử
dụng tuỳ theo node DiffServ để chọn PHB phù hợp. Mười bốn PHB đã được định
nghĩa, gồm một cho chuyển tiếp đã giải quyết (EF), mười hai cho chuyển tiếp chắc
chắn (AF), và một cho mặc định hoặc Best-Effort PHB. Mười hai AF PHB được chia
thành 4 PSC, và mỗi AF-PSCs chứa ba hành vi phụ liên quan tới cách thức loại bỏ gói
khác nhau.
Tóm lại, mô hình DiffServ cho phép mạng phân loại (kết hợp) các vi luồng
thành luồng toàn thể (BAs) và sau đó cho phép cư xử khác nhau toàn thể ở mỗi node
có khả năng DiffServ. Cách cư xử này được phản ánh trong quá trình phục vụ hàng đợi
bao gồm sắp xếp và loại bỏ gói. PHB được phản ánh trong cả sắp xếp và loại bỏ gói
trong khi PSC chỉ áp dụng cho sắp xếp.
3.2.3 MPLS
a) MPLS-TE
Phương pháp chuyển mạch nhãn đầu tiên được hình thành để cải thiện chức
năng định tuyến, nhưng sự thúc đẩy này đã được giảm bớt với các thành tựu trong thiết
kế router và tốc độ chuyển mạch đường của gói IP tự nhiên. Nhưng sau đó ưu điểm
quan trọng nhất của kiến trúc MPLS qua chuyển tiếp IP tự nhiên trở nên rõ ràng. Bản
chất hướng kết nối của MPLS cho phép các nhà cung cấp dịch vụ có thể triển khai TE
trong mạng của họ và đạt được rất nhiều mục đích, gồm đảm bảo băng thông, định
tuyến thay đổi, cân bằng tải, dư thừa tuyến, và các dịch vụ khác dẫn tới QoS
[TE-REQ] nêu vấn đề và đòi hỏi triển khai TE trong mạng MPLS. Nó cung
cấp định nghĩa chung của TE như tập hợp các quá trình cho việc tối ưu hóa chức năng
vận hành mạng để thu được các mục tiêu đã đặt ra và miêu tả cách thức MPLS hỗ trợ
TE bằng việc điều khiển và các quá trình đo kiểm.
[TE-REQ] sử dụng khái niệm tuyến lưu lượng (TT) MPLS là toàn thể các
luồng lưu lượng cùng cấp độ đặt trong một LSP. Phân biệt một cách nguyên tắc giữa
TT và LSP là TT là luồng lưu lượng toàn thể, trong khi LSP là một tuyến mà một TE
đi qua mạng. Ví dụ, trong suốt qua trình, TT có thể sử dụng nhiều LSP khác nhau,
[TE-REQ] miêu tả một framework cho việc ánh xạ các TT thành các LSP bằng việc
xem xét tập hợp ba khả năng:
o Các thuộc tính TT
o Phân bổ tài nguyên mà được sắp xếp ràng buộc cho TT
o phương pháp định tuyến ràng buộc mà cho phép chọn các LSP cho các TT
Thuộc tính TT của đối tượng được quan tâm là các tham số lưu lượng, mức ưu
tiên, quyền ưu tiên. Thuộc tính tham số lưu lượng có thể bao gồm các giá trị tốc độ
đỉnh, tốc độ trung bình, kích thước bùng nổ và các yêu cầu tài nguyên khác của một
tuyến lưu lượng mà có thể được sử dụng để cấp phát tài nguyên và tránh tắc nghẽn.
Thuộc tính mức ưu tiên cho phép quá trình định tuyến ràng buộc thiết lập một thứ tự
trong việc lựa chọn tuyến mà các TT ưu tiên cao hơn sẽ có cơ hội đòi hỏi tài nguyên
mạng trước so với các TTs ưu tiên thấp hơn. Tham số quyền ưu tiên xác định khi nào
một TT có thể hay không thể ưu tiên và có thể hay không thể được ưu tiên bởi TT
khác.
Thuộc tính tài nguyên là các tham số trạng thái giao thức như cấp phát hợp
kênh tối đa (MAM) cho phép người vận hành mạng cấp phát hơn hoặc kém tài nguyên
hơn khả năng của tuyến để thu được mục đích đăng kí rất sớm hay dự trữ trước một
cách thích hợp; và thuộc tính cấp độ tài nguyên cho phép người vận hành mạng phân
loại tài nguyên mạng và áp dụng vào việc kiểm soát dựa trên cấp độ tài nguyên.
Định tuyến ràng buộc, đôi khi còn xem như “định tuyến QoS” cho phép một
nhu cầu được thúc đẩy (demand-driven), môi trường định tuyến nhận thức dành sẵn tài
nguyên nơi một I-LER tự động xác định tuyến hiện cho mỗi TT mà nó xử lý.
khiển lưu lượng (TE). Vì vậy phần “TE” của RSVP-TE được hiểu một cách đúng cách
là “Mở rộng đường hầm” hơn là kĩ thuật điều khiển lưu lượng. Cũng vì thế, các kí hiệu
khác nhau tồn tại liên quan tới giao thức đã được định nghĩa trong [RSVP]; luận văn
này theo các thuật ngữ của [RSVP-TE] và gọi RSVP gốc là “RSVP chuẩn”.
RSVP-TE hoạt động trên các router có khả năng RSVP nơi mà mở rộng đường
hầm cho phép tạo các LSP đã được định tuyến hiện, cung cấp khả năng định tuyến lại
dễ dàng, và phát hiện lặp. Vài điểm khác biệt cơ bản giữa giao thức RSVP chuẩn và
RSVP-TE gồm :
o RSVP chuẩn cung cấp báo hiệu giữa các cặp host; RSVP cung cấp báo hiệu
giữa các cặp LERs.
o RSVP chuẩn ứng dụng cho các luồng đơn host-tới-host; RSVP-TE tạo trạng
thái cho luồng lưu lượng. Một LSP đường hầm thường tập hợp toàn thể các
đa luồng host-tới-host và vì thế giảm số lượng trạng thái RSVP trong mạng.
o RSVP chuẩn sử dụng giao thức định tuyến chuẩn hoạt động dựa vào địa chỉ
đích; RSVP-TE sử dụng IGPs mở rộng và định tuyến ràng buộc.
Nhưng cũng giống như RSVP chuẩn, RSVP-TE cũng hỗ trợ các mô hình dịch
vụ IntServ phong phú và cách phân phối các tham số điều kiện lưu lượng như tốc độ
trung bình, tốc độ đỉnh và kích thước bùng nổ cho dịch vụ tải đã điều khiển. Những
đặc điểm này cho phép mạng với MPLS-TE và RSVP-TE cung cấp các dịch vụ phong
phú với đòi hỏi QoS chặt chẽ. Một thiếu sót của giải pháp này là không có quá trình
loại bỏ gói. Một công nghệ quan tâm tới vấn đề này và cung cấp cách thức khác để
đảm bảo QoS được nói tới ở phần 3.
3.3 MPLS với DiffServ
3.3.1. MPLS hỗ trợ DiffServ
Bây giờ khi mà cả MPLS và DiffServ đã được xem xét, chúng ta có thể thảo
luận một công nghệ mà kết hợp hai giải pháp để đảm bảo QoS. Chúng ta hãy nhớ lại là
DiffServ cung cấp các cư xử QoS với toàn thể lưu lượng. Đó là một giải pháp linh hoạt
và vận hành đơn giản vì nó không đòi hỏi báo hiệu và trạng thái mỗi luồng. Tuy nhiên
nó không thể đảm bảo QoS, bởi vì nó không chi phối tuyến mỗi gói, và vì thế trong
suốt quá trình lỗi hoặc nghẽn, thậm chí gói ưu tiên cao cũng không được đảm bảo băng
thông.
Mặt khác, MPLS có thể đẩy gói theo những tuyến đã định và kết hợp với định
tuyến ràng buộc-có thể đảm bảo băng thông cho các FEC. Nhưng ở dạng cơ bản
MPLS không xác định các cư xử dựa trên cấp độ mỗi luồng.
Kết hợp phân loại dựa trên DiffServ và PHB với MPLS dựa trên TE dẫn tới
chất lượng dịch vụ thực sự trong mạng chuyển mạch gói đường trục. Các quá trình để
MPLS hỗ trợ DiffServ được miêu tả trong RFC3270[MPLS-DiffServ].
[MPLS-DiffServ] định nghĩa hai loại LSP : E-LSP và L-LSP. Trong E-LSP,
một nhãn được sử dụng để chỉ thị FEC đích, và 3 bit trường Exp được sử dụng để chỉ
thị cấp độ của luồng để chọn PHB của nó, bao gồm sắp xếp và loại bỏ ưu tiên. Chú ý
rằng DiffServ sử dụng 6 bit để định nghĩa các BA và tương ứng với các PHB, trong
khi E-LSP chỉ có 3 bít cho chức năng trên.
Trong L-LSP, nhãn được sử dụng để chỉ thị cả FEC đích và kế hoạch ưu tiên.
Trường Exp trong L-LSP chỉ được sử dụng để chỉ thị việc loại bỏ ưu tiên.
Ánh xạ giữa tiêu đề IP với DiffServ và tiêu đề chèn MPLS cho E-LSP và L-
LSP được chỉ ra trong hình 13 và 14 một cách tương ứng.Trong những hình này thuật
ngữ “5 tuple” liên quan tới 5 trường trong tiêu đề IP, bao gồm địa chỉ nguồn, địa chỉ
đích IP, cổng nguồn và đích TCP hay UDP, và giao thức có thể được sử dụng cho FEC
đang định nghĩa. Tất cả các thuật ngữ dựa vào kiến trúc DiffServ
OA
BA
OA
BA
Chú ý rằng hình 13 và 14 biểu diễn ánh xạ một phần của tiêu đề gói IP tự
nhiên và nhãn và phần EXP của tiêu đề chèn MPLS. Chúng không tỉ lệ và không biểu
diễn toàn bộ cấu trúc của tiêu đề
Mỗi loại LSP có ưu điểm và nhược điểm của nó. E-LSP dễ vận hành và linh
hoạt hơn bởi vì nó bảo vệ nhãn và sử dụng trường EXP cho thành phần DiffServ.
Nhưng thực tế báo hiệu MPLS dành sẵn băng thông trên cơ sở mỗi LSP, băng thông
dành cho toàn bộ LSP và không có đảm bảo dựa trên PSC, và có thể thiếu băng thông
trong phục vụ hàng đợi một vài PSC nào đó.
Mặt khác, L-LSP có quá nhiều vấn đề với việc dự trữ, bởi vì cần thiết có nhiều
nhãn gắn cho tất cả các PSC của tất cả FEC. Nhưng (bởi vì nhãn mang thông tin về sắp
xếp) khi băng thông được dành sẵn cho một LSP đã cho, nó kết hợp với hàng đợi ưu
tiên mà LSP đó thuộc về.
Hai hình tiếp theo biểu diễn làm sao định tuyến và QoS cải thiện chất lượng
định tuyến mạng bằng việc sử dụng MPLS cơ bản và sau đó MPLS có hỗ trợ DiffServ.
LSR 2
I-LSR E-LSR
Hình 15 biểu diễn sự khác nhau giữa một tuyến bởi các gói mà theo con đường
ngắn nhất (1) và tuyến đã được điều khiển lưu lượng (2). Tuyến (2) có thể được chọn
bởi vì nó có đủ băng thông để phục vụ một FEC đã định, nhưng băng thông này lại
không được kết hợp với bất kì cấp độ dịch vụ nào, và thế lưu lượng ưu tiên (ví dụ
VoIP) không thể có đủ băng thông cho hàng đợi nhất định của nó.
Hình 16 biểu diễn một cải tiến trong kiến trúc so với hình 15. Tuyến (1) và (2)
của hình trước được vẽ như đường đứt quãng. Trong mô hình kiến trúc này MPLS hỗ
trợ công nghệ DiffServ được triển khai, và có thể dành sẵn băng thông ứng với các
hàng đợi ưu tiên nhất định. Chúng ta hãy thừa nhận rằng lưu lượng VoIP sử dụng hàng
đợi 0, là hàng đợi hàng đầu trong mọi LSP.
(1)Đường ngắn nhất không có MPLS-TE
LSR-4 có thể có đủ băng thông qua tất cả các hàng đợi của nó, nhưng nó
không có đủ băng thông trong hàng đợi 0 và vì thế , tuyến (2) không cung cấp QoS lại
thích hợp cho lưu lượng VoIP. Đó là vì sao chúng ta lại qua hàng đợi VoIP ở LSR-4.
Nhưng nếu một L-SLP được sử dụng hàng đợi 0 với băng thông dành sẵn xác định,
sao đó lưu lượng có thể đi qua tuyến (3) qua LSR-2 và LSR-3, và VoIP có thể nhận
được với sự đảm bảo QoS.
Tóm lại MPLS hỗ trợ DiffServ thoả mãn cả hai điều kiện của QoS : đảm bảo
băng thông và cư xử với các dịch vụ hàng đợi được phân biệt. MPLS thoả mãn điều
kiện thứ nhất : ví dụ nó thúc đẩy các luồng ứng dụng theo các tuyến với băng thông
đảm bảo; và dọc theo những tuyến đó DiffServ thoả mãn điều kiện thứ hai bằng việc
cung cấp dịch vụ hàng đợi được phân biệt đối xử.
Chú ý rằng MPLS hỗ trợ DiffServ vẫn còn đơn giản hơn và linh hoạt hơn
IntServ với RSVP chuẩn. IntServ đòi hỏi báo hiệu mỗi vi luồng và trạng thái mỗi vi
luồng trong mỗi router. Ngược lại, các LSP có thể bản thân nó là toàn thể các vi luồng
và vì thế đòi hỏi báo hiệu ít hơn. Thêm vào đó, router không lưu giữ trạng thái mỗi vi
luồng. Thay vào đó các LSR giữ thông tin toàn thể về băng thông khả dụng cho tất cả
các LSP hay cho mỗi hàng đợi ưu tiên.
Mô hình DS-TE cũng định nghĩa một quá trình cho phép giải phóng băng
thông chia sẻ bị chiếm giữ bởi các lưu lượng ưu tiên thấp hơn khi lưu lượng ưu tiên
cao hơn tới. Nó đưa ra khái niệm cấp độ điều khiển lưu lượng (TE-class), một TE-
class được định nghĩa bởi hai tham số: Kiểu cấp độ (CT) và mức độ ưu tiên (p). Hai
hay nhiều TE-class có thể bao gồm cùng CT với các giá trị p khác nhau, hay các CT
khác nhau với cùng giá trị p, vì thế cho phép ưu tiên và phục vụ trước các LSP trong
và giữa các CT.
Để triển khai DS-TE, các IGP(OSPF-TE và ISIS-TE) và LDP(RSVP-TE) phải
được mở rộng theo các mở rộng dựa trên MPLS-TE đã được định nghĩa để mang thêm
thông tin như đã miêu tả trong [DSTE-PRO]. Chú ý rằng [DSTE-PRO] không lặp lại
các định nghĩa, các TLV và các đối tượng đã được định nghĩa trong [OSPF-TE], [ISIS-
TE], và [RSVP-TE] mà chỉ đưa ra các thành phần và cải tiến mới.
Để mở rộng IGPs, nó định nghĩa thêm các TLV phụ mang giá trị của BC và
băng thông không được phục vụ cho mỗi cấp độ TE. Cũng như vậy, RSVP-TE được
mở rộng bằng việc định trong thông điệp tuyến một “đối tượng CLASSTYPE” mới
bao gồm một trường CT. Vì thế các giao thức được mở rộng cho phép LSR quản lý
việc đánh giá và ra quyết định trên cơ sở mỗi cấp độ. Ví dụ LSR có thể tính băng
thông được tận dụng bởi tất cả các tuyến lưu lượng trên cơ sở mỗi mức quyền ưu tiên,
tạo quyết định mỗi khi nhận một TT mới mà được thiết lập bởi thông điệp tuyến, và
tính toán băng giá trị thông không được phục vụ để sử dụng bởi IGPs.
Mô hình DS-TE cung cấp nhiều sự linh hoạt cho việc thực hiện điều khiển lưu
lượng. Ví dụ nó cho phép gán các CT vào kế hoạch hàng đợi LSR và khi kế hoạch đòi
băng thông, kế hoạch sẽ điều chỉnh các tham số băng thông của mỗi hàng đợi với trạng
thái dành sẵn của nhóm lưu lượng dịch vụ. Sự điều chỉnh của kế hoạch có thể là động,
khi sự dành sẵn bởi các LSP dựa trên cấp độ mới tăng hay giảm , hay không đổi, bằng
việc điều chỉnh cấu hình kế hoạch với tải liệu trước một cách chính xác.
Có vô vàn lý do có thể áp dụng việc thiết lập cấp phát băng thông tối đa cho
các loại lưu lượng khác nhau. Ví dụ để cung cấp điều khiển biến thiên trễ tốt hơn với
các ứng dụng thời gian thực mà chia sẻ một tuyến với nhiều lưu lượng dữ liệu bùng
nổ, phần trăm tuyến được sử dụng bởi lưu lượng thời gian thực được giữ ở mức thấp
(thường dưới 50%). Phần trăm tối đa này là cái sau đó BC sẽ được kết hợp với CT thời
gian thực. Trong khi việc sử dụng của BC quá và trên mức dự trữ băng thông cấp độ
nhạy cảm là tuỳ ý trong DS-TE, người vận hành mạng mà cấu hình trước các thông số
đảm bảo băng thông trong kế hoạch hàng đợi của nó có thể quyết định gán các BC tới
tất cả các CT nó mang. Mục đích của việc này là để điều khiển việc dành sẵn lưu
lượng của các CT để thích ứng với các thông số đảm bảo băng thông đã được cấu hình
trước.
Định nghĩa mối quan hệ giữa CoS và CT cũng rất ngỏ đối với việc thực hiện
của người điều hành mạng. Một cấp độ lưu lượng nào đó có thể không đủ khác biệt
vớicái khác để bảo đảm sự tách biệt các PSC và băng thông đảm bảo. Một ví dụ lấy
bối cảnh khi hai loại gói thoại, VoIP và VoATM không nén, được mang qua mạng
MPLS. Hai cấp độ lưu lượng thời gian thực có thể được gán các kế hoạch cư xử khác
nhau một cách hợp lý, bây giờ áp dụng giới hạn phần trăm băng thông đơn lẻ cho cả
hai. Chúng rồi sẽ được đối xử một cách thích hợp như một CT. Tuy nhiên, có thể nên
đặt chúng vào hai cấp độ TE khác nhau mà cả hai có cùng giá trị CT nhưng khác nhau
giá trị quyền ưu tiên p.
Vì thế mục đích mô hình DS-TE cung cấp khả năng điều khiển linh hoạt và
đảm bảo tài nguyên mạng trên cơ sở mỗi cấp độ và cho phép QoS mức lõi cao.
Trong hình 19 gói tới một trong N giao diện biên lối vào. Nó được phân loại
và được chuyển tiếp tới giao diện biên lối ra thích hợp khi chúng được đặt vào một
hàng đợi ưu tiên tương ứng. Hình 19 chỉ ra hình ảnh mở rộng của giao diện biên lối ra
1. Giao diện hỗ trợ bốn hàng đợi ưu tiên, từ 0 tới 3. và kế hoạch đẩy gói ra từ mỗi hàng
đợi dựa trên ưu tiên của nó.
Hình 19 biểu diễn hình ảnh đơn giản của hàng đợi biên lối ra, nhưng các E-
LSP và L-LSP phức tạp hơn như miêu tả trong [Qmgmt]. Ví dụ hàng đợi có thể cấp
phát mỗi CoS cho mỗi LSP. Trong bối cảnh đó, nếu một E-LSP hỗ trợ bốn kế hoạch
cư xử khác nhau và nếu có hai E-LSP như thế, LSR sẽ có tám hàng đợi ưu tiên khác
nhau, mỗi cái cho mỗi CoS của LSP. Sự sắp xếp này sẽ rất khó quản lý và không linh
hoạt.
Một cách sắp xếp thay thế là có một tập hợp nhỏ hàng đợi cho mỗi giao diện
biên lối ra. Gói tới những hàng đợi này thường biểu diễn các LSP khác nhau, nhưng
hàng đợi được quản lý với khía cạnh loại bỏ và sắp xếp như là chúng biểu diễn một
luồng đơn. [QMgmt] khuyến cáo cách thức này cho các giai đoạn đầu tiên của MPLS
hỗ trợ DiffServ. Với cách này, L-LSP biểu diễn một mức ưu tiên đơn lẻ và sự phân
chia tài nguyên cho một L-LSP dẫn tới đảm bảo băng thông như đã thảo luận ở trên.
Mặt khác, LSP có thể biểu diễn vài kế hoạch ưu tiên; cấp phát tài nguyên cho một E-
LSP không thực hiện việc mọi CoS sẽ dành tài nguyên hàng đợi nhất định. Trong
mạng hoàn thiện hơn, có thể có nhiều các hàng đợi nhân và các mức ưu tiên, và E-LSP
cũng có thể được sử dụng cho dịch vụ bảo đảm.
3.5. Các thành phần QoS trong MPLS-UNI
Các thảo luận ở trên và rất nhiều phương pháp đã được phân tích để cung cấp
QoS trong mạng MPLS. Nhưng trong kiến trúc mạng thực tế, mạng MPLS được cung
cấp trong miền nhà cung cấp và không mở rộng phần khách hàng. Một lý do khác cho
điều này là báo hiệu LSP truyền thống được xử lý bởi các LER, và nếu các LER được
đặt tại phần khách hàng, nhà cung cấp sẽ phải mang cho khách hàng một vài chức
năng điều khiển qua mạng đường trục của họ. Lý do khác là khách hàng có các cấp
dịch vụ khác nhau về sự phức tạp và tài nguyên, và họ có thể không mong phải liên
quan tới việc quản lý mạng.
Nhưng, như đã nói trong [E2E-QoS], để có thể đảm bảo QoS đầu cuối-đầu
cuối, các quá trình QoS phải được cung cấp ở tất cả các phần hợp thành mạng, và
chúng phải được ánh xạ một cách thích hợp ở giao diện giữa các mạng khác nhau.
Thực tế, như chúng ta đã thảo luận trong phần giới thiệu, phần truy cập của mạng có
thể là tuyến yếu nhất trong giới hạn của QoS, và phải được thiết kế cẩn thận cho khả
năng hoạt động QoS.
Diễn đàn MPLS đã thừa nhận vai trò hàng đầu trong định nghĩa giao diện dựa
trên MPLS giữa phần khách hàng và nhà cung cấp dịch vụ mạng dựa trên MPLS. Giao
diện đó gọi là giao diện người dùng tới mạng MPLS (MPLS-UNI) và nó được miêu tả
trong [MPLS-UNI]
[MPLS-UNI] miêu tả báo hiệu qua UNI như hình 20
Trong hình 20 chức năng Ru và Rd biểu diễn các router luồng lên và luồng
xuống như được định nghĩa trong [MPLS-Arch]. Kí hiệu nhà cung cấp biên (PE) và
khách hàng biên (CE) được kế thừa từ [VPN] để làm cho rõ ràng khi liên hệ tới nhà
cung cấp và khách hàng. Xem rằng một LSP luôn theo một hướng duy nhất, theo
hướng luồng dữ liệu từ PE tới CE thì PE là Ru và CE là Rd; theo hướng luồng dữ liệu
từ CE tới PE thì PE là Rd và CE là Ru.
Phần quan trọng trong định nghĩa MPLS UNI là mục đích để tối thiểu chức
năng CE và thực tế rằng các LSP được định nghĩa qua UNI không mở rộng trong
mạng nhà cung cấp, nhưng là liên kết chéo ở PE với LSP của nhà cung cấp. [MPLS -
UNI] sử dụng một giao thức LSP mở rộng cho báo hiệu dựa trên phương pháp luồng
xuống theo yêu cầu. Quá trình báo hiệu bắt đầu với việc thiết lập kết nối TCP giữa PE
và CE. Sau đó PE gửi tới CE yêu cầu nhãn cho LSP PE tới CE. Ở đây CE là node
“luồng xuống”, và khi nó nhận được yêu cầu, nó cung cấp ràng buộc nhãn cho tất cả
thuộc tính mà được xác định trong yêu cầu nhãn. Tại thời điểm này, để báo hiệu LSP
CE-tới-PE, CE phải gửi yêu cầu tới PE, sử dụng chính xác thuộc tính như đã được
cung cấp trong yêu cầu của PE. Vì thế hành vi của CE là khá đơn giản và tự do quyết
định. Quá trình báo hiệu được hoàn thành khi PE đáp lại với ràng buộc nhãn cho LSP
CE-tới-PE.
Phiên bản hiện tại của [MPLS-UNI] chỉ quan tâm tới hướng PVC (kết nối ảo
cố định) được đặc trưng bởi sự dự phòng của nhà cung cấp và tính thụ động CE. Công
việc tương lai sẽ mở rộng kiến trúc này thành MPLS UNI SVCs (Switched Virtual
Connection) nơi CE sẽ có thể yêu cầu báo hiệu cho việc thiết lập hay kết thúc LSP.
Trong khi [MPLS-UNI] miêu tả báo hiệu qua MPLS UNI dẫn tới thiết lập các
LSP hai chiều, công việc đang phát triển ở Liên minh MPLS/ Frame Relay cũng
nghiên cứu các kết nối dịch vụ mà có thể chạy trên đỉnh của những LSP này. Các kết
nối dịch vụ MPLS UNI sẽ cung cấp cho khách hàng một truy cập MPLS vào dịch vụ
mạng riêng ảo qua nhà cung cấp dịch vụ mạng cũng như các dịch vụ khác của nhà
cung cấp, như Internet, cổng VoIP, và những thứ khác nữa. Các dịch vụ này có thể tự
động cung cấp bởi nhà cung cấp tới khách hàng, với một sự liên quan khách hàng tối
thiểu. Chức năng MPLS UNI tương tự như kết nối ATM và Frame Relay nơi các kết
nối ảo khách hàng được kết hợp với LSP và không phải với các giao diện, và vì thế ví
dụ vài VPN có thể được hỗ trợ qua một giao diện dơn. Hình 21 biểu diễn khái niệm
này
Trong hình 21 PE bên trái hỗ trợ hai CE khác nhau thuộc về hai VPN khác
nhau. PE ở dưới có một giao diện đơn với một CE, nhưng CE này liên quan tới cả hai
VPN mà được phân biệt bởi các LSP được định nghĩa qua UNI này.
Liên minh MPLS/ Frame Relay là việc trên các dịch vụ UNI cũng sẽ miêu tả
các thuộc tính dịch vụ phong phú mà có thể được cấu hình bởi PE ở CE. Một trong các
thuộc tính sẽ là Profile QoS bao gồm cấp độ QoS (ví dụ : thời gian thực), đánh dấu
QoS, băng thông, trễ và dành sãn rung pha, các yêu cầu khả dĩ và các tham số khác.
Profile sẽ cho phép SP cung cấp QoS cần thiết cho các luồng qua UNI, cũng như để
ánh xạ nó tới mạng các LSP. Vì thế QoS sẽ được phục vụ trước và ánh xạ thích hợp ở
giao diện giữa khách hàng và nhà cung cấp mạng.
Trong khi môi trường dịch vụ MPLS PVC UNI được quản lý toàn bộ bởi các
PE, thì MPLS SVC UNI cũng sẽ cho phép CE yêu cầu cải tiến dịch vụ.
3.6. Tóm tắt chương
Chương 3 đã đưa ra các mô hình dịch vụ có thể cung cấp QoS như Dịch vụ
tích hợp (IntServ), Dịch vụ khác biệt (DiffServ) hay MPLS với MPLS-TE và RSVP-
TE. Với các ưu điểm của DiffServ như đơn giản, linh hoạt kết hợp với công nghệ điều
khiển lưu lượng (TE), MPLS-TE kết hợp với DiffServ được xem là mô hình mạng hỗ
trợ QoS thực sự trong mạng đường trục.
KẾT LUẬN
Sự ra đời của mạng thế hệ sau (Next Generation Network-NGN) gắn liền với
những thay đổi cơ bản trong quan niệm, tổ chức, và công nghệ. MPLS được coi là một
công nghệ tiềm năng cho mạng NGN trong thời gian tới. Tuy nhiên để phát triển lên
NGN thì cần phải đáp ứng được các yêu cầu chất lượng dịch vụ ngày càng cao của các
ứng dụng trong tương lai như thoại, multimedia, hay hội nghị từ xa…
Phương pháp ban đầu để có QoS trong mạng chuyển mạch gói tập trung chủ
yếu vào việc đưa thêm vào băng thông giờ được thay thế với các quá trình phức tạp mà
cho phép các nhà cung cấp dự trữ và vận hành mạng thêm chính xác. Quá trình này
được thúc đẩy bởi hai động lực chính : (1) giảm CAPEX đòi hỏi thậm chí thêm băng
thông và (2) sinh và thêm thu nhập bằng việc cung cấp các dịch vụ giá trị gia tăng với
thoả thuận cấp độ dịch vụ (SLA) nghiêm ngặt hơn.
Với các dịch vụ mạng tiên tiến, như VoIP, đòi hỏi đảm bảo băng thông cứng.
Trong khi kiến trúc IntServ chỉ cung cấp một sự linh hoạt thay thế nhưng nó có hạn
chế là không cung cấp sự đảm bảo. Vì vậy việc kết hợp DiffServ và công nghệ MPLS
trong mạng chuyển mạch gói dẫn tới cho phép đảm bảo QoS cứng; và những sự đảm
bảo này vơi sự linh hoạt cao hơn và giảm sự phức tạp so với IntServ. Những sự cải
tiến này là kết quả của đặc tính phân cấp ngăn xếp và FEC toàn thể của mạng MPLS
cũng như trạng thái toàn thể duy trì bởi các node hỗ trợ DiffServ.
Một lĩnh vực chính khác được quan tâm xem xét trong phạm vi đề tài là sự mở
rộng của mạng biên MPSL tới phần khách hàng mà không cần mất mát điều khiển qua
cung cấp và vận hành mạng của họ. MPLS UNI cung cấp một giải pháp quan trọng
cho việc mở rộng MPLS tới giao diện PE-TE [MPLS-UNI] và kích hoạt QoS và các
dịch vụ phong phú qua giao diện này. MPLS UNI cho phép QoS giữa khách hàng và
miền nhà cung cấp, vì thế hỗ trợ các đối tuợng QoS đầu cuối- đầu cuối.