Tổng quan về những ứng dụng của mạng nơ-ron trong điều khiển

Tài liệu Tổng quan về những ứng dụng của mạng nơ-ron trong điều khiển: Những vấn đề chung Tạp chí Nghiên cứu KH&CN quân sự, Số Đặc san ACMEC, 07 - 2016 3 TỔNG QUAN VỀ NHỮNG ỨNG DỤNG CỦA MẠNG NƠ-RON TRONG ĐIỀU KHIỂN Nguyễn Hoài Nam* Tóm tắt: Bài báo sẽ giới thiệu về mạng nơ-ron, phương pháp huấn luyện mạng và những ứng dụng trong lĩnh vực điều khiển. Một số kết quả nghiên cứu nổi bật trong những năm gần đây sẽ được trình bày. Cuối cùng, những thuận lợi, khó khăn và hướng phát triển của mạng nơ-ron trong điều khiển được đưa ra. Từ khóa: Mạng nơ-ron, Nhận dạng, Tối ưu, Điều khiển, Phương pháp huấn luyện mạng, Điều khiển dự báo theo mô hình, Điều khiển theo mô hình mẫu, Điểm giả cực trị. 1. ĐẶT VẤN ĐỀ Mạng nơ-ron ra đời từ những năm 1940 bởi McCulloch và Pitts [1]. Hai tác giả này là những người đầu tiên đưa ra một mô hình toán học của nơ-ron. Với mô hình này, các đầu vào của nơ ron được nhân với các trọng số, sau đó được đưa vào bộ tổng. Đầu ra của bộ tổng sẽ được so sánh với một giá trị ngưỡng để xác định đầu ra của nơ-ron có kí...

pdf8 trang | Chia sẻ: quangot475 | Lượt xem: 420 | Lượt tải: 0download
Bạn đang xem nội dung tài liệu Tổng quan về những ứng dụng của mạng nơ-ron trong điều khiển, để tải tài liệu về máy bạn click vào nút DOWNLOAD ở trên
Những vấn đề chung Tạp chí Nghiên cứu KH&CN quân sự, Số Đặc san ACMEC, 07 - 2016 3 TỔNG QUAN VỀ NHỮNG ỨNG DỤNG CỦA MẠNG NƠ-RON TRONG ĐIỀU KHIỂN Nguyễn Hoài Nam* Tóm tắt: Bài báo sẽ giới thiệu về mạng nơ-ron, phương pháp huấn luyện mạng và những ứng dụng trong lĩnh vực điều khiển. Một số kết quả nghiên cứu nổi bật trong những năm gần đây sẽ được trình bày. Cuối cùng, những thuận lợi, khó khăn và hướng phát triển của mạng nơ-ron trong điều khiển được đưa ra. Từ khóa: Mạng nơ-ron, Nhận dạng, Tối ưu, Điều khiển, Phương pháp huấn luyện mạng, Điều khiển dự báo theo mô hình, Điều khiển theo mô hình mẫu, Điểm giả cực trị. 1. ĐẶT VẤN ĐỀ Mạng nơ-ron ra đời từ những năm 1940 bởi McCulloch và Pitts [1]. Hai tác giả này là những người đầu tiên đưa ra một mô hình toán học của nơ-ron. Với mô hình này, các đầu vào của nơ ron được nhân với các trọng số, sau đó được đưa vào bộ tổng. Đầu ra của bộ tổng sẽ được so sánh với một giá trị ngưỡng để xác định đầu ra của nơ-ron có kích thích hay không. Mạng nơ-ron này đã được chứng tỏ là có khả năng xấp xỉ các hàm lô gíc và hàm đại số. Sau đó mạng nơ-ron nhiều lớp được đưa ra vào những năm 1960, tuy nhiên, ở giai đoạn đó chưa có phương pháp huấn luyện mạng nào để có thể huấn luyện được mạng nhiều lớp. Do đó, có một khoảng thời gian dài những nghiên cứu về mạng nơ-ron gần như bế tắc. Cho đến năm 1986, Rumelhart and McClelland đã đưa ra thuật toán lan truyền ngược để huấn luyện mạng nơ-ron [2]. Từ đó những nghiên cứu về mạng nơ-ron lại bắt đầu bùng nổ. Dựa trên cơ sở thuật toán lan truyền ngược, đã có rất nhiều phương pháp huấn luyện mạng khác nhau như hạ nhanh nhất, hướng liên hợp, hiệu chỉnh hệ số học và Marquardt [3]. Thuật toán Marquardt ra đời từ năm 1963 [4] bởi tác giả Marquardt. Ông đã phát triển thuật toán dựa trên nghiên cứu của Levenberg. Hagan [3] đã chỉ ra rằng thuật toán Marquardt hiệu quả hơn hẳn so với các phương pháp khác đặc biệt về tốc độ hội tụ khi kích thước của mạng nơ-ron lên tới hàng trăm thông số. Mặc dù mạng nơ-ron ra đời từ rất lâu và đã được ứng dụng rộng rãi và thành công trong các lĩnh vực như phân loại mẫu, nhận dạng mẫu, xấp xỉ dữ liệu, nhưng những ứng dụng trong lĩnh vực nhận dạng và điều khiển các hệ thống động học vẫn còn khá mới mẻ và ít được quan tâm. Cho đến những năm đầu của thập kỷ 90, mạng nơ-ron mới được nghiên cứu và ứng dụng vào nhận dạng và điều khiển [5], [6], [7]. Mạng nơ-ron có thể được sử dụng như mô hình cho đối tượng hoặc bộ điều khiển. Lớp các mạng nơ-ron này thường là mạng nơ-ron động học và có hồi qui. Để huấn luyện mạng hồi qui này người ta thường sử dụng thuật toán lan truyền ngược [8]. Horn đã chỉ ra rằng khi huấn luyện một lớp mạng hồi qui sẽ gặp những khó khăn vì có rất nhiều vùng giả cực trị [9]. Tác giả này đã sử dụng phương pháp phân tích các nghiệm của đa thức ngẫu nhiên để phân tích những nguyên nhân gây ra các vùng giả cực trị này. Trên cơ sở đó một số giải pháp đã được đưa ra để tránh các vùng giả cực trị này trong quá trình huấn luyện mạng như: (1) dùng hàm mục tiêu gồm tổng các sai số bình phương cộng với tích của hệ số điều chỉnh nhân với tổng bình phương các trọng số, phương pháp này sẽ Điều khiển – Cơ điện tử - Truyền thông N.H.Nam, “Tổng quan về nơ-ron trong điều khiển.” 4 ép các trọng số của mạng nơ-ron về vùng ổn định trong quá trình huấn luyện mạng; (2) dùng nhiều chuỗi dữ liệu huấn luyện mạng khác nhau, ta có thể dùng một chuỗi để huấn luyện mạng với một số lần học, sau đó chuyển sang sử dụng chuỗi khác hoặc có thể tính gradient cho các chuỗi, sau đó lấy giá trị gradient trung bình; (3) chọn các giá trị ban đầu cho các trọng số của mạng một cách ngẫu nhiên. Phan [11] cũng đưa ra một đề xuất mới cho việc tránh các điểm giả cực trị dựa trên thông tin gradient lớn nhất của các chuỗi, chuỗi có gradient lớn nhất sẽ bị loại bỏ khỏi quá trình huấn luyện mạng. Jafari [12] đã đưa ra phương pháp chọn khoảng dự báo tối ưu trong quá trình huấn luyện mạng. Phương pháp này giúp quá trình huấn luyện mạng nhanh hơn và tránh được những vùng giả cực trị. Có nhiều cấu trúc điều khiển sử dụng mạng nơ-ron khác nhau đã được đề xuất. Trong bài báo này, chỉ một số dạng chính được trình bày, như là điều khiển dự báo, điều khiển tuyến tính hóa phản hồi và điều khiển tham chiếu mô hình [13]. Việc lựa chọn cấu trúc cho mạng nơ-ron như thế nào trước khi huấn luyện mạng cũng là một vấn đề rất quan trọng. Nếu cấu trúc mạng hợp lý ta có thể huấn luyện được mạng, ngược lại ta sẽ không thể huấn luyện mạng. Hiện tại chưa có phương pháp lựa chọn cấu trúc mạng một cách tổng quát cho bài toán nhận dạng đối tượng bất kỳ, tuy nhiên cũng có những kỹ thuật được sử dụng để chỉnh định cấu trúc mạng trong quá trình huấn luyện mạng [14, 15, 16, 17] như thêm hoặc bớt nơ-ron, lựa chọn cấu trúc mạng sử dụng giải thuật di truyền. Việc huấn luyện mạng có thể bắt đầu bằng một cấu trúc mạng đơn giản nhất, sau đó tăng dần số nơ-ron hoặc bắt đầu bằng một cấu trúc mạng lớn, sau đó sẽ bỏ dần số nơ-ron đi. Ngoài ra, giải thuật di truyền, phương pháp phân loại mẫu cũng có thể được sử dụng để lựa chọn cấu trúc mạng. Nội dung tiếp theo của bài báo được trình bày như sau. Phần hai sẽ giới thiệu về cấu trúc mạng nơ-ron động học và phương pháp huấn luyện mạng này. Phần tiếp theo sẽ trình bày về các cấu trúc hệ thống điều khiển dựa trên cơ sở mạng nơ ron. Phần cuối sẽ đưa ra những nhận xét, gợi ý và kết luận. 2. MẠNG NƠ-RON ĐỘNG HỌC 2.1. Cấu trúc mạng nơ-ron động học Hình 1. Ví dụ về mạng nơ-ron hồi quy. Mạng nơ ron động học gồm nhiều lớp, trong đó đầu ra của mỗi lớp có thể được phản hồi trở về đầu vào của lớp đó hoặc các lớp trước thông qua khối trễ TDL (Tapped Delay Lines). Khối trễ này gồm nhiều khâu trễ có hàm truyền là 1/z được mắc nối tiếp với nhau. Những vấn đề chung Tạp chí Nghiên cứu KH&CN quân sự, Số Đặc san ACMEC, 07 - 2016 5 Nếu đầu vào của khối TDL là ( )u t thì đầu ra của nó sẽ là các tín hiệu đầu vào và tín hiệu đầu vào trong quá khứ ( 1)u t , ( 2)u t , ..., ( )u t m , với m là số khâu trễ mắc nối tiếp trong khối TDL. Hình 1 là một ví dụ về mạng nơ-ron động học hồi quy. Mạng này gồm có 2 lớp, mỗi lớp 1 và 2 có số nơ-ron lần lượt là 1S và 2S . 1f và 2f lần lượt là các véc tơ hàm truyền của lớp 1 và lớp 2. 1b và 2b lần lượt là các véc tơ bias của lớp 1 và lớp 2. Các khối ,Wi jL (layer weight) là các ma trận trọng số liên kết giữa đầu ra của lớp thứ j với đầu vào của lớp thứ i. Các khối ,IWi j (input weight) là các ma trận trọng số liên kết giữa đầu vào thứ j với đầu vào của lớp thứ i. Đối với mạng truyền thẳng, người ta đã chứng minh được rằng mạng này có thể xấp xỉ một hàm phi tuyến bất kỳ với độ chính xác bất kỳ [18]. Tuy nhiên với mạng nơ-ron hồi quy thì việc huấn luyện mạng trở lên khó khăn hơn rất nhiều vì có hồi tiếp. Tại mỗi thời điểm t, các đầu ra của mạng ở thời gian trước đó được phản hồi về đầu vào của lớp trước. Nhưng do đầu ra của mạng chưa đúng, do đó giá trị phản hồi về cũng chưa đúng, dẫn tới đầu ra của mạng nơ-ron càng không đúng. Quá trình hồi tiếp này cứ lặp đi lặp lại làm cho đầu ra của mạng nơ-ron càng có sai số lớn hơn so với giá trị đầu ra mẫu. Nếu các tham số của mạng lại rơi vào vùng không ổn định thì đầu ra của mạng lại tiến tới giá trị lớn hơn hoặc vô cùng, điều này càng làm cho mạng nơ-ron khó huấn luyện hơn nữa. Mặt khác việc tính đạo hàm đầu ra của mạng theo các tham số liên quan tới hồi tiếp cũng phức tạp hơn rất nhiều so với mạng truyền thẳng. Mạng nơ-ron động học hồi qui có thể được dùng như mô hình toán học cho các đối tượng động học và phi tuyến khi thiết kế các bộ điều khiển dự báo và điều khiển tham chiếu theo mô hình. Mạng này cũng có thể được sử dụng như bộ điều khiển nơ-ron theo phương pháp điều khiển tham chiếu mô hình. 2.2. Huấn luyện mạng nơ-ron động học Huấn luyện mạng nơ ron động học hồi qui gồm 2 giai đoạn: mạng hở và mạng kín. Mạng hở được hình thành bằng cách bỏ đường hồi tiếp từ đầu ra của mạng nơ-ron quay trở về đầu vào của lớp ra hoặc các lớp trước đó. Khi đó mạng hở sẽ có thêm một đầu vào. Để tiện sử dụng, chúng ta có thể đặt tên cho đầu vào phụ này là đầu vào hở. Đầu vào này thực chất là đầu ra của mạng nơ-ron ban đầu. Khi huấn luyện mạng hở thay vì sử dụng đầu ra của mạng làm tín hiệu vào mẫu cho đầu vào hở chúng ta sẽ sử dụng đầu ra mẫu. Giả sử ta có một tập hợp các đầu vào và ra mẫu dùng để huấn luyện mạng lần lượt là:    ; ; 1:kkP p T t k N   . Như vậy, tập mẫu đầu vào dùng để huấn luyện mạng hở sẽ là  ; ; 1:kkP p t k N  , còn tập mẫu đầu ra vẫn được giữ nguyên. Khi đó các trọng số liên kết giữa đầu ra của mạng với lớp thứ i của mạng ,Wi oL sẽ trở thành các trọng số liên kết giữa đầu vào hở với lớp thứ i ,2IWi . Nói các khác: ,2IW i = ,Wi oL (1) trong đó i biểu diễn lớp thứ i, 2 biểu diễn đầu vào hở, o biểu diễn đầu ra của mạng, IW là trọng số đầu vào (Input Weight), LW là trọng số lớp (Layer Weight). Điều khiển – Cơ điện tử - Truyền thông N.H.Nam, “Tổng quan về nơ-ron trong điều khiển.” 6 Giả sử mạng có nhiều khối TDL liên kết giữa đầu vào và đầu ra với các lớp. Gọi im là số khâu trễ của khối TDL thứ i liên kết giữa đầu vào hoặc đầu ra của mạng với một lớp nào đó của mạng. Đặt  max , 1:id m i M  , trong đó M là số khối TDL của mạng. Như vậy, để tính toán đầu ra của mạng ta phải có d điều kiện đầu cho các khối TDL. Do đó, khi huấn luyện mạng hở sẽ phải sử dụng d mẫu làm điều kiện đầu và N-d mẫu còn lại dùng để huấn luyện mạng. Sau khi huấn luyện mạng hở, nếu sai số đủ nhỏ, có nghĩa là đầu ra của mạng gần đúng với mẫu khi cho cùng một tín hiệu mẫu tác động vào đầu vào, chúng ta sẽ chuyển sang huấn luyện mạng kín. Nếu sai số còn lớn, chúng ta cần phải thay đổi cấu trúc mạng như số lớp và số nơ-ron của mỗi lớp, số trễ của mỗi khâu TDL. Khi huấn luyện mạng kín, chúng ta sẽ sử dụng các giá trị trọng số và bias của mạng hở đã được huấn luyện làm thông số ban đầu cho mạng kín. Nhưng các trọng số liên kết giữa đầu ra của mạng với lớp thứ i sẽ là các trọng số liên kết giữa đầu vào thứ 2 với lớp thứ i. Khi đó: ,Wi oL = ,2IW i (2) Để huấn luyện mạng kín, chúng ta không thể sử dụng toàn bộ tập mẫu như huấn luyện mạng hở. Mỗi khi đưa một tín hiệu đầu vào mẫu tới mạng nơ-ron ta sẽ thu được đầu ra của mạng nơ-ron tương ứng, giá trị này sẽ được so sánh với đầu ra mẫu, trên cơ sở sai lệch sẽ hiệu chỉnh các thông số của mạng. Với bộ thông số mới của mạng sẽ cho giá trị đầu ra của mạng gần đúng với đầu ra mẫu. Do đó, vẫn có sai số giữa đầu ra của mạng với đầu ra mẫu. Khi chúng ta cho mẫu tiếp theo vào mạng nơ-ron thì tín hiệu đầu ra của mạng ở thời điểm trước đó sẽ được phản hồi trở về đầu vào của lớp trước. Do giá trị này không đúng, đầu ra của mạng nơ-ron càng có sai số lớn hơn so với đầu ra mẫu. Nếu như số khâu trễ càng nhiều, thì đầu ra của mạng nơ-ron càng có sai số lớn hơn nữa vì các giá trị của đầu ra trong quá khứ cũng có sai số. Sai số này càng được tích lũy khi mà số mẫu đưa vào mạng tăng lên. Như vậy, thay vì ta dùng tất cả các mẫu để huấn luyện mạng kín một lúc, ta sẽ chia tập mẫu thành các tập con có số mẫu nhỏ hơn, chẳng hạn c mẫu. Tất nhiên, số mẫu này phải lớn hơn số trễ, tức là c d . Trường hợp đơn giản nhất là 1c d  . Từ phương trình /N c mc f  , ta có m chuỗi mẫu có cùng độ dài là c. Ta sẽ dùng m chuỗi này để huấn luyện mạng kín. Nếu thành công, tăng c lên thành c = c + 1 và tiếp tục huấn luyện mạng kín với các chuỗi có độ dài là c + 1. Quá trình này tiếp tục cho tới khi c = N – d thì kết thúc. Việc huấn luyện mạng kín như thế này sẽ mất rất nhiều thời gian. Gần đây một phương phác xác định c sau mỗi lần huấn luyện mạng kín một cách tối ưu [12]. Đầu tiên là sẽ tính lần lượt MSE (sai số bình phương trung bình) với các chuỗi có độ dài là c + k với k = 1, 2, Sau đó sẽ tìm các giá trị cực tiểu cục bộ của MSE theo c’ = c + k. Cuối cùng sẽ tìm giá trị MSE nhỏ nhất trong số các giá trị cực tiểu. Giá trị c’ ứng với giá trị MSE nhỏ nhất sẽ được chọn làm độ dài của các chuỗi dùng để huấn luyện mạng kín ở bước tiếp theo. Với cách này, quá trình huấn luyện mạng kín sẽ nhanh hơn. 3. HỆ THỐNG ĐIỀU KHIỂN DỰA TRÊN CƠ SỞ MẠNG NƠ-RON Trong phần này, hai ứng dụng của mạng nơ-ron trong lĩnh vực điều khiển sẽ được trình bày: điều khiển dự báo và điều khiển tham chiếu mô hình. Cả hai bài toán này đều liên Những vấn đề chung Tạp chí Nghiên cứu KH&CN quân sự, Số Đặc san ACMEC, 07 - 2016 7 quan tới việc sử dụng mạng-ron động học làm mô hình toán học cho đối tượng. Trên cơ sở đó các bộ điều khiển nơ-ron sẽ được thiết kế. Việc huấn luyện mạng nơ-ron động này sẽ được thực hiện giống như ở phần 2.2. Tập mẫu được dùng để huấn luyện mạng được thu thập từ các đầu vào và ra của đối tượng. Thường đầu vào mẫu sẽ là một tín hiệu có dạng là một chuỗi các hàm bước nhẩy có biên độ và độ rộng ngẫu nhiên. Phần tiếp theo, các bộ điều khiển dự báo và bộ điều khiển tham chiếu theo mô hình sẽ được giới thiệu. 3.1. Điều khiển dự báo Trên hình 2 là sơ đồ cấu trúc của hệ thống điều khiển dự báo sử dụng mạng nơ-ron. Cấu trúc này giống hoàn toàn với cấu trúc hệ thống điều khiển dự báo thông thường, chỉ có một điểm khác đó là mô hình đối tượng và bộ điều khiển đều là các mạng nơ-ron động học. Đối với điều khiển dự báo, mô hình đối tưởng cần phải được xây dựng đủ độ tin cậy và chính xác để đảm bảo chất lượng của hệ thống kín. Điều này sẽ được đảm bảo bởi vì mạng nơ-ron là một bộ xấp xỉ vạn năng. Vấn đề khó khăn là huấn luyện mạng nơ-ron động học, bởi vì các điểm giả cực trị sẽ ngăn cản việc tìm đúng điểm cực trị. Khi có mô hình toán là mạng nơ-ron có đủ độ chính xác, bộ điều khiển nơ-ron sẽ được tính toán dựa trên các phương pháp tối ưu để tìm ra tín hiệu điều khiển tối ưu sao cho đầu ra của đối tượng bám theo đầu ra của mô hình mẫu. Quá trình chỉnh định các tham số của bộ điều khiển nơ- ron sẽ diễn ra liên tục sau mỗi chu kỳ lấy mẫu. Hình 2. Sơ đồ cấu trúc hệ thống điều khiển dự báo sử dụng mạng nơ-ron. Ưu điểm của cấu trúc điều khiển dự báo dựa trên mạng nơ-ron là không phải xây dựng mô hình toán của đối tượng từ các định luật cơ bản và nhận dạng các tham số của mô hình này. Nhược điểm của hệ thống chính là việc tránh các điểm giả cực trị trong quá trình huấn luyện mạng động để đảm bảo độ chính xác của mô hình mạng nơ-ron. 3.2. Điều khiển tham chiếu mô hình Đối với cấu trúc hệ thống này ta phải huấn luyện cả mạng nơ-ron của đối tượng và mạng nơ-ron của bộ điều khiển. Tuy nhiên tập mẫu của bộ điều khiển nơ-ron sẽ được thu thập từ mô hình mẫu. Còn tập mẫu cho mô hình nơ-ron của đối tượng thì vẫn được thu thập từ đầu vào ra của đối tượng thật. Điều khiển – Cơ điện tử - Truyền thông N.H.Nam, “Tổng quan về nơ-ron trong điều khiển.” 8 Hình 3. Sơ đồ cấu trúc hệ thống điều khiển theo mô hình mẫu sử dụng mạng nơ-ron. Đầu tiên ta sẽ huấn luyện mạng nơ-ron của đối tượng. Đầu vào mẫu có dạng là một chuỗi các hàm bước nhẩy có biên độ ngẫu nhiên trong khoảng giá trị cho phép của đầu vào và độ dài của mỗi hàm bước nhẩy cũng ngẫu nhiên. Tín hiệu vào mẫu này sẽ được tác động lên đối tượng, sau đó ta sẽ tiến hành đo đầu ra tương ứng của đối tượng. Bộ tín hiệu vào ra mẫu này sẽ dùng để huấn luyện mạng nơ-ron của đối tượng. Trong thực tế, nếu đối tượng đang làm việc, chúng ta có thể thu thập bộ tín hiệu mẫu vào ra bằng cách đo các đầu vào và đầu ra của đối tượng. Sau khi huấn luyện xong mạng nơ-ron của đối tượng ta sẽ kết hợp mạng này với mạng nơ-ron của bộ điều khiển thành một mạng nơ-ron mới, trong đó các tham số của mạng nơ- ron của bộ điều khiển chưa được huấn luyện. Khi huấn luyện mạng mới này thì các tham số của mạng nơ-ron của đối tượng sẽ được giữ nguyên, chỉ cập nhật và thay đổi các tham số của mạng nơ-ron của bộ điều khiển. Để huấn luyện mạng nơ-ron mới, ta cần phải có một bộ dữ liệu mẫu, trong đó đầu vào mẫu sẽ là giá trị đặt mẫu r, còn đầu ra mẫu sẽ được lấy từ đầu ra của mô hình mẫu. Mô hình mẫu là một mô hình toán học mà đầu ra của nó thể hiện các giá trị mong muốn của đầu ra đối tượng. Thường mô hình mẫu được chọn là một hệ thống ổn định, có thời gian xác lập và độ quá điều chỉnh nhỏ và phù hợp với đối tượng cần điều khiển. Hệ thống mẫu này thường là hệ tuyến tính. Phương pháp điều khiển này phù hợp với bài toán ổn định đầu ra của đối tượng theo giá trị đặt trước và trong trường hợp ta không có hoặc không xây được mô hình toán của đối tượng từ các phương kháp khác. 4. KẾT LUẬN Trong bài báo này, mạng nơ-ron động học và phương pháp huận luyện mạng này đã được giới thiệu. Các phương pháp mới để tránh các điểm giả cực trị trong quá trình huấn luyện mạng cũng được tóm tắt và trình bày lại. Trên cơ sở đó một số ứng dụng của mạng nơ-ron động học trong nhận dạng và điều khiển đã được khái quát. Ưu điểm của các bộ điều khiển nơ-ron ở đây là không cần mô hình toán của đối tượng, do đó không cần phải xây dựng mô hình toán và nhận dạng các tham số của mô hình. Việc này sẽ giảm chi phí và thời gian cho việc thiết kế bộ điều khiển. Tuy nhiên, nhược điểm chính của bộ điều Những vấn đề chung Tạp chí Nghiên cứu KH&CN quân sự, Số Đặc san ACMEC, 07 - 2016 9 khiển nơ-ron là các điểm giả cực trị. Nghiên cứu tiếp theo sẽ hướng tới các phương pháp tránh các điểm giả cực trị cho một lớp mạng nơ-ron cụ thể. TÀI LIỆU THAM KHẢO [1]. W. McCulloch and W. Pitts. "A logical calculus of the ideas immanent in nervous activity," Bulletin of Mathematical Biophysics, Vol. 5, 1943, pp.115-133. [2]. D. E. Rumelhart and J. L. McClelland, "Parallel Distributed Processing: Explorations in the Microstructure of Cognition," MIT Press, Vol. 1, 1986. [3]. M. Hagan and M. Menhaj, "Training Feedforward Networks with the Marquardt Algorithm," IEEE Transactions on Neural Networks, Vol. 5, No. 6, November 1994, pp. 989-993. [4]. D. Marquardt, “An algorithm for least squares estimation of non-linear parameters,” J. Soc. Ind. Appl. Math., 1963, pp. 43141. [5] Kumpati S. Narendra and Kannan Parthasarathy, “Identification and Control of Dynamical Systems Using Neural Networks,” IEEE Trans. On Neural Networks, Vol. 1. No. 1. March 1990. [6]. M. Hagan and H. Demuth, "Neural Networks for Control," Invited Tutorial, American Control Conference, San Diego, June 1999, pp. 1642-1656. [7] K. J. Hunt, D. Sbarbaro, R. Zbikowski and P. J. Gawthrop, “Neural Networks for Control Systems – A survey, ” Automatica, Vol. 28, No. 6, 1992, pp. 1083-1112. [8]. O. De Jesus and M. Hagan, "Backpropagation Algorithms for a Broad Class of Dynamic Networks," IEEE Transactions on Neural Networks, Vol. 18, No. 1, January 2007. K [9]. J. Horn, O. De Jesús and M. Hagan, “Spurious Valleys in the Error Surface of Recurrent Networks - Analysis and Avoidance,” IEEE Transactions on Neural Networks, Vol. 20, No. 4, April 2009. [10]. M. Phan and M. Hagan, "A Procedure for Training Recurrent Networks," International Joint Conference on Neural Networks, August 2013, Dallas, TX. [11]. M. Phan and M. Hagan, “Error Surface of Recurrent Networks,” IEEE Transactions on Neural Networks and Learning Systems, Vol. 24, No. 11, October, 2013. [12]. A. H. Jafari and M. T. Hagan "Enhanced recurrent network training," Neural Networks (IJCNN), 2015. [13]. M. T. Hagan, H. B. Demuth and O. D. Jesus, “An introduction to the use of neural networks in control system,” International Journal of Robust and Nonlinear Control, Vol. 12, No. 11, September, 2002. [14]. F. H. F. Leung, H. K. Lam, S. H. Ling, and P. K. S. Tam, “Tuning of the Structure and Parameters of a Neural Network Using an Improved Genetic Algorithm,” IEEE Trans. Neur. Netw. Vol. 14, No. 1, January 2003. [15]. G. B. Huang, P. Saratchandran, and N. Sundararajan, “A Generalized Growing and Pruning RBF Neural Network for Function Approximation,” IEEE Trans. Neur. Netw. Vol. 16, No. 1, January 2005. Điều khiển – Cơ điện tử - Truyền thông N.H.Nam, “Tổng quan về nơ-ron trong điều khiển.” 10 [16]. K. Suzuki, I. Horiba, N. Sugie, “A Simple Neural Network Pruning Algorithm with Application to Filter Synthesis,” Neural Processing Letters, Vol. 13, Iss. 1, pp 43-53, February 2001. [17]. E. D. Karnin, “A simple procedure for pruning back-propagation trained neural networks,” IEEE Trans. Neur. Netw. Vol. 1. No. 2. June 1990. [18]. K. Hornik, M. Stinchcombe and H. White, “Multilayer feedforward networks are universal approximators,” IEEE Trans. Neur. Netw. Vol. 2, Iss. 5, 1989. ABSTRACT AN OVERVIEW OF THE APPLICATION FOR RECURRENT NEURAL NETWORKS IN CONTROL The recurrent neural networks, training methods and application in control are introduced in this article. Some outstanding research resutls have been presented in recent years. Finally, the advantages, the disadvantages and developing trends in control are given. Keywords: Neural networks, Control, Identification, Optimization, Training procedure, Model predictive control, Model reference control, Spurious valleys. Nhận bài ngày 02 tháng 04 năm 2016 Hoàn thiện ngày 23 tháng 06 năm 2016 Chấp nhận đăng ngày 04 tháng 07 năm 2016 Địa chỉ: Đại học Bách khoa Hà Nội. *Email: nam.nguyenhoai@hust.edu.vnR O P t

Các file đính kèm theo tài liệu này:

  • pdf1_nam_van_de_chung_8569_2150191.pdf
Tài liệu liên quan