Global asymptotic stability and global exponential stability of continuous-time recurrent neural networks

Sanqing Hu, Jun Wang

Результат исследований: Вклад в журналСтатьярецензирование

64 Цитирования (Scopus)

Аннотация

This note presents new results on global asymptotic stability (GAS) and global exponential stability (GES) of a general class of continuous-time recurrent neural networks with Lipschitz continuous and monotone nondecreasing activation functions. We first give three sufficient conditions for the GAS of neural networks. These testable sufficient conditions differ from and improve upon existing ones. We then extend an existing GAS result to GES one and also extend the existing GES results to more general cases with less restrictive connection weight matrices and/or partially Lipschitz activation functions.

Язык оригиналаАнглийский
Страницы (с-по)802-807
Число страниц6
ЖурналIEEE Transactions on Automatic Control
Том47
Номер выпуска5
DOI
СостояниеОпубликовано - мая 2002
Опубликовано для внешнего пользованияДа

Fingerprint

Подробные сведения о темах исследования «Global asymptotic stability and global exponential stability of continuous-time recurrent neural networks». Вместе они формируют уникальный семантический отпечаток (fingerprint).

Цитировать