کد مقاله | کد نشریه | سال انتشار | مقاله انگلیسی | نسخه تمام متن |
---|---|---|---|---|
412221 | 679619 | 2014 | 8 صفحه PDF | دانلود رایگان |
عنوان انگلیسی مقاله ISI
Improvement of the convergence speed of a discrete-time recurrent neural network for quadratic optimization with general linear constraints
ترجمه فارسی عنوان
بهبود سرعت همگرایی شبکه عصبی مکرر گسسته برای بهینه سازی درجه دوم با محدودیت خطی عمومی
دانلود مقاله + سفارش ترجمه
دانلود مقاله ISI انگلیسی
رایگان برای ایرانیان
کلمات کلیدی
شبکه های عصبی زمان گسسته، شبکه عصبی مکرر، بهینه سازی دو بعدی، بهینه سازی محدود، تهویه مطبوع
موضوعات مرتبط
مهندسی و علوم پایه
مهندسی کامپیوتر
هوش مصنوعی
چکیده انگلیسی
In this work a specific preconditioning technique is developed to improve the convergence speed of a discrete-time recurrent neural network for quadratic optimization with general linear constraints. The discrete-time network is a model recently published with the broadest range of applicability to various optimization problems and constraints. The proposed preconditioning technique is shown to improve the convergence speed of the model significantly, and thus contribute to enhance the application of the model in these problems. In addition to the theoretical analysis, extensive experimental results are presented to illustrate the technique developed, and to show the significant improvement attained.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Neurocomputing - Volume 144, 20 November 2014, Pages 493–500
Journal: Neurocomputing - Volume 144, 20 November 2014, Pages 493–500
نویسندگان
María José Pérez-Ilzarbe,