کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
531189 869817 2010 8 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
A new convex objective function for the supervised learning of single-layer neural networks
ترجمه فارسی عنوان
تابع هدف محدب جدید برای یادگیری با نظارت شبکه‌های عصبی تک لایه‌‌‌
کلمات کلیدی
شبکه های تک لایه عصبی، بهینه کلی، روش یادگیری نظارت شده، حداقل مربعات، بهینه سازی محدب، یادگیری افزایشی
فهرست مطالب مقاله
چکیده
مقدمه‌
تعریف روش پیشنهادی
تنظیم تابع هدف: تعیین میزان خطا (‌MSE)
تابع هدف جدید: تعیین میزان خطا‌( MSE)پیش از غیرخطی شدن‌
یک مثال همراه توضیح
شبیه سازیها
آنالیز مقایسه‌ای با روش‌های پیشین
تحقیقات تطبیقی (مقایسه‌ای) با دیگر الگوریتم‌های استاندارد
نتیجه‌گیری‌ها
ترجمه چکیده
در این مقاله روش نوین یادگیری با نظارت برای ارزیابی شبکه‌های تغذیه رو به جلو عصبی تک‌لایه ارائه می‌شود. این روش از تابع‌هدفی بر مبنایMSE استفاده می‌کند، که خطاها را به جای این‌که پس از تابع فعالسازی غیرخطی نرون‌ها ارزیابی کند قبل از آن‌ها بررسی می‌کند. در این گونه موارد، راه‌حل را می‌توان به سهولت از طریق حل معادلات در سیستم‌های خطی به‌دست آورد یعنی در این روش نسبت به روش‌های معین و مرسوم پیشین به محاسبات کمتری نیاز است. تحقیقات تئوری شامل اثبات موازنه‌های تقریبی بین بهینۀ جهانی تابع هدف بر مبنای معیار MSE و یک تابع پیشنهادی دیگر می‌باشد. بعلاوه مشخص شده است که این روش قابلیت توسعه و توزیع آموزش را دارا می‌باشد. طی تحقیقات تجربی جامع نیز تنوع صحت در انرمان این روش مشخص شده است. این تحقیق شامل 10 دسته‌بندی ((Classification و 16 مسئله‌ی بازگشتی می‌باشد. بعلاوه، مقایسه‌این روش با دیگر الگوریتم‌های آموزشی با عملکرد بالا نشان می‌دهد که روش مذکور بطور متوسط بیشترین قابلیت اجرایی را داشته و به حداقل محاسبات در این روش نیاز می‌باشد.
موضوعات مرتبط
مهندسی و علوم پایه مهندسی کامپیوتر چشم انداز کامپیوتر و تشخیص الگو
چکیده انگلیسی
This paper proposes a novel supervised learning method for single-layer feedforward neural networks. This approach uses an alternative objective function to that based on the MSE, which measures the errors before the neuron's nonlinear activation functions instead of after them. In this case, the solution can be easily obtained solving systems of linear equations, i.e., requiring much less computational power than the one associated with the regular methods. A theoretical study is included to proof the approximated equivalence between the global optimum of the objective function based on the regular MSE criterion and the one of the proposed alternative MSE function. Furthermore, it is shown that the presented method has the capability of allowing incremental and distributed learning. An exhaustive experimental study is also presented to verify the soundness and efficiency of the method. This study contains 10 classification and 16 regression problems. In addition, a comparison with other high performance learning algorithms shows that the proposed method exhibits, in average, the highest performance and low-demanding computational requirements.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Pattern Recognition - Volume 43, Issue 5, May 2010, Pages 1984–1992
نویسندگان
, , , ,