کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
11032919 1645032 2018 42 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
Learning in the machine: Recirculation is random backpropagation
ترجمه فارسی عنوان
یادگیری در دستگاه: رگ گردن به صورت تصادفی بازگردانده می شود
کلمات کلیدی
اتوکدرها، یادگیری بی نظیر، تکرار، بازپرداخت، بازگشت به صورت تصادفی، همگرایی،
ترجمه چکیده
یادگیری در سیستم های عصبی فیزیکی باید بر قوانین یادگیری تکیه کند که در فضا و زمان محلی هستند. یادگیری بهینه در معماری های عمیق عصبی مستلزم آن است که اطلاعات غیر محلی برای سیناپس عمیق در دسترس باشد. بنابراین، به طور کلی، یادگیری مطلوب در سیستم های عصبی فیزیکی نیاز به حضور یک کانال یادگیری عمیق برای برقراری ارتباط اطلاعات غیر محلی به سیناپس های عمیق، در جهت مخالف انتشار پیشین فعالیت ها دارد. استدلال های نظری بیان می کند که برای کلاس های عددی دایره ای، یک کلاس مهم از معماری عصبی که لایه خروجی آن با لایه ورودی یکسان است، الگوریتم های جایگزین ممکن است وجود داشته باشد که امکان یادگیری محلی را بدون نیاز به کانال های یادگیری اضافی فراهم می کند، با استفاده از کانال فعال سازی پیش فرض به عنوان عمق کانال یادگیری در اینجا ما به طور سیستماتیک، چندین الگوریتم یادگیری محلی را شناسایی، طبقه بندی و مطالعه می کنیم، بر اساس ایده کلی اطلاعات جمع آوری شده از لایه خروجی به لایه های پنهان. ما از طریق شبیه سازی و مشتقات ریاضی نشان می دهیم که این الگوریتم ها قوی هستند و به نقاط بحرانی تابع خطای جهانی همگرا هستند. در اغلب موارد، ما نشان می دهیم که این الگوریتم های تجدید پذیر بسیار شبیه به یک فرم سازگار از بازگشت مجدد تصادفی است، جایی که هر یک از لایه های پنهان یک نسخه خطی تبدیل شده و به آرامی متغیر خطای خروجی را دریافت می کند.
موضوعات مرتبط
مهندسی و علوم پایه مهندسی کامپیوتر هوش مصنوعی
چکیده انگلیسی
Learning in physical neural systems must rely on learning rules that are local in both space and time. Optimal learning in deep neural architectures requires that non-local information be available to the deep synapses. Thus, in general, optimal learning in physical neural systems requires the presence of a deep learning channel to communicate non-local information to deep synapses, in a direction opposite to the forward propagation of the activities. Theoretical arguments suggest that for circular autoencoders, an important class of neural architectures where the output layer is identical to the input layer, alternative algorithms may exist that enable local learning without the need for additional learning channels, by using the forward activation channel as the deep learning channel. Here we systematically identify, classify, and study several such local learning algorithms, based on the general idea of recirculating information from the output layer to the hidden layers. We show through simulations and mathematical derivations that these algorithms are robust and converge to critical points of the global error function. In most cases, we show that these recirculation algorithms are very similar to an adaptive form of random backpropagation, where each hidden layer receives a linearly transformed, slowly-varying, version of the output error.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Neural Networks - Volume 108, December 2018, Pages 479-494
نویسندگان
, ,