کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
8941791 1645032 2018 47 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
Evolving Spiking Neural Networks for online learning over drifting data streams
ترجمه فارسی عنوان
توسعه شبکه های عصبی اسپایک برای یادگیری آنلاین بر روی جریان داده های روان شناختی
کلمات کلیدی
شبکه های عصبی اسپایکینگ، کاهش اطلاعات، یادگیری آنلاین، مفهوم رانش
ترجمه چکیده
امروزه حجم زیادی از داده ها به صورت جریان سریع تولید می شود که بیشتر به دلیل پدیده های غیر ثابت می باشد. عدم وجود استراتژی در توزیع داده های تولید شده، الگوریتم های کارآمد و مقیاس پذیر برای تحلیل آنلاین را قادر می سازد که با چنین تغییراتی (راندگی مفهومی) سازگار باشد. فیلد یادگیری آنلاین اخیرا تمرکز خود را بر این سناریوی چالش برانگیز با طراحی الگوریتم های یادگیری افزایشی که پس از یک ریزش مفهومی جلوگیری می شود، منعکس می کند. علیرغم فعالیت های ذکر شده در ادبیات، نیاز به الگوریتم های کارآمد و مقیاس پذیر جدید که با ریزش سازگار می شوند، همچنان به عنوان یک موضوع پژوهشی شایسته تلاش بیشتر مورد حمایت قرار می گیرند. به طرز شگفتانگیزی، شبکهای عصبی اسپیکر، یکی از شاخصهای مهم نسل سوم شبکههای عصبی مصنوعی، به عنوان یک رویکرد یادگیری آنلاین مورد مطالعه قرار نگرفته اند، هرچند که به طور طبیعی برای راحتی و سرعت سازگاری با محیطهای متغیر مناسب هستند. این کار این شکاف تحقیق را با تطبیق شبکه های عصبی اسپیکر برای رفع نیازهای پردازش که سناریوهای یادگیری آنلاین را تحمیل می کنند، پوشش می دهد. به ویژه کار بر روی محدود کردن اندازه مخزن نورون و ایجاد بیشترین استفاده از این اندازه محدود با استفاده از تکنیک های کاهش داده می شود. آزمایشات با مجموعه داده های مصنوعی و واقعی مورد بحث قرار گرفته است، که منجر به ادعای تجربی معتبر می شود که به موجب استثمار مناسب مخزن نورون، شبکهای عصبی اسپایکینگ بهتر برای ریزش ها سازگاری دارند، نمرات دقت بیشتری را نسبت به نسخه های ساده ای از شبکه های عصبی اسپایک محیط یادگیری
موضوعات مرتبط
مهندسی و علوم پایه مهندسی کامپیوتر هوش مصنوعی
چکیده انگلیسی
Nowadays huge volumes of data are produced in the form of fast streams, which are further affected by non-stationary phenomena. The resulting lack of stationarity in the distribution of the produced data calls for efficient and scalable algorithms for online analysis capable of adapting to such changes (concept drift). The online learning field has lately turned its focus on this challenging scenario, by designing incremental learning algorithms that avoid becoming obsolete after a concept drift occurs. Despite the noted activity in the literature, a need for new efficient and scalable algorithms that adapt to the drift still prevails as a research topic deserving further effort. Surprisingly, Spiking Neural Networks, one of the major exponents of the third generation of artificial neural networks, have not been thoroughly studied as an online learning approach, even though they are naturally suited to easily and quickly adapting to changing environments. This work covers this research gap by adapting Spiking Neural Networks to meet the processing requirements that online learning scenarios impose. In particular the work focuses on limiting the size of the neuron repository and making the most of this limited size by resorting to data reduction techniques. Experiments with synthetic and real data sets are discussed, leading to the empirically validated assertion that, by virtue of a tailored exploitation of the neuron repository, Spiking Neural Networks adapt better to drifts, obtaining higher accuracy scores than naive versions of Spiking Neural Networks for online learning environments.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Neural Networks - Volume 108, December 2018, Pages 1-19
نویسندگان
, , , , ,