کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
407383 678140 2016 10 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
A new deep neural network based on a stack of single-hidden-layer feedforward neural networks with randomly fixed hidden neurons
ترجمه فارسی عنوان
یک شبکه عصبی عمیق جدید مبتنی بر مجموعه ای از شبکه های عصبی فیدر لایه ی مخفی با نورون های پنهان به طور تصادفی ثابت
کلمات کلیدی
لایه ی مخفی شبکه ی عصبی تنظیم مقدمه، یادگیری بی نظیر، جاسازی ساختار انباشته شده
موضوعات مرتبط
مهندسی و علوم پایه مهندسی کامپیوتر هوش مصنوعی
چکیده انگلیسی

Single-hidden layer feedforward neural networks with randomly fixed hidden neurons (RHN-SLFNs) have been shown, both theoretically and experimentally, to be fast and accurate. Besides, it is well known that deep architectures can find higher-level representations, thus can potentially capture relevant higher-level abstractions. But most of current deep learning methods require a long time to solve a non-convex optimization problem. In this paper, we propose a stacked deep neural network, St-URHN-SLFNs, via unsupervised RHN-SLFNs according to stacked generalization philosophy to deal with unsupervised problems. Empirical study on a wide range of data sets demonstrates that the proposed algorithm outperforms the state-of-the-art unsupervised algorithms in terms of accuracy. On the computational effectiveness, the proposed algorithm runs much faster than other deep learning methods, i.e. deep autoencoder (DA) and stacked autoencoder (SAE), and little slower than other methods.

ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Neurocomputing - Volume 171, 1 January 2016, Pages 63–72
نویسندگان
, , , ,