| کد مقاله | کد نشریه | سال انتشار | مقاله انگلیسی | نسخه تمام متن | 
|---|---|---|---|---|
| 10146098 | 870634 | 2018 | 11 صفحه PDF | دانلود رایگان | 
عنوان انگلیسی مقاله ISI
												Dual Rectified Linear Units (DReLUs): A replacement for tanh activation functions in Quasi-Recurrent Neural Networks
												
											دانلود مقاله + سفارش ترجمه
													دانلود مقاله ISI انگلیسی
رایگان برای ایرانیان
																																												کلمات کلیدی
												
											موضوعات مرتبط
												
													مهندسی و علوم پایه
													مهندسی کامپیوتر
													 چشم انداز کامپیوتر و تشخیص الگو
												
											پیش نمایش صفحه اول مقاله
												 
												چکیده انگلیسی
												We independently reproduce the QRNN experiments of Bradbury et al. [1] and compare our DReLU-based QRNNs with the original tanh-based QRNNs and Long Short-Term Memory networks (LSTMs) on sentiment classification and word-level language modeling. Additionally, we evaluate on character-level language modeling, showing that we are able to stack up to eight QRNN layers with DReLUs, thus making it possible to improve the current state-of-the-art in character-level language modeling over shallow architectures based on LSTMs.
											ناشر
												Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Pattern Recognition Letters - Volume 116, 1 December 2018, Pages 8-14
											Journal: Pattern Recognition Letters - Volume 116, 1 December 2018, Pages 8-14
نویسندگان
												Fréderic Godin, Jonas Degrave, Joni Dambre, Wesley De Neve,