کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
6863699 1439519 2018 30 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
LSTM with sentence representations for document-level sentiment classification
ترجمه فارسی عنوان
LSTM با نمایش جمله برای دسته بندی احساسات در سطح سند
کلمات کلیدی
دسته بندی احساسات، LSTM، شبکه های عصبی، بردارهای جمله
فهرست مطالب مقاله
چکیده

کلمات کلیدی

1- مقدمه

2- مرتبط با تحقیق

1.2 دسته بندی احساسات در سطح سند

2.2 روش هایی برای مدل سازی نمایش های توزیع شده

3.2 شبکه های عصبی برای دسته بندی احساسات در سطح سند

3- روش مطروحه

1.3 شبکه های حافظه ی طولانی کوتاه مدت

شکل 1- ساختار واحد LSTM استاندارد

3.2 برخی انواع متغیر LSTM

3.3 LSTM با نمایش جمله (SR-LSTM)

4.3 ابزاری برای قطبش هیجانی جمله

شکل 3- ساختار داده های فرهنگ لغات احساسات کلی 

شکل 4- ساختار SSR-LSTM

5.3 LSTM با نمایش های جمله ی ذخیره شده (SSR-LSTM) 

4- آزمایش

جدول 1- اطلاعات آماری مجموعه داده های  IMDB و Yelp 2014/2015. اندازه ی آموزش، اندازه ی روایی و اندازه ی تست تعداد مجموعه ی آموزش، مجموعه روایی و مجموعه ی تست را نشان می دهند. Ws/Doc و Sens/Doc میانگین تعداد لغات و جملات وارده در هر سند.

جدول 2- پیکربندی ابرپارامتر بهینه برای سه مجموعه داده

1.4 برپایی آزمایش

2.4 مدل های پایه

جدول 3- نتایج مدل ما درمقابل مدل های پایه روی Yelp 2014، Yelp 2015 و IMDB. Acc و MSE متریک های ارزیابی هستند. Acc به معنی دقت (بالاتر بهتر است) و MSE به معنی میانگین خطای مربع (کمتر بهتر است). بهترین نتایج در هر گروه بصورت پررنگ مشخص شده است.

3.4 نتایج

4.4 تاثیر تعبیه سازی کلمات

جدول 4- دقت دسته بندی LSTM، SR-LSTM و SSR-LSTM با تعبیه سازی کلمات با بعدهای مختلف. بین Glove.twitter.50d، Glove.twitter.100d، Glove.twitter.200d و Glove.twitter.300d مقایسه می کنیم.

جدول 5- هزینه ی زمان هر مدل با بردارهای Gloveی 50، 100، 200 و 300 بعدی. هر مقدار بدان معنی است که چند دقیقه پس از آموزش مدل صرف می شود.

جدول 6- دقت دسته بندی LSTM، SR-LSTM و SSR-LSTM با انواع تعبیه سازی کلمات. بردارهای تصادفا مقداردهی شده، بردارهای CBOW، اسکیپ گرام و Glove را مقایسه می کنیم.

شکل 5- دقت دسته بندی و هزینه ی زمان SSR-LSTM روی مجموعه داده های IMDB.

4.5 اثربخشی روی Maxn

5- نتیجه گیری 

 
ترجمه چکیده
شبکه های عصبی بعلت امکان پرداختن به توالی های با طول های مختلف در دسته بندی احساسات اخیراً به موفقیت زیادی دست یافته اند. کاربرد این شبکه ها در دسته بندی احساسات گسترده است. بالاخص شبکه های حافظه ی طولانی کوتاه مدت. این درحالی است که مدل سازی متن های طولانی در استفاده از روابط احساسات بین جملات در دسته بندی احساسات در سطح سند همچنان چالش برانگیز است. مدل های موجود شبکه ی عصبی آنقدر قدرتمند نیستند تا پیام های احساسات را از گام های زمانی نسبتاً طولانی بگیرند. مدل شبکه ی عصبی جدید (SR-LSTM) با دو لایه ی مخفی را برای طرح این مشکل مطرح می کنیم. اولین لایه، بردارهای جمله را برای نمایش احساسات جملات با شبکه ی طویل حافظه ی کوتاه مدت یاد می گیرد و روابط جملات در نمایش سند در لایه ی دوم رمزگذاری می شوند. رویکردی را برای بهبود پاک کردن مجموعه داده ها و حذف جملاتی با قطبش هیجانی کمتر در مجموعه داده ها برای داشتن ورودی های بهتر برای مدل خود مطرح می کنیم. عملکرد مدل های مطروحه درمقایسه با آخرین مدل های مربوط روی سه مجموعه داده ی نشریه در سطح سند و دردسترس همگان بهتر است.
موضوعات مرتبط
مهندسی و علوم پایه مهندسی کامپیوتر هوش مصنوعی
چکیده انگلیسی
Recently, due to their ability to deal with sequences of different lengths, neural networks have achieved a great success on sentiment classification. It is widely used on sentiment classification. Especially long short-term memory networks. However, one of the remaining challenges is to model long texts to exploit the semantic relations between sentences in document-level sentiment classification. Existing Neural network models are not powerful enough to capture enough sentiment messages from relatively long time-steps. To address this problem, we propose a new neural network model (SR-LSTM) with two hidden layers. The first layer learns sentence vectors to represent semantics of sentences with long short term memory network, and in the second layer, the relations of sentences are encoded in document representation. Further, we also propose an approach to improve it which first clean datasets and remove sentences with less emotional polarity in datasets to have a better input for our model. The proposed models outperform the state-of-the-art models on three publicly available document-level review datasets.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Neurocomputing - Volume 308, 25 September 2018, Pages 49-57
نویسندگان
, , , ,