کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
10368480 874781 2015 19 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
Recurrent neural network language model adaptation with curriculum learning
ترجمه فارسی عنوان
سازگاری مدل زبان مجازی شبکه عصبی با یادگیری برنامه درسی
کلمات کلیدی
شبکه عصبی مکرر، مدل های زبان، یادگیری برنامه درسی، تخصیص صندوق قرض الحسنه، مباحث محیط اجتماعی-وضعیتی،
ترجمه چکیده
مجموعه دوم آزمایشات ما ادغام محدودیت داده در دامنه را ارائه می دهد، به عنوان مثال، تطبیق یک مدل موجود آموزش داده شده در مجموعه ای بزرگ از داده ها با استفاده از داده های کوچکتر از زیر دامنه هدف. تحت این چالش، داده ها از زیر دامنه هدف در زمانی که مدل زبان آموزش دیده است در دسترس نیست، اما در طول زمان کمی در دسترس خواهد بود. ما نشان می دهیم که تداخل ضمنی با استفاده از روش های یادگیری درسی برنامه ریزی شده برای انجام تداخل های مرسوم بهتر است و همچنین می تواند اطلاعات بیشتری را برای تطبیق داده شود.
موضوعات مرتبط
مهندسی و علوم پایه مهندسی کامپیوتر پردازش سیگنال
چکیده انگلیسی
Our second set of experiments addresses limited-data within-domain adaptation, i.e., adapting an existing model trained on a large set of data using a smaller amount of data from the target sub-domain. Under this challenge, data from the target sub-domain is not available at the time when the language model is trained, but rather becomes available little by little over time. We demonstrate that the implicit interpolation carried out by applying curriculum learning methods to rnnlms outperforms conventional interpolation and has the potential to make more of less adaptation data.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Computer Speech & Language - Volume 33, Issue 1, September 2015, Pages 136-154
نویسندگان
, , ,