کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
4970027 1450024 2017 10 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
A new accelerated proximal gradient technique for regularized multitask learning framework
ترجمه فارسی عنوان
یک تکنیک شبیه سازی شتاب دهنده جدید برای چارچوب یادگیری چند کاره
کلمات کلیدی
یادگیری چند کاره، روشهای پروکسیما،
ترجمه چکیده
یادگیری چندتایی می تواند به عنوان یادگیری مشترک وظایف مرتبط با استفاده از نمایندگی های مشترک تعریف شود، به طوری که هر کار می تواند به انجام وظایف دیگر برای انجام بهتر کمک کند. یکی از چارچوب های مختلف یادگیری چند وظیفه، مشکل کمینه سازی محدب حلقوی است که برای بسیاری از تکنیک های بهینه سازی در ادبیات موجود است. در این مقاله، حل مشکل کمینه سازی محدب غیر صاف با تنظیم کننده های ایجاد کننده اسپارتی را برای چارچوب یادگیری چند کاره در نظر گرفته ایم که می تواند با استفاده از الگوریتم های پروگزیمال حل شود. با توجه به همگرایی آستانه روشهای سنتی پروسیماسی، روند اخیر این است که شتاب را برای این روش ها معرفی کنیم که سرعت همگرایی را افزایش می دهد. در این مقاله، یک روش شیب شتاب جدید برای چارچوب رگرسیون چند کاره ارائه شده است که نه تنها از همتای غیر شتابدهنده خود و شبیه سازی شبیه سازی شبیه سازی شبیه سازی شده استفاده می کند، بلکه دقت پیش بینی را بهبود می بخشد. ما همگام سازی و ثبات الگوریتم را تحت چند شرایط خاص ثابت می کنیم. برای نشان دادن کاربرد روش ما، ما با چند مجموعه داده های معیاری چند منظوره واقعی امتحان را انجام دادیم. نتایج تجربی نشان می دهد که روش ما از لحاظ همگرایی، دقت و زمان محاسبات از روش های پیشین بهتر است.
موضوعات مرتبط
مهندسی و علوم پایه مهندسی کامپیوتر چشم انداز کامپیوتر و تشخیص الگو
چکیده انگلیسی
Multitask learning can be defined as the joint learning of related tasks using shared representations, such that each task can help other tasks to perform better. One of the various multitask learning frameworks is the regularized convex minimization problem, for which many optimization techniques are available in the literature. In this paper, we consider solving the non-smooth convex minimization problem with sparsity-inducing regularizers for the multitask learning framework, which can be efficiently solved using proximal algorithms. Due to slow convergence of traditional proximal gradient methods, a recent trend is to introduce acceleration to these methods, which increases the speed of convergence. In this paper, we present a new accelerated gradient method for the multitask regression framework, which not only outperforms its non-accelerated counterpart and traditional accelerated proximal gradient method but also improves the prediction accuracy. We also prove the convergence and stability of the algorithm under few specific conditions. To demonstrate the applicability of our method, we performed experiments with several real multitask learning benchmark datasets. Empirical results exhibit that our method outperforms the previous methods in terms of convergence, accuracy and computational time.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Pattern Recognition Letters - Volume 95, 1 August 2017, Pages 98-103
نویسندگان
, ,