کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
7109005 1460625 2018 8 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
Optimal distributed stochastic mirror descent for strongly convex optimization
ترجمه فارسی عنوان
بهینه سازی نسبی آشکار تصادفی توزیع برای بهینه سازی محدب به شدت
کلمات کلیدی
بهینه سازی تصادفی توزیع شده، غده قوی واگرایی غیر اقلیدسی، نسل آینه، نزول گرادیان دوره، نرخ همگرایی بهینه،
موضوعات مرتبط
مهندسی و علوم پایه سایر رشته های مهندسی کنترل و سیستم های مهندسی
چکیده انگلیسی
In this paper we consider convergence rate problems for stochastic strongly-convex optimization in the non-Euclidean sense with a constraint set over a time-varying multi-agent network. We propose two efficient non-Euclidean stochastic subgradient descent algorithms based on the Bregman divergence as distance-measuring function rather than the Euclidean distances that were employed by the standard distributed stochastic projected subgradient algorithms. For distributed optimization of non-smooth and strongly convex functions whose only stochastic subgradients are available, the first algorithm recovers the best previous known rate of O(ln(T)∕T) (where T is the total number of iterations). The second algorithm is an epoch variant of the first algorithm that attains the optimal convergence rate of O(1∕T), matching that of the best previously known centralized stochastic subgradient algorithm. Finally, we report some simulation results to illustrate the proposed algorithms.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Automatica - Volume 90, April 2018, Pages 196-203
نویسندگان
, , , ,