کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
4969905 1449983 2017 37 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
Supervised distance metric learning through maximization of the Jeffrey divergence
ترجمه فارسی عنوان
نظارت بر یادگیری متریک فاصله از طریق به حداکثر رساندن واگرایی جفری
کلمات کلیدی
یادگیری فاصله متریک، نزدیکترین همسایه، تحول خطی، واگرایی جفری،
ترجمه چکیده
در دهه های گذشته، یادگیری متریک فاصله علاقه زیادی به یادگیری ماشین و زمینه های مرتبط با آن داشته است. در این کار، ما یک چارچوب بهینه سازی برای یادگیری متریک فاصله را از طریق تحولات خطی پیشنهاد می دهیم، با حداکثر کردن واگرایی جفری بین دو توزیع گاوسی چند متغیره مشتق شده از محدودیت های زوج محلی. در روش ما، متریک فاصله بر روی فضاهای اختلاف مثبت و منفی، که از محله هر یک از نمونه های آموزشی ساخته شده است، آموزش داده می شود تا اطلاعات تبعیض آمیز محلی حفظ شود. ما نشان می دهیم که چگونه این مشکل را با یک راه حل بسته به جای استفاده از رویه های بهینه سازی خسته کننده حل کنیم. راه حل آسان برای پیاده سازی و قابل حل برای مشکلات بزرگ در مقیاس است. نتایج تجربی برای هر دو نسخه خطی و کرنل از روش پیشنهادی برای طبقه بندی نزدیک ترین همسایگان ارائه شده است. در موارد متعددی، تئوری های طبقه بندی برتر در مقایسه با روش های یادگیری متریک فاصله در چندین مورد، در حالی که در دیگران رقابتی هستند، به دست می آوریم.
موضوعات مرتبط
مهندسی و علوم پایه مهندسی کامپیوتر چشم انداز کامپیوتر و تشخیص الگو
چکیده انگلیسی
Over the past decades, distance metric learning has attracted a lot of interest in machine learning and related fields. In this work, we propose an optimization framework for distance metric learning via linear transformations by maximizing the Jeffrey divergence between two multivariate Gaussian distributions derived from local pairwise constraints. In our method, the distance metric is trained on positive and negative difference spaces, which are built from the neighborhood of each training instance, so that the local discriminative information is preserved. We show how to solve this problem with a closed-form solution rather than using tedious optimization procedures. The solution is easy to implement, and tractable for large-scale problems. Experimental results are presented for both a linear and a kernelized version of the proposed method for k-nearest neighbors classification. We obtain classification accuracies superior to the state-of-the-art distance metric learning methods in several cases while being competitive in others.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Pattern Recognition - Volume 64, April 2017, Pages 215-225
نویسندگان
, , ,