کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
4947659 1439593 2017 10 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
A Novel multiple kernel-based dictionary learning for distributive and collective sparse representation based classifiers
ترجمه فارسی عنوان
یادگیری فرهنگ لغت مبتنی بر چند هسته ای رمان برای طبقه بندی های توزیع شده و جمع آوری شده به صورت اسپرد
ترجمه چکیده
در سال های اخیر، تئوری نمایندگی نادر موجب توجه بسیاری از محققان در پردازش سیگنال، تشخیص الگو و جوامع بینایی کامپیوتری شده است. انتخاب ماتریس فرهنگ لغت نقش کلیدی در روش های ارائه مبتنی بر ضعیف دارد. این می تواند یک فرهنگ لغت از پیش تعریف شده باشد یا می تواند از طریق یک روش بهینه سازی آموخته شود. علاوه بر این، فرآیند یادگیری فرهنگ لغت را می توان به یک تنظیم غیر خطی با استفاده از یک تابع هسته مناسب برای رسیدگی به داده های ساختار غیر خطی گسترش داد. در این چارچوب، انتخاب تابع هسته نیز یک گام کلیدی است. یادگیری چند هسته ای یک استراتژی جذاب برای مقابله با این مشکل است. در این مقاله، در چارچوب طبقهبندی مبتنی بر نمایندگی نزولی هسته، ما یک الگوریتم تکراری برای یادگیری همزمان ماتریس فرهنگ لغت و عملکرد چند هسته پیشنهاد می کنیم. مجموع وزن یک مجموعه ای از توابع پایه به عنوان تابع چند هسته ای در نظر گرفته می شود که وزن ها بهینه می شوند، به طوری که خطای بازسازی داده های کد شده ضعیف به حداقل می رسد. در الگوریتم پیشنهادی ما، برنامه نویسی ناقص، یادگیری فرهنگی و فرآیندهای یادگیری چند هسته ای در سه مرحله انجام می شود. فرآیند بهینه سازی با توجه به دو ساختار مختلف یعنی توزیع و جمع آوری برای طبقه بندی ارائه مبتنی بر اسپرد انجام می شود. نتایج تجربی ما نشان می دهد که الگوریتم پیشنهادی از سایر روش های موجود مبتنی بر کدگذاری ناقص موجود برتر است. این نتایج همچنین تایید می کند که مجموعه جمعی نتایج مناسبی را به دست می آورد که تعداد نمونه های آموزشی محدود است. از سوی دیگر، تنظیمات توزیع مناسب تر است زمانی که نمونه های آموزش کافی وجود دارد.
موضوعات مرتبط
مهندسی و علوم پایه مهندسی کامپیوتر هوش مصنوعی
چکیده انگلیسی
In recent years, sparse representation theory has attracted the attention of many researchers in the signal processing, pattern recognition and computer vision communities. The choice of dictionary matrix plays a key role in the sparse representation based methods. It can be a pre-defined dictionary or can be learned via an optimization procedure. Furthermore, the dictionary learning process can be extended to a non-linear setting using an appropriate kernel function in order to handle non-linear structured data. In this framework, the choice of kernel function is also a key step. Multiple kernel learning is an appealing strategy for dealing with this problem. In this paper, within the framework of kernel sparse representation based classification, we propose an iterative algorithm for coincident learning of the dictionary matrix and multiple kernel function. The weighted sum of a set of basis functions is considered as the multiple kernel function where the weights are optimized such that the reconstruction error of the sparse coded data is minimized. In our proposed algorithm, the sparse coding, dictionary learning and multiple kernel learning processes are performed in three steps. The optimization process is performed considering two different structures namely distributive and collective for the sparse representation based classifier. Our experimental results show that the proposed algorithm outperforms the other existing sparse coding based approaches. These results also confirm that the collective setting leads to better results when the number of training examples is limited. On the other hand, the distributive setting is more appropriate when there are enough training samples.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Neurocomputing - Volume 234, 19 April 2017, Pages 164-173
نویسندگان
, ,