کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
6904358 1446999 2017 34 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
Some sets of orthogonal polynomial kernel functions
ترجمه فارسی عنوان
برخی از توابع هسته چند جملهای متعامد
ترجمه چکیده
روش های کرنل عملکرد بسیار زیادی را در انواع مختلف وظایف یادگیری ماشین ارائه می دهند. با این حال، موفقیت روش های هسته به شدت وابسته به انتخاب عملکرد هسته سمت راست و تنظیم مناسب پارامترهای آن است. چند مجموعه ای از توابع هسته بر اساس چندجمله ای متعامد اخیرا پیشنهاد شده است. علاوه بر عملکرد خوب آنها در میزان خطا، این توابع هسته تنها یک پارامتر را از یک مجموعه کوچک از اعداد صحیح انتخاب می کنند و انتخاب زیادی را انتخاب می کند. دو مجموعه از توابع هسته چند جملهای متعامد یعنی هسته چبیشف اصلاح شده مثلثی و هسته لژاندر اصلاح شده مثلثی در این مطالعه پیشنهاد شده است. علاوه بر این، ما روش های ساخت برخی از چند هسته ای متعامد را مقایسه می کنیم و شباهت ها و تفاوت های آنها را برجسته می کنیم. آزمایشات بر روی 32 مجموعه داده برای مقایسه و مقایسه بهتر این توابع هسته در سناریوهای طبقه بندی و رگرسیون انجام می شود. به طور کلی، در میان این هسته های چندجملهای متعامد، از لحاظ دقت، تفاوت وجود دارد، و بیشتر هسته های چند جملهای متعامد می توانند از هسته های معمول استفاده شده مانند هسته چندجملهای، هسته گاوس و هسته موجک استفاده کنند. در مقایسه با این هسته های جهانی، هسته های چند جملهای متعامد هر یک از پارامتر به راحتی بهینه سازی منحصر به فرد دارند و از بردارهای پشتیبانی به طور معنی داری کمتر در دسته بندی بردار پشتیبانی استفاده می کنند. هسته های جدید ارائه می تواند عملکرد تعمیم بهتر برای انجام وظایف طبقه بندی و وظایف رگرسیون را به دست آورد.
موضوعات مرتبط
مهندسی و علوم پایه مهندسی کامپیوتر نرم افزارهای علوم کامپیوتر
چکیده انگلیسی
Kernel methods provide high performance in a variety of machine learning tasks. However, the success of kernel methods is heavily dependent on the selection of the right kernel function and proper setting of its parameters. Several sets of kernel functions based on orthogonal polynomials have been proposed recently. Besides their good performance in the error rate, these kernel functions have only one parameter chosen from a small set of integers, and it facilitates kernel selection greatly. Two sets of orthogonal polynomial kernel functions, namely the triangularly modified Chebyshev kernels and the triangularly modified Legendre kernels, are proposed in this study. Furthermore, we compare the construction methods of some orthogonal polynomial kernels and highlight the similarities and differences among them. Experiments on 32 data sets are performed for better illustration and comparison of these kernel functions in classification and regression scenarios. In general, there is difference among these orthogonal polynomial kernels in terms of accuracy, and most orthogonal polynomial kernels can match the commonly used kernels, such as the polynomial kernel, the Gaussian kernel and the wavelet kernel. Compared with these universal kernels, the orthogonal polynomial kernels each have a unique easily optimized parameter, and they store statistically significantly less support vectors in support vector classification. New presented kernels can obtain better generalization performance both for classification tasks and regression tasks.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Applied Soft Computing - Volume 61, December 2017, Pages 742-756
نویسندگان
, ,