کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
4947002 1439560 2017 10 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
Kernel-driven similarity learning
ترجمه فارسی عنوان
یادگیری شباهت بر پایه هسته
کلمات کلیدی
اندازه گیری مشابهی رابطه غیرخطی، نمایندگی انحصاری، روش کرنل، یادگیری چند هسته ای، خوشه بندی سیستم توصیهگر،
ترجمه چکیده
اندازه گیری مشابهی برای بسیاری از الگوریتم های یادگیری ماشین و داده ها ضروری است. معیارهای شباهت از پیش تعریف شده اغلب وابسته به داده ها و حساس به سر و صدا هستند. به تازگی، رویکرد مبتنی بر داده ها که اطلاعات شباهت را از داده ها یاد می گیرد توجه زیادی را به خود جلب کرده است. ایده این است که یک نقطه داده را با یک ترکیب خطی از تمام نقاط داده (سایر) نشان داده شود. با این حال، اغلب موارد این است که روابط پیچیده تر از وابستگی های خطی در داده ها وجود دارد. بر اساس واقعیت شناخته شده که می تواند از فونت کرنل اطلاعات ساختاری غیر خطی را بگیرد، ما این ایده را به فضاهای هسته ای گسترش می دهیم. با این وجود، چنین فرمت دیگری مسئله دیگری را مطرح می کند: عملکرد الگوریتم آن تا حد زیادی توسط انتخاب هسته تعیین می شود، که اغلب ناشناخته است. بنابراین، ما بیشتر پیشنهاد روش چند منظوره مبتنی بر هسته. با انجام این کار، مدل ما می تواند اطلاعات مربوط به شباهت خطی و غیر خطی را یاد بگیرد و به طور خودکار بهترین کرنل را انتخاب می کند. در نتیجه، مدل ما قادر به یادگیری کامل اطلاعات شباهت پنهان در مجموعه داده است. ارزیابی جامع آزمایشی الگوریتم های ما بر روی سیستم های خوشه بندی و پیشنهاد دهنده عملکرد فوق العاده آن را در مقایسه با سایر روش های پیشرفته تر نشان می دهد. این عملکرد همچنین پتانسیل زیادی از الگوریتم پیشنهادی ما را برای سایر برنامه های کاربردی ممکن نشان می دهد.
موضوعات مرتبط
مهندسی و علوم پایه مهندسی کامپیوتر هوش مصنوعی
چکیده انگلیسی
Similarity measure is fundamental to many machine learning and data mining algorithms. Predefined similarity metrics are often data-dependent and sensitive to noise. Recently, data-driven approach which learns similarity information from data has drawn significant attention. The idea is to represent a data point by a linear combination of all (other) data points. However, it is often the case that more complex relationships beyond linear dependencies exist in the data. Based on the well known fact that kernel trick can capture the nonlinear structure information, we extend this idea to kernel spaces. Nevertheless, such an extension brings up another issue: its algorithm performance is largely determined by the choice of kernel, which is often unknown in advance. Therefore, we further propose a multiple kernel-based learning method. By doing so, our model can learn both linear and nonlinear similarity information, and automatically choose the most suitable kernel. As a result, our model is capable of learning complete similarity information hidden in data set. Comprehensive experimental evaluations of our algorithms on clustering and recommender systems demonstrate its superior performance compared to other state-of-the-art methods. This performance also shows the great potential of our proposed algorithm for other possible applications.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Neurocomputing - Volume 267, 6 December 2017, Pages 210-219
نویسندگان
, , ,