کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
6864589 1439545 2018 14 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
Sparse estimation based on square root nonconvex optimization in high-dimensional data
ترجمه فارسی عنوان
برآورد پراکنده براساس بهینه سازی غیرقابل ریاضی مربع در داده های با ابعاد بزرگ
کلمات کلیدی
داده های با ابعاد بزرگ، برآورد انبوه، تابع از دست رفته ریشه مجازات غیرقانونی،
ترجمه چکیده
انتخاب متغیر نقش مهمی در ساخت مدل های پیش بینی شده ایفا می کند زمانی که داده های یک بعدی به نظر می رسد. با این حال، چگونگی انتخاب متغیرهای مهم از تعداد زیادی از متغیرهای نامزد، به طور موثر و دقیق، چالش مهمی برای محققان از زمینه های علمی مختلف از جمله یادگیری ماشین، ژنتیک، پزشکی و مالی است. در این مقاله، یک رویکرد جدید برای برآورد نادرست پیشنهاد شده است. این رویکرد، مزایای استفاده از تابع از دست رفته ریشه در مربع و مجازات غیر رسمی را برای به دست آوردن یک مدل قابل تفسیر با دقت پیش بینی بالا ترکیب می کند. به طور خاص، تابع از دست رفته ریشه می تواند انتخاب پارامترهای تنظیم را بر اساس سطح سر و صدایی که بسیار آسان است برای برآورد به عنوان تعدادی از متغیرها را افزایش می دهد؛ مجازات غیرانتقادی بیش از مجازات محدب از نظر انطباق انتخاب برتر است، به ویژه هنگامی که تعداد متغیرها بیش از اندازه نمونه است. در محاسبه، یک الگوریتم سریع و ساده برای پیاده سازی با تضمین تئوری همگرایی آن ایجاد شده است. علاوه بر این، یک روش شتاب دهنده شتابی برای افزایش سرعت همگرایی استفاده می شود و الگوریتم پیشنهاد شده به خوبی به داده های با ابعاد بزرگ معروف است. نمونه های شبیه سازی با اندازه نمونه های مختلف، ابعاد، ضرایب همبستگی، سطوح سر و صدا و نمونه های داده واقعی که بر روی مشکل انتخاب پرونده های میکرورایروس موش بیضوی قرار گرفته اند، برای نشان دادن کارایی و کارایی این روش جدید در مقایسه با سایر رقبای موجود نمایش داده می شود.
موضوعات مرتبط
مهندسی و علوم پایه مهندسی کامپیوتر هوش مصنوعی
چکیده انگلیسی
Variable selection plays a dominant role in building forecast models when high-dimensional data appears. However, how to select important variables from a large number of candidate variables efficiently and accurately poses a critical challenge to researchers from various scientific fields including machine learning, genetics, medicine, and finance. In this paper, a novel approach for sparse estimation is proposed. This approach combines the advantages of the square root loss function and nonconvex penalty to obtain an interpretable model with high forecasting accuracy. In particular, the square root loss function facilitates the choice of regularization parameters based on the noise level that is critically difficult to estimate as the number of variables increases; the nonconvex penalty is shown to be superior over the convex penalty in terms of selection consistency especially when the number of variables exceeds the sample size. In computation, a fast and simple-to-implement algorithm is developed with a theoretical guarantee of its convergence. Furthermore, an accelerated gradient method is utilized to further speed up the convergence and the proposed algorithm is proved to scale well to high-dimensional data. Simulation examples with diverse sample sizes, dimensions, correlation coefficients, noise levels, and real data examples focusing on the inbred mouse microarray gene selection problem are exhibited to demonstrate the efficiency and efficacy of this novel approach compared with other existing competitors.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Neurocomputing - Volume 282, 22 March 2018, Pages 122-135
نویسندگان
,