کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
4943034 1437614 2018 42 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
Detecting concept drift in data streams using model explanation
ترجمه فارسی عنوان
شناسایی مفهوم در جریان داده ها با استفاده از توضیح مدل
ترجمه چکیده
یادگیری از جریان داده ها (یادگیری افزایشی) با توجه به بسیاری از مشکلات موجود در دنیای واقعی و با توجه به بسیاری از چالش های باز، از جمله تشخیص ریزش مفهوم - پدیده ای است که توزیع داده ها تغییر می کند و مدل پیش بینی فعلی نادرست یا منسوخ شده است. روشهای تشخیص هنرهای فعلی می تواند تقریبا به الگوریتم های نظارت بر عملکرد و الگوریتم های مقایسه توزیع تقسیم شود. در این کار، ما یک آشکارساز رانش مفهومی جدید ارائه می دهیم که می تواند با یک الگوریتم طبقه بندی دلخواه ترکیب شود. آشکارساز رانش مفهوم پیشنهادی براساس محاسبات چندین توضیح مدل در طول زمان و رعایت مقادیر تغییرات آن است. توضیح مدل با استفاده از یک روش شناخته شده است که سهم ویژگی های ارزش را برای نتایج پیش بینی می کند و در نتیجه، بینش در فرایند تصمیم گیری مدل را فراهم می کند و شفافیت آن را فراهم می کند. ارزیابی نشان می دهد که روش ها از روش های ابتدایی از نظر تشخیص رانش مفهوم، دقت، استحکام و حساسیت فراتر رفته است. برای به دست آوردن بیشتر تفسیرپذیری، ما شناسایی ریزش مفهوم را به نمایش گذاشتهایم، که می توان دادههای کلان و میکرو را فعال کرد.
موضوعات مرتبط
مهندسی و علوم پایه مهندسی کامپیوتر هوش مصنوعی
چکیده انگلیسی
Learning from data streams (incremental learning) is increasingly attracting research focus due to many real-world streaming problems and due to many open challenges, among which is the detection of concept drift - a phenomenon when the data distribution changes and makes the current prediction model inaccurate or obsolete. Current state-of-the art detection methods can be roughly split into performance monitoring algorithms and distribution comparing algorithms. In this work we propose a novel concept drift detector that can be combined with an arbitrary classification algorithm. The proposed concept drift detector is based on computing multiple model explanations over time and observing the magnitudes of their changes. The model explanation is computed using a methodology that yields attribute-value contributions for prediction outcomes and thus provides insight into the model's decision-making process and enables its transparency. The evaluation has revealed that the methods surpass the baseline methods in terms of concept drift detection, accuracy, robustness and sensitivity. To even further augment interpretability, we visualized the detection of concept drift, enabling macro and micro views of the data.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Expert Systems with Applications - Volume 92, February 2018, Pages 546-559
نویسندگان
, ,