کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
6938684 1449963 2018 49 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
Wild patterns: Ten years after the rise of adversarial machine learning
ترجمه فارسی عنوان
الگوهای وحشی: ده سال پس از ظهور یادگیری ماشین مسابقات
ترجمه چکیده
طبقه بندی های الگوی مبتنی بر یادگیری، از جمله شبکه های عمیق، عملکرد قابل توجهی را در زمینه های مختلف کاربردی، از بینایی کامپیوتری و امنیت سایبری نشان داده اند. با این حال، نشان داده شده است که اختلالات ورودی تهاجمی که به دقت در تمرینات و یا در زمان آزمایش انجام می شود، می توانند پیش بینی های خود را به راحتی تخریب کنند. آسیب پذیری یادگیری ماشین به چنین الگوهای وحشی (همچنین به عنوان نمونه های متضاد نامیده می شود) همراه با طراحی اقدامات مناسب مناسب در زمینه تحقیق در مورد ماشین های رایانه ای مورد بررسی قرار گرفته است. در این کار، ما یک مرور کامل از تحول این منطقه تحقیقاتی در ده سال گذشته و فراتر از آن ارائه می کنیم، از ابتکار عمل قبلی، در مورد امنیت الگوریتم های یادگیری غیر عمیق تا کارهای اخیر که با هدف درک ویژگی های امنیتی از الگوریتم های یادگیری عمیق، در زمینه دیدگاه های کامپیوتری و وظایف سایبری. ما ارتباطات جالبی میان این خطوط ظاهرا متفاوت نشان می دهیم، که منعکس کننده تصورات غلط رایج مربوط به ارزیابی امنیتی الگوریتم های یادگیری ماشین می شود. ما مدل های تهدید اصلی و حملات تعریف شده برای این هدف را بررسی می کنیم و محدودیت های اصلی کار فعلی را همراه با چالش های آینده مربوط به طراحی الگوریتم های امن تر یادگیری بحث می کنیم.
موضوعات مرتبط
مهندسی و علوم پایه مهندسی کامپیوتر چشم انداز کامپیوتر و تشخیص الگو
چکیده انگلیسی
Learning-based pattern classifiers, including deep networks, have shown impressive performance in several application domains, ranging from computer vision to cybersecurity. However, it has also been shown that adversarial input perturbations carefully crafted either at training or at test time can easily subvert their predictions. The vulnerability of machine learning to such wild patterns (also referred to as adversarial examples), along with the design of suitable countermeasures, have been investigated in the research field of adversarial machine learning. In this work, we provide a thorough overview of the evolution of this research area over the last ten years and beyond, starting from pioneering, earlier work on the security of non-deep learning algorithms up to more recent work aimed to understand the security properties of deep learning algorithms, in the context of computer vision and cybersecurity tasks. We report interesting connections between these apparently-different lines of work, highlighting common misconceptions related to the security evaluation of machine-learning algorithms. We review the main threat models and attacks defined to this end, and discuss the main limitations of current work, along with the corresponding future challenges towards the design of more secure learning algorithms.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Pattern Recognition - Volume 84, December 2018, Pages 317-331
نویسندگان
, ,