کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
4946682 1439412 2017 23 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
Probabilistic lower bounds for approximation by shallow perceptron networks
ترجمه فارسی عنوان
محدوده های احتمالی پایین برای تقریب شبکه های پراپرترن کم
کلمات کلیدی
شبکه های کوچک پروپترونها، پیچیدگی مدل، مقادیر پایین در نرخ تقریبی، چرنفها مرزهای هوگوفند،
ترجمه چکیده
محدودیت های تقریبی قابلیت های شبکه های پیش قطر کم عمق مورد بررسی قرار گرفته است. محدودیت های پایین در خطاهای تقریبی برای توابع ارزش دوتایی در دامنه های محدود حاصل می شود. ثابت شده است که مگر اینکه تعداد واحدهای شبکه به اندازه کافی بزرگ (بزرگتر از هر چندجمله ای از لگاریتم اندازه دامنه) تقریب خوبی برای تقریبا هر عملکرد یکنواخت به طور تصادفی انتخاب شده در یک دامنه داده شده نباشد. نتایج به دست آمده با ترکیب احتمالات مرزی چرنوف - هوفینگ با برآورد اندازه مجموعه ای از توابع دقیق قابل محاسبه توسط شبکه های کم عمق با افزایش تعداد واحد.
موضوعات مرتبط
مهندسی و علوم پایه مهندسی کامپیوتر هوش مصنوعی
چکیده انگلیسی
Limitations of approximation capabilities of shallow perceptron networks are investigated. Lower bounds on approximation errors are derived for binary-valued functions on finite domains. It is proven that unless the number of network units is sufficiently large (larger than any polynomial of the logarithm of the size of the domain) a good approximation cannot be achieved for almost any uniformly randomly chosen function on a given domain. The results are obtained by combining probabilistic Chernoff-Hoeffding bounds with estimates of the sizes of sets of functions exactly computable by shallow networks with increasing numbers of units.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Neural Networks - Volume 91, July 2017, Pages 34-41
نویسندگان
, ,