کد مقاله | کد نشریه | سال انتشار | مقاله انگلیسی | نسخه تمام متن |
---|---|---|---|---|
8905369 | 1633917 | 2018 | 11 صفحه PDF | دانلود رایگان |
عنوان انگلیسی مقاله ISI
On the convergence of formally diverging neural net-based classifiers
ترجمه فارسی عنوان
در همگرایی طبقه بندی های مبتنی بر شبکه عصبی رسمی است
دانلود مقاله + سفارش ترجمه
دانلود مقاله ISI انگلیسی
رایگان برای ایرانیان
موضوعات مرتبط
مهندسی و علوم پایه
ریاضیات
ریاضیات (عمومی)
چکیده انگلیسی
Nous étudions dans cette note le comportement asymptotique d'algorithmes du gradient appliqués à des problèmes de classification basés sur des modèles élémentaires de réseaux neuronaux à apprentissage supervisé. Nous prouvons que ces algorithmes divergent au sens mathématique strict, puisque la suite de paramètres définissant le classifieur est non bornée. Toutefois, en développant des méthodes d'entropie-production d'entropie, notre approche conduit à des taux explicites qui montrent, au moins lorsque les classes peuvent être bien séparées, que les paramètres divergent seulement logarithmiquement alors que la fonction coût converge vers 0 polynomialement. En conséquence, d'un point de vue pratique, l'algorithme permet effectivement d'obtenir un classifieur avec de bonnes performances, et peut même sembler converger.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Comptes Rendus Mathematique - Volume 356, Issue 4, April 2018, Pages 395-405
Journal: Comptes Rendus Mathematique - Volume 356, Issue 4, April 2018, Pages 395-405
نویسندگان
Leonid Berlyand, Pierre-Emmanuel Jabin,