کد مقاله | کد نشریه | سال انتشار | مقاله انگلیسی | نسخه تمام متن |
---|---|---|---|---|
10370399 | 876084 | 2005 | 13 صفحه PDF | دانلود رایگان |
عنوان انگلیسی مقاله ISI
Mixture density modeling, Kullback-Leibler divergence, and differential log-likelihood
دانلود مقاله + سفارش ترجمه
دانلود مقاله ISI انگلیسی
رایگان برای ایرانیان
کلمات کلیدی
موضوعات مرتبط
مهندسی و علوم پایه
مهندسی کامپیوتر
پردازش سیگنال
پیش نمایش صفحه اول مقاله
چکیده انگلیسی
A new log-likelihood (LL) based metric for goodness-of-fit testing and monitoring unsupervised learning of mixture densities is introduced, called differential LL. We develop the metric in the case of a Gaussian kernel fitted to a Gaussian distribution. We suggest a possible differential LL learning strategy, show the formal link with the Kullback-Leibler divergence and the quantization error, and introduce a Gaussian factorial distribution approximation by subspaces.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Signal Processing - Volume 85, Issue 5, May 2005, Pages 951-963
Journal: Signal Processing - Volume 85, Issue 5, May 2005, Pages 951-963
نویسندگان
Marc M. Van Hulle,