کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
10370399 876084 2005 13 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
Mixture density modeling, Kullback-Leibler divergence, and differential log-likelihood
موضوعات مرتبط
مهندسی و علوم پایه مهندسی کامپیوتر پردازش سیگنال
پیش نمایش صفحه اول مقاله
Mixture density modeling, Kullback-Leibler divergence, and differential log-likelihood
چکیده انگلیسی
A new log-likelihood (LL) based metric for goodness-of-fit testing and monitoring unsupervised learning of mixture densities is introduced, called differential LL. We develop the metric in the case of a Gaussian kernel fitted to a Gaussian distribution. We suggest a possible differential LL learning strategy, show the formal link with the Kullback-Leibler divergence and the quantization error, and introduce a Gaussian factorial distribution approximation by subspaces.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Signal Processing - Volume 85, Issue 5, May 2005, Pages 951-963
نویسندگان
,