آشنایی با موضوع

اطلاعات متقابل (به انگیسی Mutual information)در نظریه احتمالات و نظریه اطلاعات، اطلاعات متقابل بین دو متغیر تصادفی معیاری برای نشان دادن میزان وابستگی متقابل آن دو متغیر می باشد. به بیان دیگر در حقیقت این معیار "میزان اطلاعات" به دست آمده (مثلاً در واحد بیت) در مورد یک متغیر تصادفی از طریق متغیر تصادفی دیگر را نشان می دهد. مفهوم اطلاعات متقابل ذاتاً مرتبط با آنتروپی یک متغیر تصادفی که میزان اطلاعات موجود در یک متغیر تصادفی را نشان می دهد، می باشد. طبیعت پیچیده ارتباطات مغزی که متشکل از شبکه‌های محلی به هم مرتبط است نمایانگر اصلی سازمان‌دهی کارکردی آن است. به منظور سنجش وابستگی‌ بین مناطق مختلف مغز، عموماً از معیارهای خطی مثل ضریب همبستگی متقابل استفاده می‌شود. با این وجود از میانه‌های دهه 1980 میلادی، روش‌های غیرخطی مبتنی بر تئوری اطلاعات برای تحلیل سیگنال‌های مغزی مورد توجه فزاینده قرار گرفت چراکه محققان معتقد بودند ویژگی‌های غیرخطی سیستم همودینامیک بر روی سیگنال BOLD اثر می‌گذارد. مزیت معیارهای مبتنی بر تئوری اطلاعات در تخمین ماتریس ارتباطات کارکردی و در حضور عوامل غیرخطی و نویز مورد بررسی قرار می‌گیرد. همچنین یک معیار اطلاعات متقابل جدید به نام «اطلاعات متقابل درجه ‌دوم» (QMI) ارائه می‌شود که امکان تخمین بهینه‌ی اطلاعات را در ابعاد بالا فراهم می‌کند و در نتیجه می‌تواند برای تحلیل‌های چند-واکسله و چند-سوژه استفاده شود. به علاوه، برای توزیع‌های گوسی رابطه‌ای تحلیلی به دست ‌آوردکه اطلاعات متقابل درجه دوم را به همبستگی متقابل مرتبط می‌کند. سپس برای بهبود و تضمین عملکرد این تخمینگر روشی برای تصحیح بایاس آن بیان می‌شود. به منظور سنجش عملکرد معیار اطلاعاتیِ جدید، سه دسته داده شبیه‌سازی fMRI حالت استراحت بر اساس مدل‌های شناخته‌شده تولید می‌شود. یکی از مسایل موجود در سیستم های حمل و نقل هوشمند، پیش بینی جریان ترافیک می باشد که نقش مهمی را در مباحث کنترل ترافیک، کنترل چراغ های راهنمایی و کنترل زمان سفر دارد. دیدگاه استفاده از اطلاعات متقابل (Mutual Information) یک ایده جالب برای به دست آوردن میزان وابستگی موجود بین داده های گذشته می باشد که می تواند میزان وابستگی غیرخطی موجود بین داده ها را بهدست آورد. با محاسبه این تقابل اطلاعات بین داده های گذشته و انتخاب بهترین دسته داده برای عملیات پیش بینی سعی کردهایم که در عین کاهش حجم محاسباتی، دقت پیش بینی را نیز افزایش دهد اطلاعات متقابل میزان شباهت بین توزیع مشترک p ( X، Y ) {\displaystyle p(X،Y)} و ضرب احتمال های حاشیه ای یعنی p ( X ) p ( Y ) {\displaystyle p(X)p(Y)} را مشخص می سازد.
در این صفحه تعداد 666 مقاله تخصصی درباره اطلاعات متقابل که در نشریه های معتبر علمی و پایگاه ساینس دایرکت (Science Direct) منتشر شده، نمایش داده شده است. برخی از این مقالات، پیش تر به زبان فارسی ترجمه شده اند که با مراجعه به هر یک از آنها، می توانید متن کامل مقاله انگلیسی همراه با ترجمه فارسی آن را دریافت فرمایید.
در صورتی که مقاله مورد نظر شما هنوز به فارسی ترجمه نشده باشد، مترجمان با تجربه ما آمادگی دارند آن را در اسرع وقت برای شما ترجمه نمایند.
مقالات ISI اطلاعات متقابل (ترجمه نشده)
مقالات زیر هنوز به فارسی ترجمه نشده اند.
در صورتی که به ترجمه آماده هر یک از مقالات زیر نیاز داشته باشید، می توانید سفارش دهید تا مترجمان با تجربه این مجموعه در اسرع وقت آن را برای شما ترجمه نمایند.
Elsevier - ScienceDirect - الزویر - ساینس دایرکت
Keywords: اطلاعات متقابل; TN; total nitrogen; OM; organic matter; NIR; near-infrared; MI; mutual information; ACO; ant colony optimization; PLS; partial least squares; MLR; multiple linear regression; SVM; support vector machine; R2; coefficients of determination; SSR; sum of squa
Elsevier - ScienceDirect - الزویر - ساینس دایرکت
Keywords: اطلاعات متقابل; Histogram bin number; Bi-histogram; Marginal entropy; Joint entropy; Mutual information; Shannon entropy; Mean square error minimization; MFCC feature; Feature selection; Speech recognition; Speaker recognition;
Elsevier - ScienceDirect - الزویر - ساینس دایرکت
Keywords: اطلاعات متقابل; Biogeography-based optimization; Support vector machine; Feature selection; Multi-objective optimization; Mutual information; Voltage stability assessment;
Elsevier - ScienceDirect - الزویر - ساینس دایرکت
Keywords: اطلاعات متقابل; Approximate Bayesian computation; Ds-optimality; Model discrimination; Mutual information; Parameter estimation; Coordinate exchange algorithm; Zero-One utility;
Elsevier - ScienceDirect - الزویر - ساینس دایرکت
Keywords: اطلاعات متقابل; Feature selection; Mutual information; Optical network design; Number of wavelengths; Topological invariants; Graph theory;
Elsevier - ScienceDirect - الزویر - ساینس دایرکت
Keywords: اطلاعات متقابل; Dempster-Shafer theory; Belief function; Canonical decomposition; Multivariate Bernoulli distribution; Moment; Mutual information; Random set.;
Elsevier - ScienceDirect - الزویر - ساینس دایرکت
Keywords: اطلاعات متقابل; Forward orthogonal regression (FOR); Laguerre expansion; Multiwavelet basis functions; Mutual information; Spike train; Time-varying system identification;