معیار اطلاعاتی آکائیکه

معیار اطلاعاتی آکائیکه (به انگلیسی: Akaike information criterion، یا به طور مخفف AIC) معیاری برای سنجش نیکویی برازش است. این معیار بر اساس مفهوم انتروپی بنا شده‌است و نشان می‌دهد که استفاده از یک مدل آماری به چه میزان باعث از دست رفتن اطلاعات می‌شود. به عبارت دیگر، این معیار تعادلی میان دقت مدل و پیچیدگی آن برقرار می‌کند. این معیار توسط هیروتسوگو آکائیکه برای انتخاب بهترین مدل آماری پیشنهاد شد.[1]

با توجه به داده‌ها، چند مدل رقیب ممکن است با توجه به مقدار AIC رتبه بندی شوند و مدل دارای کمترین AIC بهترین است. از مقدار AIC می‌توان استنباط نمود که به عنوان مثال سه مدل بهتر وضعیت نسبتاً یکسانی دارند و بقیه مدل‌ها به مراتب بدتر هستند، اما معیاری برای انتخاب مقدار آستانه‌ای برای AIC که بتوان مدلی را به واسطه داشتن AIC بزرگتر از این مقدار رد کرد وجود ندارد.[2]

تعریف

در حالت کلی ، AIC برابر است با[3]:

که k تعداد پارامترهای مدل آماری است و L مقدار حداکثر تابع درستنمایی برای مدل برآورد شده است.

AIC تصحیح شده

با تصحیح مرتبه دو AIC برای نمونه‌های با تعداد کمتر AICc به دست می‌آید:

از آنجایی که برای نمونه‌های با تعداد زیاد AICc به AIC همگرا می‌شود، همیشه باید AICc را به جای AIC بکار برد.[4]

منابع

  1. Akaike, Hirotugu (1974). "A new look at the statistical model identification". IEEE Transactions on Automatic Control. ۱۹ (۶): ۷۱۶–۷۲۳. doi:10.1109/TAC.1974.1100705. MR۰۴۲۳۷۱۶.
  2. Burnham, Anderson, 1998, "Model Selection and Inference - A practical information-theoretic approach" ISBN 0-387-98504-2
  3. Burnham, K. P., and D. R. Anderson, 2002. Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, 2nd ed. Springer-Verlag. ISBN 0-387-95364-7.
  4. Burnham, K. P., and D. R. Anderson, 2004. Multimodel Inference: understanding AIC and BIC in Model Selection, Amsterdam Workshop on Model Selection.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.