معیار اطلاعاتی آکائیکه
معیار اطلاعاتی آکائیکه (به انگلیسی: Akaike information criterion، یا به طور مخفف AIC) معیاری برای سنجش نیکویی برازش است. این معیار بر اساس مفهوم انتروپی بنا شدهاست و نشان میدهد که استفاده از یک مدل آماری به چه میزان باعث از دست رفتن اطلاعات میشود. به عبارت دیگر، این معیار تعادلی میان دقت مدل و پیچیدگی آن برقرار میکند. این معیار توسط هیروتسوگو آکائیکه برای انتخاب بهترین مدل آماری پیشنهاد شد.[1]
با توجه به دادهها، چند مدل رقیب ممکن است با توجه به مقدار AIC رتبه بندی شوند و مدل دارای کمترین AIC بهترین است. از مقدار AIC میتوان استنباط نمود که به عنوان مثال سه مدل بهتر وضعیت نسبتاً یکسانی دارند و بقیه مدلها به مراتب بدتر هستند، اما معیاری برای انتخاب مقدار آستانهای برای AIC که بتوان مدلی را به واسطه داشتن AIC بزرگتر از این مقدار رد کرد وجود ندارد.[2]
تعریف
در حالت کلی ، AIC برابر است با[3]:
که k تعداد پارامترهای مدل آماری است و L مقدار حداکثر تابع درستنمایی برای مدل برآورد شده است.
AIC تصحیح شده
با تصحیح مرتبه دو AIC برای نمونههای با تعداد کمتر AICc به دست میآید:
از آنجایی که برای نمونههای با تعداد زیاد AICc به AIC همگرا میشود، همیشه باید AICc را به جای AIC بکار برد.[4]
منابع
- Akaike, Hirotugu (1974). "A new look at the statistical model identification". IEEE Transactions on Automatic Control. ۱۹ (۶): ۷۱۶–۷۲۳. doi:10.1109/TAC.1974.1100705. MR۰۴۲۳۷۱۶.
- Burnham, Anderson, 1998, "Model Selection and Inference - A practical information-theoretic approach" ISBN 0-387-98504-2
- Burnham, K. P., and D. R. Anderson, 2002. Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, 2nd ed. Springer-Verlag. ISBN 0-387-95364-7.
- Burnham, K. P., and D. R. Anderson, 2004. Multimodel Inference: understanding AIC and BIC in Model Selection, Amsterdam Workshop on Model Selection.