آدابوست
آدابوست (به انگلیسی: AdaBoost) تطبیقی بوده و یک الگوریتم یادگیری ماشین است که توسط یاو فروند و رابرت شاپیر ابداع شد.[1] در واقع آدابوست یک متا الگوریتم است که به منظور ارتقاء عملکرد، و رفع مشکل ردههای نامتوازن[2] همراه دیگر الگوریتمهای یادگیری استفاده میشود. در این الگوریتم، طبقهبند هر مرحله جدید به نفع نمونههای غلط طبقهبندی شده در مراحل قبل تنظیم میگردد. آدابوست نسبت به دادههای نویزی و پرت حساس است؛ ولی نسبت به مشکل بیش برازش از بیشتر الگوریتمهای یادگیری برتری دارد. طبقهبند پایه که در اینجا استفاده میشود فقط کافیست از طبقهبند تصادفی (۵۰٪) بهتر باشد و به این ترتیب بهبود عملکرد الگوریتم با تکرارهای بیشتر بهبود مییابد. حتی طبقهبندهای با خطای بالاتر از تصادفی با گرفتن ضریب منفی عملکرد کلی را بهبود میبخشند.[1] در الگوریتم آدابوست در هر دور یک طبقهبند ضعیف اضافه میشود. در هر فراخوانی بر اساس اهمیت نمونهها، وزنها بروز میشود. در هر دور وزن نمونههای غلط طبقهبندی شده افزایش و وزن نمونههای درست طبقهبندی شده کاهش داده میشود؛ بنابراین طبقهبند جدید تمرکز بر نمونههایی که سختتر یادگرفته میشوند، خواهند داشت.[1]
الگوریتم طبقهبندی دوگانه
داده شدهها:
- مجموعه یادگیری: که
- تعداد تکرارها:
مقداردهی اولیه: برای
- برای خانواده طبقهبندهای ضعیف ℋ طبقهبند را پیدا کن که میزان خطا نسبت به توزیع کمینه شود، در این معادله یک تابع نشانگر است:
خطای را با نمایش میدهیم:
- اگر که یک آستانه تعیین شده قبلی است، توقف انجام شود.
- معمولاً مقدار برای در نظر گرفته میشود.
- بروز رسانی:
- که یک عامل نرمالسازی با مقدار است که موجب میشود یک توزیع احتمالاتی مجاز را نشان دهد (مجموع روی همه ها یک شود)
- خروجی نهایی طبقهبند
- توجه شود که معادله بروز رسانی توزیع بگونهای بروز میشود که
بنابراین بعد از انتخاب بهینه طبقهبند برای توزیع آندسته از نمونهها که طبقهبند آنها را غلط طبقهبندی میکند وزن بیشتری نسبت به بقیه داده میشود؛ بنابراین وقتی الگوریتم طبقهبندها را براساس توزیع تست میکند، طبقهبندی انتخاب میشود که نمونههای غلط طبقهبندی شده را بهتر تشخیص دهد.
اثبات و فهم ریاضی آدابوست
عمل تقویت کردن را میتوان به صورت حداقل کردن یک تابع هزینه محدب روی یک مجموعه محدب از توابع در نظر گرفت.[3] بهطور خاص تابعی که حداقل میشود نمایی است:
و ما بدنبال تابعی به شکل زیر هستیم:[4]
مجهولِ تابع هزینه ، است که خود به بستگی دارد. در نتیجه بهینهسازی تابع هزینه در نهایت باید نسبت به صورت بگیرد.
حال برای راحتتر شدن کار فرض میکنیم که مقادیر ثابت هستند و هدف ما پیدا کردن و است. با این اوصاف تابع را میتوان به شکل پایین نوشت:
اگر را با نمایش دهیم، تابع هزینه ما به شکل پایین تغییر شکل خواهد داد:[4]
اگر مجموعه تمام دادههایی که توسط به درستی پیشبینی میشوند را با و مجموعه تمام دادههایی که توسط نادرست پیشبینی میشوند را با نمایش دهیم. تابع هزینه به شکل پایین تغییر خواهد کرد:
حال اگر را نسبت بهینه کنیم، از آنجا که و نسبت به ثابت هستند، فقط باید را نسبت به کمینه کنیم. یعنی
بعد از پیدا کردن باید را پیدا کنیم اگر را بنامیم تابع هزینه ما تبدیل میشود به که اگر از آن نسبت به مشتق بگیریم و جواب را در نقطه صفر بدست بیاوریم به این جواب میرسیم: .
حال که و را پیدا کردیم باید ببینیم که به چه شکل نسبت به بروز میشود. همان است یعنی
پس ارتباط با به این شکل خواهد بود:[4]
از آنجا که بهروز کردن به این شکل تغییر خواهد کرد:
اگر تمام ها را در یک مقدار ثابتی ضرب کنیم تأثیری در جواب نهایی و و نخواهد داشت. ازین رو همیشه میتوان مقدار آنها را نرمالسازی کرد. با نرمالسازی به معادله بازگشتی پایین میرسیم، در این معادله :
همان است، و از آنجا که در جواب تأثیری ندارد، میتوان آن را حذف کرد. حال اگر را همان بگیریم به الگوریتم آدابوست خواهیم رسید.[4]
جستارهای وابسته
منابع
- Yoav Freund, Robert E. Schapire. "A Decision-Theoretic Generalization of on-Line Learning and an Application to Boosting", 1995
- مهسا المعی نژاد. «روشهای Bagging و Boosting به منظور رفع مشکل کلاسهای نامتوازن». گروه داده کاوی ایران. بایگانیشده از اصلی در ۳۱ مارس ۲۰۱۴. دریافتشده در ۲۶ فوریه ۲۰۱۴.
- T. Zhang, "Statistical behavior and consistency of classification methods based on convex risk minimization", Annals of Statistics 32 (1), pp. 56-85, 2004.
- Bishop, Christopher (2006). Pattern Recognition and Machine Learning (به English). New York: Springer. pp. 658–661. ISBN 978-0-387-31073-2.
پیادهسازیها
- AdaBoost and the Super Bowl of Classifiers - A Tutorial on AdaBoost.
- Adaboost in C++, an implementation of Adaboost in C++ and boost by Antonio Gulli
- icsiboost, an open source implementation of Boostexter
- JBoost, a site offering a classification and visualization package, implementing AdaBoost among other boosting algorithms.
- MATLAB AdaBoost toolbox. Includes Real AdaBoost, Gentle AdaBoost and Modest AdaBoost implementations.
- A Matlab Implementation of AdaBoost
- milk for Python implements AdaBoost.
- MPBoost++, a C++ implementation of the original AdaBoost.MH algorithm and of an improved variant, the MPBoost algorithm.
- NPatternRecognizer, a fast machine learning algorithm library written in C#. It contains support vector machine, neural networks, bayes, boost, k-nearest neighbor, decision tree, … , etc.
- OpenCV implementation of several boosting variants
- Into contains open source implementations of many AdaBoost and FloatBoost variants in C++.
پیوند به بیرون
- Boosting.org, a site on boosting and related ensemble learning methods
- AdaBoost Presentation summarizing Adaboost (see page 4 for an illustrated example of performance)
- A Short Introduction to Boosting Introduction to Adaboost by Freund and Schapire from 1999
- A decision-theoretic generalization of on-line learning and an application to boosting Journal of Computer and System Sciences, no. 55. 1997 (Original paper of Yoav Freund and Robert E.Schapire where Adaboost is first introduced.)
- An applet demonstrating AdaBoost
- Ensemble Based Systems in Decision Making, R. Polikar, IEEE Circuits and Systems Magazine, vol.6, no.3, pp. 21–45, 2006. A tutorial article on ensemble systems including pseudocode, block diagrams and implementation issues for AdaBoost and other ensemble learning algorithms.
- Additive logistic regression: a statistical view of boosting by Jerome Friedman, Trevor Hastie, Robert Tibshirani. Paper introducing probabilistic theory for AdaBoost, and introducing GentleBoost