About: AdaBoost

An Entity of Type: software, from Named Graph: http://dbpedia.org, within Data Space: dbpedia.org

AdaBoost, short for Adaptive Boosting, is a statistical classification meta-algorithm formulated by Yoav Freund and Robert Schapire in 1995, who won the 2003 Gödel Prize for their work. It can be used in conjunction with many other types of learning algorithms to improve performance. The output of the other learning algorithms ('weak learners') is combined into a weighted sum that represents the final output of the boosted classifier. Usually, AdaBoost is presented for binary classification, although it can be generalized to multiple classes or bounded intervals on the real line.

Property Value
dbo:abstract
  • أدابوست (بالإنجليزية: AdaBoost)‏ هي خوارزمية للتعليم الآلي صاغها Yoav Freund وRobert Schapire الذي فازا بجائزة Gödel 2003 عن عملهما. ويمكن استخدامها مع العديد من الأنواع الأخرى من خوارزميات التعلم لتحسين الأداء. تعزيز التكيف حساس للبيانات الصاخبة والقيم المتطرفة. في بعض المشكلات، قد تكون أقل عرضة لمشكلة التحمل من خوارزميات التعلم الأخرى. المتعلمين فرديا من الممكن ان يكونوا ضعفاء، لكن طالما كان الأداء لكل متعلم أفضل بقليل من التخمين العشوائي، بعد ذلك النموذج النهائي من الممكن أن يثبت انه متعلم بكفاءة. واحدة من الخوارزميات التي تستخدم تعزيز التكيف في أشجار القرار و أشجار القرار تعتبر متعلم ضعيف. غالبا تعتبر كواحدة من أفضل المصنفات خارج الصندوق. عندما يستخدم مع شجرة التعليم فان عينة التدريب يتم تغذيتها إلى خوارزمية شجرة النمو. لذلك لاحقا الشجرات تميل للتركيز على التصانيف الأصعب للمشاكل. (ar)
  • AdaBoost, short for Adaptive Boosting, is a statistical classification meta-algorithm formulated by Yoav Freund and Robert Schapire in 1995, who won the 2003 Gödel Prize for their work. It can be used in conjunction with many other types of learning algorithms to improve performance. The output of the other learning algorithms ('weak learners') is combined into a weighted sum that represents the final output of the boosted classifier. Usually, AdaBoost is presented for binary classification, although it can be generalized to multiple classes or bounded intervals on the real line. AdaBoost is adaptive in the sense that subsequent weak learners are tweaked in favor of those instances misclassified by previous classifiers. In some problems it can be less susceptible to the overfitting problem than other learning algorithms. The individual learners can be weak, but as long as the performance of each one is slightly better than random guessing, the final model can be proven to converge to a strong learner. Although AdaBoost is typically used to combine weak base learners (such as decision stumps), it has been shown that it can also effectively combine strong base learners (such as deep decision trees), producing an even more accurate model. Every learning algorithm tends to suit some problem types better than others, and typically has many different parameters and configurations to adjust before it achieves optimal performance on a dataset. AdaBoost (with decision trees as the weak learners) is often referred to as the best out-of-the-box classifier. When used with decision tree learning, information gathered at each stage of the AdaBoost algorithm about the relative 'hardness' of each training sample is fed into the tree growing algorithm such that later trees tend to focus on harder-to-classify examples. (en)
  • AdaBoost (ou adaptive boosting) est, en intelligence artificielle et en apprentissage automatique, un méta-algorithme de boosting introduit par Yoav Freund et Robert Schapire. Il peut être utilisé en association avec de nombreux autres types d'algorithmes d'apprentissage afin d'en améliorer les performances. Les sorties des autres algorithmes (appelés classifieurs faibles) sont combinées en une somme pondérée qui représente la sortie finale du classeur boosté. AdaBoost est adaptatif dans le sens où les classeurs faibles subséquents sont ajustés en faveur des échantillons mal classés par les classeurs précédents. AdaBoost est notablement sensible aux données bruitées ou peu corrélées. Toutefois, dans certains problèmes, il peut s'avérer moins enclin au surapprentissage que d'autres algorithmes. Les sous-classeurs utilisés peuvent être faibles tant qu'ils proposent une performance au moins un peu supérieure à celle d'un classeur aléatoire, auquel cas il peut être prouvé que le modèle final converge vers un classeur fort. Tous les algorithmes d'apprentissage tendent à correspondre plus à certains types de problèmes qu'à d'autres, et ont typiquement de nombreux paramètres et configurations différents qu'il est nécessaire d'ajuster pour atteindre une performance optimale sur un ensemble d'apprentissage fourni. AdaBoost (avec des arbres de décision comme classeurs faibles) est souvent désigné comme le meilleur classeur clé-en-main. (fr)
  • 에이다부스트(영어: AdaBoost: adaptive boosting의 줄임말, 아다부스트는 잘못된 발음)는 Yoav Freund와 Robert Schapire가 개발한 기계 학습 메타 알고리즘이으로 이들은 AdaBoost를 개발한 공로를 인정받아 2003년 괴델상을 받았다. AdaBoost는 성능을 향상시키기 위하여 다른 많은 형태의 학습 알고리즘과 결합하여 사용할 수 있다. 다른 학습 알고리즘(약한 학습기, weak learner)의 결과물들을 가중치를 두어 더하는 방법으로 가속화 분류기의 최종 결과물을 표현할 수 있다. AdaBoost는 이전의 분류기에 의해 잘못 분류된 것들을 이어지는 약한 학습기들이 수정해줄 수 있다는 점에서 다양한 상황에 적용할 수 있다(adaptive). 따라서 에이다 부스트는 잡음이 많은 데이터와 이상점(outlier)에 취약한 모습을 보인다. 그러나 또 다른 경우에는, 다른 학습 알고리즘보다 과적합(overfitting)에 덜 취약한 모습을 보이기도 한다. 개별 학습기들의 성능이 떨어지더라도, 각각의 성능이 무작위 추정보다 조금이라도 더 낫다면(이진 분류에서 에러율이 0.5보다 낮다면), 최종 모델은 강한 학습기로 수렴한다는 것을 증명할 수 있다. 모든 학습 알고리즘이 잘 적용될 수 있는 형태의 문제가 있고 그렇지 않은 문제가 있으며, 일반적으로 주어진 데이터 집합에 대한 최고의 성능을 얻기 위해서 많은 파라미터와 설정을 조절해야 하는 반면, (약한 학습기로서 결정 트리 학습법을 이용한) AdaBoost는 종종 최고의 발군의 분류기로 불린다. 결정 트리 학습법과 함께 사용되었을 때, AdaBoost 알고리즘의 각 단계에서 얻을 수 있는 각 훈련 샘플의 상대적 난이도에 대한 정보가 트리 성장 알고리즘에 반영되어 트리가 분류하기 더 어려운 경우에 집중되는 경향이 있다. (ko)
  • AdaBoost(Adaptive Boosting、エイダブースト、アダブースト)は、 と によって考案された機械学習アルゴリズムである。メタアルゴリズムであり、他の多くの学習アルゴリズムと組み合わせて利用することで、そのパフォーマンスを改善することができる。AdaBoost は前の分類機の間違いに応じて調整された次の分類機を作るという意味で適応的 (Adaptive) である。AdaBoost はノイズの多いデータや異常値に影響を受ける。しかし、いくつかの場面では、多くの学習アルゴリズムより過剰適合の影響を受けにくい。 AdaBoost は、それぞれの標本に対し、 を、 から まで順に適用し、それぞれの分類器が正解したか否かを判断する。間違って分類された標本に対応する重み は、より重くされる(あるいは、正しく分類された標本の場合は、重みを減らす)。これらの標本に対する重みから、次の t のループでは正しい分類器を早く探す事が出来る。 (ja)
  • O AdaBoost é um algoritmo de aprendizado de máquina, inventado por e . É um algoritmo meta-heurístico, e pode ser utilizado para aumentar a performance de outros algoritmos de aprendizagem. O nome "AdaBoost" deriva de Adaptive Boosting (em português, impulso ou estímulo adaptativo). O AdaBoost é adaptável no sentido de que as classificações subsequentes feitas são ajustadas a favor das instâncias classificadas negativamente por classificações anteriores. O AdaBoost é sensível ao ruído nos dados e casos isolados. Entretanto para alguns problemas é menos suscetível a perda da capacidade de generalização após o aprendizado de muitos padrões de treino do que a maioria dos algoritmos de aprendizado de máquina. (pt)
  • AdaBoost – podstawowy algorytm do boostingu, metoda dzięki której z dużej liczby słabych klasyfikatorów można otrzymać jeden lepszy. Autorami algorytmu są Yoav Freund i Robert Schapire. (pl)
  • AdaBoost ("Adaptive Boosting") är en metaalgoritm för maskininlärning där utsignalen från den svaga inlärningsalgoritmen kombineras med en viktad summa som representerar den stärkta klassificeraren. Algoritmen formulerades av Yoav Freund and Robert Schapire och var då den första praktiska tillämpningen av boosting. Problem i maskininlärning lider ofta av att antalet särdrag som används för att träna klassificeraren blir ofantligt många vilket påverkar tiden det tar att träna klassificeraren och i förlängningen prestandan hos klassificeraren. Idén med "boosting" (eller att stärka) är att upprepade gånger tillämpa en svag inlärningsalgoritm på olika fördelningar av träningsdata och att aggregera de enskilda klassificerare till en enda övergripande klassificerare. Efter varje iteration förändras fördelningen av träningsinstanser utifrån felet nuvarande klassificerare uppvisar mot träningsmängden. Genom att endast använda de särdrag som förbättrar prestandan i klassificeraren förbättras exekveringstiden eftersom irrelevanta särdrag inte behöver beräknas. (sv)
  • AdaBoost (сокращение от Adaptive Boosting) — алгоритм машинного обучения, предложенный и . Этот алгоритм может использоваться в сочетании с несколькими алгоритмами классификации для улучшения их эффективности.Алгоритм усиливает классификаторы, объединяя их в «комитет» (ансамбль). AdaBoost является адаптивным в том смысле, что каждый следующий комитет классификаторов строится по объектам, неверно классифицированным предыдущими комитетами. AdaBoost чувствителен к шуму в данных и выбросам. Однако он менее подвержен переобучению по сравнению с другими алгоритмами машинного обучения. AdaBoost вызывает слабые классификаторы в цикле . После каждого вызова обновляется распределение весов , которые отвечают важности каждого из объектов обучающего множества для классификации. На каждой итерации веса каждого неверно классифицированного объекта возрастают, таким образом новый комитет классификаторов «фокусирует своё внимание» на этих объектах. (ru)
  • AdaBoost為英文"Adaptive Boosting"(自适应增强)的缩写,是一种机器学习方法,由約阿夫·弗羅因德和羅伯特·沙皮爾提出。AdaBoost方法的自适应在于:前一个分类器分错的样本会被用来训练下一个分类器。AdaBoost方法对于噪声数据和异常数据很敏感。但在一些问题中,AdaBoost方法相对于大多数其它学习算法而言,不会很容易出现过拟合现象。AdaBoost方法中使用的分类器可能很弱(比如出现很大错误率),但只要它的分类效果比随机好一点(比如两类问题分类错误率略小于0.5),就能够改善最终得到的模型。而错误率高于随机分类器的弱分类器也是有用的,因为在最终得到的多个分类器的线性组合中,可以给它们赋予负系数,同样也能提升分类效果。 AdaBoost方法是一种迭代算法,在每一轮中加入一个新的弱分类器,直到达到某个预定的足够小的错误率。每一个训练样本都被赋予一个权重,表明它被某个分类器选入训练集的概率。如果某个样本点已经被准确地分类,那么在构造下一个训练集中,它被选中的概率就被降低;相反,如果某个样本点没有被准确地分类,那么它的权重就得到提高。通过这样的方式,AdaBoost方法能“聚焦于”那些较难分(更富信息)的样本上。在具体实现上,最初令每个样本的权重都相等,对于第k次迭代操作,我们就根据这些权重来选取样本点,进而训练分类器Ck。然后就根据这个分类器,来提高被它分错的的样本的权重,并降低被正确分类的样本权重。然后,权重更新过的样本集被用于训练下一个分类器Ck。整个训练过程如此迭代地进行下去。 (zh)
dbo:wikiPageExternalLink
dbo:wikiPageID
  • 1645603 (xsd:integer)
dbo:wikiPageLength
  • 25237 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID
  • 1118594802 (xsd:integer)
dbo:wikiPageWikiLink
dbp:wikiPageUsesTemplate
dct:subject
gold:hypernym
rdf:type
rdfs:comment
  • AdaBoost(Adaptive Boosting、エイダブースト、アダブースト)は、 と によって考案された機械学習アルゴリズムである。メタアルゴリズムであり、他の多くの学習アルゴリズムと組み合わせて利用することで、そのパフォーマンスを改善することができる。AdaBoost は前の分類機の間違いに応じて調整された次の分類機を作るという意味で適応的 (Adaptive) である。AdaBoost はノイズの多いデータや異常値に影響を受ける。しかし、いくつかの場面では、多くの学習アルゴリズムより過剰適合の影響を受けにくい。 AdaBoost は、それぞれの標本に対し、 を、 から まで順に適用し、それぞれの分類器が正解したか否かを判断する。間違って分類された標本に対応する重み は、より重くされる(あるいは、正しく分類された標本の場合は、重みを減らす)。これらの標本に対する重みから、次の t のループでは正しい分類器を早く探す事が出来る。 (ja)
  • AdaBoost – podstawowy algorytm do boostingu, metoda dzięki której z dużej liczby słabych klasyfikatorów można otrzymać jeden lepszy. Autorami algorytmu są Yoav Freund i Robert Schapire. (pl)
  • أدابوست (بالإنجليزية: AdaBoost)‏ هي خوارزمية للتعليم الآلي صاغها Yoav Freund وRobert Schapire الذي فازا بجائزة Gödel 2003 عن عملهما. ويمكن استخدامها مع العديد من الأنواع الأخرى من خوارزميات التعلم لتحسين الأداء. تعزيز التكيف حساس للبيانات الصاخبة والقيم المتطرفة. في بعض المشكلات، قد تكون أقل عرضة لمشكلة التحمل من خوارزميات التعلم الأخرى. المتعلمين فرديا من الممكن ان يكونوا ضعفاء، لكن طالما كان الأداء لكل متعلم أفضل بقليل من التخمين العشوائي، بعد ذلك النموذج النهائي من الممكن أن يثبت انه متعلم بكفاءة. (ar)
  • AdaBoost, short for Adaptive Boosting, is a statistical classification meta-algorithm formulated by Yoav Freund and Robert Schapire in 1995, who won the 2003 Gödel Prize for their work. It can be used in conjunction with many other types of learning algorithms to improve performance. The output of the other learning algorithms ('weak learners') is combined into a weighted sum that represents the final output of the boosted classifier. Usually, AdaBoost is presented for binary classification, although it can be generalized to multiple classes or bounded intervals on the real line. (en)
  • AdaBoost (ou adaptive boosting) est, en intelligence artificielle et en apprentissage automatique, un méta-algorithme de boosting introduit par Yoav Freund et Robert Schapire. Il peut être utilisé en association avec de nombreux autres types d'algorithmes d'apprentissage afin d'en améliorer les performances. Les sorties des autres algorithmes (appelés classifieurs faibles) sont combinées en une somme pondérée qui représente la sortie finale du classeur boosté. AdaBoost est adaptatif dans le sens où les classeurs faibles subséquents sont ajustés en faveur des échantillons mal classés par les classeurs précédents. (fr)
  • 에이다부스트(영어: AdaBoost: adaptive boosting의 줄임말, 아다부스트는 잘못된 발음)는 Yoav Freund와 Robert Schapire가 개발한 기계 학습 메타 알고리즘이으로 이들은 AdaBoost를 개발한 공로를 인정받아 2003년 괴델상을 받았다. AdaBoost는 성능을 향상시키기 위하여 다른 많은 형태의 학습 알고리즘과 결합하여 사용할 수 있다. 다른 학습 알고리즘(약한 학습기, weak learner)의 결과물들을 가중치를 두어 더하는 방법으로 가속화 분류기의 최종 결과물을 표현할 수 있다. AdaBoost는 이전의 분류기에 의해 잘못 분류된 것들을 이어지는 약한 학습기들이 수정해줄 수 있다는 점에서 다양한 상황에 적용할 수 있다(adaptive). 따라서 에이다 부스트는 잡음이 많은 데이터와 이상점(outlier)에 취약한 모습을 보인다. 그러나 또 다른 경우에는, 다른 학습 알고리즘보다 과적합(overfitting)에 덜 취약한 모습을 보이기도 한다. 개별 학습기들의 성능이 떨어지더라도, 각각의 성능이 무작위 추정보다 조금이라도 더 낫다면(이진 분류에서 에러율이 0.5보다 낮다면), 최종 모델은 강한 학습기로 수렴한다는 것을 증명할 수 있다. (ko)
  • AdaBoost (сокращение от Adaptive Boosting) — алгоритм машинного обучения, предложенный и . Этот алгоритм может использоваться в сочетании с несколькими алгоритмами классификации для улучшения их эффективности.Алгоритм усиливает классификаторы, объединяя их в «комитет» (ансамбль). AdaBoost является адаптивным в том смысле, что каждый следующий комитет классификаторов строится по объектам, неверно классифицированным предыдущими комитетами. AdaBoost чувствителен к шуму в данных и выбросам. Однако он менее подвержен переобучению по сравнению с другими алгоритмами машинного обучения. (ru)
  • O AdaBoost é um algoritmo de aprendizado de máquina, inventado por e . É um algoritmo meta-heurístico, e pode ser utilizado para aumentar a performance de outros algoritmos de aprendizagem. O nome "AdaBoost" deriva de Adaptive Boosting (em português, impulso ou estímulo adaptativo). O AdaBoost é adaptável no sentido de que as classificações subsequentes feitas são ajustadas a favor das instâncias classificadas negativamente por classificações anteriores. (pt)
  • AdaBoost ("Adaptive Boosting") är en metaalgoritm för maskininlärning där utsignalen från den svaga inlärningsalgoritmen kombineras med en viktad summa som representerar den stärkta klassificeraren. Algoritmen formulerades av Yoav Freund and Robert Schapire och var då den första praktiska tillämpningen av boosting. Problem i maskininlärning lider ofta av att antalet särdrag som används för att träna klassificeraren blir ofantligt många vilket påverkar tiden det tar att träna klassificeraren och i förlängningen prestandan hos klassificeraren. (sv)
  • AdaBoost為英文"Adaptive Boosting"(自适应增强)的缩写,是一种机器学习方法,由約阿夫·弗羅因德和羅伯特·沙皮爾提出。AdaBoost方法的自适应在于:前一个分类器分错的样本会被用来训练下一个分类器。AdaBoost方法对于噪声数据和异常数据很敏感。但在一些问题中,AdaBoost方法相对于大多数其它学习算法而言,不会很容易出现过拟合现象。AdaBoost方法中使用的分类器可能很弱(比如出现很大错误率),但只要它的分类效果比随机好一点(比如两类问题分类错误率略小于0.5),就能够改善最终得到的模型。而错误率高于随机分类器的弱分类器也是有用的,因为在最终得到的多个分类器的线性组合中,可以给它们赋予负系数,同样也能提升分类效果。 (zh)
rdfs:label
  • تعزيز التكيف (ar)
  • AdaBoost (en)
  • AdaBoost (fr)
  • 에이다부스트 (ko)
  • AdaBoost (ja)
  • AdaBoost (pl)
  • AdaBoost (pt)
  • AdaBoost (sv)
  • AdaBoost (ru)
  • AdaBoost (zh)
owl:sameAs
prov:wasDerivedFrom
foaf:isPrimaryTopicOf
is dbo:knownFor of
is dbo:wikiPageRedirects of
is dbo:wikiPageWikiLink of
is dbp:knownFor of
is foaf:primaryTopic of
Powered by OpenLink Virtuoso    This material is Open Knowledge     W3C Semantic Web Technology     This material is Open Knowledge    Valid XHTML + RDFa
This content was extracted from Wikipedia and is licensed under the Creative Commons Attribution-ShareAlike 3.0 Unported License