Aller au contenu

Dilemme biais-variance

Un article de Wikipédia, l'encyclopédie libre.
Fonction et données bruitées.
spread=5
spread=1
spread=0.1
Une fonction (rouge) est estimée à l'aide de fonctions de base radiales (RBF) (en bleu). Plusieurs essais sont présentés dans chaque graphique.

Pour chaque essai, quelques points de données bruitées sont fournis comme ensemble d'apprentissage (en haut).

Pour une forte valeur du paramètre d'envergure[Quoi ?] (spread) (image 2), le biais est élevé : les RBF ne peuvent pleinement approximer la fonction (en particulier le creux central), mais la variance entre les différents essais est faible. Lorsque le paramètre d'envergure diminue (image 3 et 4), le biais diminue : les courbes bleues se rapprochent davantage de la courbe rouge. Cependant, en fonction du bruit dans les différents essais, la variance entre les essais augmente. Dans l'image du bas, les approximations pour x = 0 varient énormément selon l'endroit où se trouvaient les points de données.

En statistique et en apprentissage automatique, le dilemme (ou compromis) biais–variance est le problème de minimiser simultanément deux sources d'erreurs qui empêchent les algorithmes d'apprentissage supervisé de généraliser au-delà de leur échantillon d'apprentissage :

  • Le biais est l'erreur provenant d’hypothèses erronées dans l'algorithme d'apprentissage. Un biais élevé peut être lié à un algorithme qui manque de relations pertinentes entre les données en entrée et les sorties prévues (sous-apprentissage).
  • La variance est l'erreur due à la sensibilité aux petites fluctuations de l’échantillon d'apprentissage. Une variance élevée peut entraîner un surapprentissage, c'est-à-dire modéliser le bruit aléatoire des données d'apprentissage plutôt que les sorties prévues.

La décomposition biais-variance est une façon d'analyser l'espérance de l'erreur de prédiction d'un algorithme d'apprentissage d'un problème particulier comme une somme de trois termes : le biais, la variance et une quantité, appelée erreur irréductible, résultant du bruit dans le problème lui-même.

Ce compromis s'applique à toutes les formes d'apprentissage supervisé : classification, régression (fonction de montage)[1],[2], et le structured (output) learning (en). Il a également été invoqué pour expliquer l'efficacité des heuristiques dans l'apprentissage humain.

L'image illustre le compromis biais-variance en apprentissage automatique. Ce compromis décrit l'équilibre entre deux sources d'erreur dans un modèle prédictif : Biais : Erreur due à des hypothèses simplificatrices du modèle, pouvant entraîner un sous-ajustement (underfitting). Variance : Erreur liée à la sensibilité du modèle aux fluctuations des données d'entraînement, pouvant conduire à un surajustement (overfitting).

Le compromis biais-variance est un problème central en apprentissage supervisé. Idéalement, on veut choisir un modèle qui reflète avec précision les régularités dans les données d'apprentissage, mais qui se généralise aussi aux données tests (données n'ayant pas servi à entrainer le modèle). Malheureusement, il est généralement impossible de faire les deux en même temps. Les méthodes d'apprentissage avec une variance élevée peuvent assez bien représenter l’échantillon d’apprentissage, mais il existe un risque de surapprentissage sur des données tests ou bruitées. En revanche, les algorithmes avec une variance faible produisent généralement des modèles plus simples qui n'ont pas tendance au sur-apprentissage, mais peuvent être en sous-apprentissage sur le jeu de données d'apprentissage.

Les modèles avec un faible biais sont généralement plus complexes (par exemple la régression polynomiale à plusieurs degrés), mais permettent de représenter les données d’apprentissage avec plus de précision. Cependant, ils peuvent également représenter une partie du bruit aléatoire du jeu d'apprentissage, leurs prédictions sont donc moins précises malgré la complexité supplémentaire. En revanche, les modèles avec un biais plus élevé ont tendance à être relativement simples (régression polynomiale à moindre degré ou même linéaire), mais peuvent produire des prédictions de variance plus faible lorsqu'ils sont appliqués au-delà de l'ensemble d'apprentissage.

Décomposition biais-variance de l'erreur quadratique

[modifier | modifier le code]

Supposons que nous avons un ensemble d'apprentissage constitué d'un ensemble de points et de valeurs réelles associée à chaque point . Nous supposons qu'il existe une relation fonctionnelle bruitée , où le bruit, , a une moyenne nulle et une variance .

Trouver une fonction qui se généralise à des points extérieurs à l'ensemble d'apprentissage peut être fait avec l'un des nombreux algorithmes utilisés pour l'apprentissage supervisé. Selon la fonction que nous choisissons, son erreur attendue sur un  échantillon test  peut se décomposer comme suit[3]:34,[4]:223:

et

L'espérance est calculée sur l'ensemble des différents choix de l'échantillon d'apprentissage , tous générés selon la même distribution. Les trois termes sont :

  • le biais au carré de la méthode d'apprentissage, qui peut être vue comme l'erreur due aux hypothèses simplifiées de la méthode utilisée. Par exemple, approcher une fonction non linéaire à l'aide d'une méthode pour modèle linéaire va produire des erreurs d'estimation du fait de cette hypothèse ;
  • la variance de la méthode d'apprentissage, ou plus intuitivement, de combien la méthode d'apprentissage se déplace autour de sa moyenne;
  • l'erreur irréductible . Étant donné que tous les trois termes sont positifs, cela constitue une limite inférieure sur l'erreur attendue sur des échantillons test[3].:34

Plus le modèle de est complexe, plus le biais sera faible.  Cependant, la complexité va rendre le modèle "mobile" pour s'adapter aux données, et donc sa variance sera plus grande.

Application à la classification

[modifier | modifier le code]

La décomposition biais-variance a été initialement formulée pour une régression des moindres carrés. Dans le cas de la classification sous la perte 0-1 (Taux d'erreur),  Il est possible de trouver une décomposition similaire [7],[8]. Sinon, si le problème de la classification peut être formulé comme classification probabiliste, alors l'erreur quadratique attendue des probabilités prédites par rapport aux véritables probabilités peut être décomposée comme précédemment[9].

La réduction de la dimension et la sélection de variables (features en anglais) peuvent diminuer la variance tout en simplifiant les modèles.  De même, un plus grand ensemble d'apprentissage tend à diminuer la variance. L'ajout de variables explicatives (features) tend à diminuer le biais, au détriment de l'introduction de variance supplémentaire.

Les algorithmes d'apprentissage ont généralement certains paramètres ajustables qui contrôlent le biais et la variance, e.g. :

Une façon de résoudre le compromis consiste à utiliser des modèles mixte et de l'apprentissage ensembliste[12],[13]. Par exemple, le boosting combine plusieurs "mauvais" modèles (biais élevé) dans un ensemble qui a un biais plus faible que les modèles individuels, tandis que le bagging combine les "meilleurs" classifieurs d'une manière qui réduit leur variance.

Méthode des k plus proches voisins

[modifier | modifier le code]

Dans le cas de la méthode des k plus proches voisins, une formule explicite existe concernant la décomposition biais–variance du paramètre [4]:

sont les plus proches voisins de dans l’échantillon d'apprentissage. Le biais (premier terme de l’équation) est une fonction monotone croissante de , alors que la variance (second terme) diminue lorsque augmente. En effet, avec des "hypothèses raisonnables", le biais de l'estimateur du plus proche voisin (1-NN) disparaît entièrement lorsque la taille de l’échantillon d'apprentissage tend vers l'infini[1].

Application à l'apprentissage humain

[modifier | modifier le code]

Bien que largement discuté dans le contexte de l'apprentissage automatique, le dilemme biais-variance a été examiné dans le contexte des sciences cognitives, et plus particulièrement par Gerd Gigerenzer et ses co-auteurs dans le contexte de l'apprentissage heuristique. Ils soutiennent que, à partir des ensembles de données typiquement sporadiques et mal caractérisées produits par l’expérience, le cerveau humain résout ce dilemme en adoptant une heuristique à biais élevé et faible variance. Cela reflète le fait qu'une approche non biaisée se généralise mal à de nouvelles situations, et suppose aussi déraisonnablement une connaissance précise de la réalité. Les heuristiques en résultant sont relativement simples, mais produisent de meilleures inférences dans une plus grande variété de situations[14].

Geman et al. soutiennent que le dilemme biais-variance implique que les capacités telles que la reconnaissance d'objet générique ne peuvent être apprises à partir de zéro, mais nécessitent un certain degré d'inné qui est ensuite réglée par l'expérience. Ceci car les approches sans modèle d'inférence nécessitent des ensembles d'apprentissage démesurément grands si l'on veut éviter une forte variance.

Références

[modifier | modifier le code]
  1. a b et c (en) Stuart Geman, Élie Bienenstock et René Doursat, « Neural networks and the bias/variance dilemma », Neural Computation, vol. 4,‎ , p. 1–58 (DOI 10.1162/neco.1992.4.1.1, S2CID 14215320, lire en ligne).
  2. (en) Jo-Anne Ting, Sethu Vijaykumar et Stefan Schaal, Encyclopedia of Machine Learning, Springer, (Bibcode 2010eoml.book.....S, lire en ligne), « Locally Weighted Regression for Control », p. 615
  3. a b et c (en) Gareth James, Daniela Witten, Trevor Hastie et Robert Tibshirani, An Introduction to Statistical Learning, Springer, (lire en ligne).
  4. a et b (en) Trevor Hastie, Robert Tibshirani et Jerome H. Friedman, The Elements of Statistical Learning, (lire en ligne [archive du ]).
  5. (en) Sethu Vijayakumar, « The Bias–Variance Tradeoff », University of Edinburgh, (consulté le ).
  6. (en) Greg Shakhnarovich, « Notes on derivation of bias-variance decomposition in linear regression » [archive du ], (consulté le ).
  7. Pedro Domingos « A unified bias-variance decomposition » () (lire en ligne)
    ICML
    .
  8. Giorgio Valentini et Thomas G. Dietterich, « Bias–variance analysis of support vector machines for the development of SVM-based ensemble methods », Journal of Machine Learning Research, vol. 5,‎ , p. 725–775 (lire en ligne).
  9. Christopher D. Manning, Prabhakar Raghavan et Hinrich Schütze, Introduction to Information Retrieval, Cambridge University Press, , 308–314 p. (lire en ligne), « Vector Space Classification ».
  10. (en) David Belsley, Conditioning diagnostics : collinearity and weak data in regression, New York (NY), Wiley, (ISBN 978-0471528890).
  11. (en) Francesco Gagliardi, « Instance-based classifiers applied to medical databases: diagnosis and knowledge extraction », Artificial Intelligence in Medicine, vol. 52, no 3,‎ , p. 123–139 (PMID 21621400, DOI 10.1016/j.artmed.2011.04.002, lire en ligne).
  12. (en) Jo-Anne Ting, Sethu Vijaykumar et Stefan Schaal, Encyclopedia of Machine Learning, Springer, (Bibcode 2010eoml.book.....S, lire en ligne), « Locally Weighted Regression for Control », p. 615.
  13. (en) Scott Fortmann-Roe, « Understanding the Bias–Variance Tradeoff », .
  14. (en) Gerd Gigerenzer et Henry Brighton, « Homo Heuristicus: Why Biased Minds Make Better Inferences », Topics in Cognitive Science, vol. 1, no 1,‎ , p. 107–143 (PMID 25164802, DOI 10.1111/j.1756-8765.2008.01006.x, hdl 11858/00-001M-0000-0024-F678-0 Accès libre).

Liens externes

[modifier | modifier le code]