Théorie de Vapnik-Chervonenkis — Wikipédia
La théorie de Vapnik-Tchervonenkis ou Vapnik-Chervonenkis, aussi connue sous le nom de théorie VC, est une théorie mathématique et informatique développée dans les années 1960-1990 par Vladimir Vapnik et Alexey Chervonenkis. C'est une forme de théorie de l'apprentissage automatique, qui tente d'expliquer l'apprentissage d'un point de vue statistique.
Présentation
[modifier | modifier le code]La théorie VC est liée à la théorie d'étude statistique. On peut désigner quatre notions importantes[réf. souhaitée] :
- Uniformité des apprentissages, qui correspond à la question : quelles sont les conditions (nécessaires et suffisantes) pour l'uniformité d'un apprentissage basé sur le principe de la minimisation du risque empirique?
- Taux de convergence des apprentissages, qui correspond à la question : Quelle est la vitesse de la convergence de l'apprentissage ?
- Contrôle de la capacité d'apprentissage automatique, qui correspond à la question : comment commander le taux de convergence (la capacité de généralisation) de l'apprentissage automatique ?
- Construction des machines à apprentissage automatique, qui correspond à la question : comment créer des algorithmes qui peuvent commander cet apprentissage ?
Concepts importants et relations avec d'autres domaines
[modifier | modifier le code]La théorie VC contient des concepts importants tels que la dimension VC et la minimisation structurale du risque. Cette théorie est directement liée à certains sujets mathématiques, comme la théorie des espaces de Hilbert à noyau reproduisant, les réseaux de régularisation, les kernels et les processus empiriques.
Articles connexes
[modifier | modifier le code]Sources
[modifier | modifier le code]- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Vapnik-Chervonenkis theory » (voir la liste des auteurs).
- (en) V. N. Vapnik, The Nature of Statistical Learning Theory, Springer, , 314 p. (ISBN 978-0-387-98780-4, lire en ligne)