Discussion:Estimation par noyau
Apparence
Autres discussions [liste]
- Admissibilité
- Neutralité
- Droit d'auteur
- Article de qualité
- Bon article
- Lumière sur
- À faire
- Archives
- Commons
article fondamental pour comprendre l'apprentissage automatique ou les réseaux de neurones ?
[modifier le code]- mais seulement si on met l'accent sur l'a-priori caché derrière l'estimateur à noyau : a-priori que la densité est lisse, sans trop de variations brusques, i.e. de hautes fréquences (d'où le choix d'un noyau filtre passe-bas) :
- et l'idée que si le paramètre de lissage est lui-même variable en fonction du point de l'espace et donné/appris par un estimateur à noyaux (estimateurs récursifs/imbriqués) on retombe sur les réseaux de neurones non-récurrents en:feedforward neural network, i.e, un en:multilayer perceptron
- on se pose alors des question existentielles comme : comment apprendre/estimer sans a-priori alors qu'on a forcément un a-priori :
- soit directement comme le choix du noyau (avec son paramètre de lissage) soit
- soit indirectement comme le choix d'un nombre de neurones et de couches pour le perceptron multicouche
78.227.78.135 (discuter) 30 octobre 2015 à 01:59 (CET)
Imprécision sur le nom de variable
[modifier le code]Bonjour,
Dans la section "propriétés", la définition de la variable notée 'n' n'est pas clair: s'agit-il du nombre d'éléments de l'échantillon où l'on applique la régression? Ou s'agit-il du nombre d'itération de l'algorithme de régression? Sans cette information, l'article est malheureusement peu compréhensible...
Paramètre de lissage de la Gaussienne: intuition
[modifier le code]Concernant la partie Intuition:
Il me semble que le paramètre de lissage h, qui correspond à la largeur des boites dans le cas "histogramme" devient l'écart type de la gaussienne dans le cas du noyau. Qu'en dites vous? Flox3000 (discuter) 26 avril 2022 à 10:25 (CEST)