Le 10 avril 2021 à 21:17:07 :
Le 10 avril 2021 à 21:15:05 :
Le 10 avril 2021 à 21:13:32 :
Le 10 avril 2021 à 21:10:29 :
Le 10 avril 2021 à 21:07:58 :
Le 10 avril 2021 à 21:03:43 :
Le 10 avril 2021 à 21:00:37 :
Le 10 avril 2021 à 19:52:52 :
"kNN c'est à chier et c'est naïf"
"Y a aucune garantie théorique à un NN"
OK Pucelin
J'ai pas lu le reste du topic mais aux dernières nouvelles les réseaux de neurones niveau théorie à part des travaux sur des cas très spécifiques on est loin du compte. Non?
https://fr.m.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_d'approximation_universelle
Ça concerne des réseaux avec une seule couche cachée et ça ne donne aucune garantie quant à la généralisation du réseau de ce que j'ai compris. Ça dit juste que le réseau peut potentiellement approximation toute fonction sur un compact, mais rien sur la fonction qu'il finira par choisir après l'entraînement. 
La fonction dépend de l'optimiseur
Si l'optimiseur est très bon il trouvera une fonction dont les paramètres permettent d'approcher le minimum global de la perte
Voir les résultats passionnants en optimisation non convexe et non lisse
Oui mais le souci n'est pas tant d'approcher le minimum global de la perte du dataset d'entraînement que de s'assurer que cette perte minimal pourra être généralisé sur un dataset de test.
Il y'a beaucoup de travaux récents sur le sujet mais on est encore loin de la solution 
C'est exact, comme je le précise dans le titre
Si ton nombre d'individus est infini tu n'as néanmoins pas besoin de tester l'algo, stat fréq oblige
Sinon tu comptes continuer en France post-doc? Rester en académie ou tenter une GAFAM/Nvidia/etc.?
Bien sûr que je continuerai en France
Partir à l'étranger est un rêve de futur dreamer qui n'a ni passion ni foi en des valeurs
Et pourtant les offres abondent, mais jamais je ne trahirai ce pays, bien que je regrette son évolution