"GNEUGNEU je suis DATA SCIENTIST je DOIS trouver le minimum GLOBAL""
Le 10 avril 2021 à 21:03:43 :
Le 10 avril 2021 à 21:00:37 :
Le 10 avril 2021 à 19:52:52 :
"kNN c'est à chier et c'est naïf""Y a aucune garantie théorique à un NN"
J'ai pas lu le reste du topic mais aux dernières nouvelles les réseaux de neurones niveau théorie à part des travaux sur des cas très spécifiques on est loin du compte. Non?
https://fr.m.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_d'approximation_universelle
![]()
Ça concerne des réseaux avec une seule couche cachée et ça ne donne aucune garantie quant à la généralisation du réseau de ce que j'ai compris. Ça dit juste que le réseau peut potentiellement approximation toute fonction sur un compact, mais rien sur la fonction qu'il finira par choisir après l'entraînement.
Le 10 avril 2021 à 21:07:58 :
Le 10 avril 2021 à 21:03:43 :
Le 10 avril 2021 à 21:00:37 :
Le 10 avril 2021 à 19:52:52 :
"kNN c'est à chier et c'est naïf""Y a aucune garantie théorique à un NN"
J'ai pas lu le reste du topic mais aux dernières nouvelles les réseaux de neurones niveau théorie à part des travaux sur des cas très spécifiques on est loin du compte. Non?
https://fr.m.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_d'approximation_universelle
![]()
Ça concerne des réseaux avec une seule couche cachée et ça ne donne aucune garantie quant à la généralisation du réseau de ce que j'ai compris. Ça dit juste que le réseau peut potentiellement approximation toute fonction sur un compact, mais rien sur la fonction qu'il finira par choisir après l'entraînement.
La fonction dépend de l'optimiseur
Si l'optimiseur est très bon il trouvera une fonction dont les paramètres permettent d'approcher le minimum global de la perte
Voir les résultats passionnants en optimisation non convexe et non lisse
Le 10 avril 2021 à 21:05:06 :
Le 10 avril 2021 à 21:01:02 :
Le 10 avril 2021 à 20:57:11 :
Le 10 avril 2021 à 20:53:05 :
Le 10 avril 2021 à 20:37:12 :
Le 10 avril 2021 à 20:35:07 :
On peut passer d'un M1 MIDS au MVA ?
Quels sont les M1 à faire pour aller en M2 MVA ? (maths et/ou info je sais mais lesquels ?)M1 mids: https://master.math.univ-paris-diderot.fr/annee/m1-mi/
Ya Descartes qui marche aussi mais faut être dans le top deux de la promo
Édit : tu penses quoi du MMA de Descartes d'ailleurs, c'est pas vraiment de l'IA plus de l'image par contre
Bien pour pratiquer sur le ring, moins bien pour faire des maths sérieuses
![]()
Non sans rigoler, ca reste très bien et largement suffisant à condition d'être passionné
![]()
Ayaaa
![]()
Ya vraiment des X/ENS qui trouvent rien après leur bullshut diplôme ?![]()
La sélection est, et restera naturelle, en effet. Et pourtant si près du but.
Sinon on en parle des golems qui veulent faire de l'IA ou de finance quantitative, pour seul prétexte que ça marche bien et que c'est a la mode.
Sérieux, les profs du MVA par exemple, quand ils étaient eux même étudiant dans les années 90, est ce qu'ils se sont dirigés vers l'IA parceque c'était à la mode ?
Le 10 avril 2021 à 21:11:07 :
Au fait, peux-tu préciser pourquoi tu dis que Lê n'a pas compris la p-value ?
C'est un peu abusif de ma part, mais quand j'avais regardé sa vidéo sur demande d'un de mes étudiants, il aborde le concept d'une manière très suspecte bien qu'il donne la bonne définition à un moment. En gros, au cours de sa diatribe, il y a + ou - une contradiction
Le 10 avril 2021 à 21:10:29 :
Le 10 avril 2021 à 21:07:58 :
Le 10 avril 2021 à 21:03:43 :
Le 10 avril 2021 à 21:00:37 :
Le 10 avril 2021 à 19:52:52 :
"kNN c'est à chier et c'est naïf""Y a aucune garantie théorique à un NN"
J'ai pas lu le reste du topic mais aux dernières nouvelles les réseaux de neurones niveau théorie à part des travaux sur des cas très spécifiques on est loin du compte. Non?
https://fr.m.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_d'approximation_universelle
![]()
Ça concerne des réseaux avec une seule couche cachée et ça ne donne aucune garantie quant à la généralisation du réseau de ce que j'ai compris. Ça dit juste que le réseau peut potentiellement approximation toute fonction sur un compact, mais rien sur la fonction qu'il finira par choisir après l'entraînement.
La fonction dépend de l'optimiseur
![]()
Si l'optimiseur est très bon il trouvera une fonction dont les paramètres permettent d'approcher le minimum global de la perte
![]()
Voir les résultats passionnants en optimisation non convexe et non lisse
![]()
Oui mais le souci n'est pas tant d'approcher le minimum global de la perte du dataset d'entraînement que de s'assurer que cette perte minimal pourra être généralisé sur un dataset de test.
Il y'a beaucoup de travaux récents sur le sujet mais on est encore loin de la solution
Le 10 avril 2021 à 21:11:43 :
Le 10 avril 2021 à 21:10:51 :
Le 10 avril 2021 à 21:08:22 :
Es-tu en thèse l'auteur ?Quelle année ? Ca se passe comment les TD avec les facs fermées, t'es payé quand même ou tu perds les ~300€/mois ?
Je suis très bien payé, je fais ma thèse CIFRE dans un organisme de la défense
Le 10 avril 2021 à 21:13:32 :
Le 10 avril 2021 à 21:10:29 :
Le 10 avril 2021 à 21:07:58 :
Le 10 avril 2021 à 21:03:43 :
Le 10 avril 2021 à 21:00:37 :
Le 10 avril 2021 à 19:52:52 :
"kNN c'est à chier et c'est naïf""Y a aucune garantie théorique à un NN"
J'ai pas lu le reste du topic mais aux dernières nouvelles les réseaux de neurones niveau théorie à part des travaux sur des cas très spécifiques on est loin du compte. Non?
https://fr.m.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_d'approximation_universelle
![]()
Ça concerne des réseaux avec une seule couche cachée et ça ne donne aucune garantie quant à la généralisation du réseau de ce que j'ai compris. Ça dit juste que le réseau peut potentiellement approximation toute fonction sur un compact, mais rien sur la fonction qu'il finira par choisir après l'entraînement.
La fonction dépend de l'optimiseur
![]()
Si l'optimiseur est très bon il trouvera une fonction dont les paramètres permettent d'approcher le minimum global de la perte
![]()
Voir les résultats passionnants en optimisation non convexe et non lisse
![]()
Oui mais le souci n'est pas tant d'approcher le minimum global de la perte du dataset d'entraînement que de s'assurer que cette perte minimal pourra être généralisé sur un dataset de test.
Il y'a beaucoup de travaux récents sur le sujet mais on est encore loin de la solution
C'est exact, comme je le précise dans le titre
Si ton nombre d'individus est infini tu n'as néanmoins pas besoin de tester l'algo, stat fréq oblige
Le 10 avril 2021 à 21:11:59 :
Le 10 avril 2021 à 21:05:06 :
Le 10 avril 2021 à 21:01:02 :
Le 10 avril 2021 à 20:57:11 :
Le 10 avril 2021 à 20:53:05 :
Le 10 avril 2021 à 20:37:12 :
Le 10 avril 2021 à 20:35:07 :
On peut passer d'un M1 MIDS au MVA ?
Quels sont les M1 à faire pour aller en M2 MVA ? (maths et/ou info je sais mais lesquels ?)M1 mids: https://master.math.univ-paris-diderot.fr/annee/m1-mi/
Ya Descartes qui marche aussi mais faut être dans le top deux de la promo
Édit : tu penses quoi du MMA de Descartes d'ailleurs, c'est pas vraiment de l'IA plus de l'image par contre
Bien pour pratiquer sur le ring, moins bien pour faire des maths sérieuses
![]()
Non sans rigoler, ca reste très bien et largement suffisant à condition d'être passionné
![]()
Ayaaa
![]()
Ya vraiment des X/ENS qui trouvent rien après leur bullshut diplôme ?![]()
La sélection est, et restera naturelle, en effet. Et pourtant si près du but.
![]()
Sinon on en parle des golems qui veulent faire de l'IA ou de finance quantitative, pour seul prétexte que ça marche bien et que c'est a la mode.
![]()
Sérieux, les profs du MVA par exemple, quand ils étaient eux même étudiant dans les années 90, est ce qu'ils se sont dirigés vers l'IA parceque c'était à la mode ?
On en parle pas assez, mais ils vont être sélectionnés et dépressifs/suicidés
Le 10 avril 2021 à 21:15:05 :
Le 10 avril 2021 à 21:13:32 :
Le 10 avril 2021 à 21:10:29 :
Le 10 avril 2021 à 21:07:58 :
Le 10 avril 2021 à 21:03:43 :
Le 10 avril 2021 à 21:00:37 :
Le 10 avril 2021 à 19:52:52 :
"kNN c'est à chier et c'est naïf""Y a aucune garantie théorique à un NN"
J'ai pas lu le reste du topic mais aux dernières nouvelles les réseaux de neurones niveau théorie à part des travaux sur des cas très spécifiques on est loin du compte. Non?
https://fr.m.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_d'approximation_universelle
![]()
Ça concerne des réseaux avec une seule couche cachée et ça ne donne aucune garantie quant à la généralisation du réseau de ce que j'ai compris. Ça dit juste que le réseau peut potentiellement approximation toute fonction sur un compact, mais rien sur la fonction qu'il finira par choisir après l'entraînement.
La fonction dépend de l'optimiseur
![]()
Si l'optimiseur est très bon il trouvera une fonction dont les paramètres permettent d'approcher le minimum global de la perte
![]()
Voir les résultats passionnants en optimisation non convexe et non lisse
![]()
Oui mais le souci n'est pas tant d'approcher le minimum global de la perte du dataset d'entraînement que de s'assurer que cette perte minimal pourra être généralisé sur un dataset de test.
Il y'a beaucoup de travaux récents sur le sujet mais on est encore loin de la solution
C'est exact, comme je le précise dans le titre
![]()
Si ton nombre d'individus est infini tu n'as néanmoins pas besoin de tester l'algo, stat fréq oblige
![]()
Sinon tu comptes continuer en France post-doc? Rester en académie ou tenter une GAFAM/Nvidia/etc.?
Le 10 avril 2021 à 21:17:07 :
Le 10 avril 2021 à 21:15:05 :
Le 10 avril 2021 à 21:13:32 :
Le 10 avril 2021 à 21:10:29 :
Le 10 avril 2021 à 21:07:58 :
Le 10 avril 2021 à 21:03:43 :
Le 10 avril 2021 à 21:00:37 :
Le 10 avril 2021 à 19:52:52 :
"kNN c'est à chier et c'est naïf""Y a aucune garantie théorique à un NN"
J'ai pas lu le reste du topic mais aux dernières nouvelles les réseaux de neurones niveau théorie à part des travaux sur des cas très spécifiques on est loin du compte. Non?
https://fr.m.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_d'approximation_universelle
![]()
Ça concerne des réseaux avec une seule couche cachée et ça ne donne aucune garantie quant à la généralisation du réseau de ce que j'ai compris. Ça dit juste que le réseau peut potentiellement approximation toute fonction sur un compact, mais rien sur la fonction qu'il finira par choisir après l'entraînement.
La fonction dépend de l'optimiseur
![]()
Si l'optimiseur est très bon il trouvera une fonction dont les paramètres permettent d'approcher le minimum global de la perte
![]()
Voir les résultats passionnants en optimisation non convexe et non lisse
![]()
Oui mais le souci n'est pas tant d'approcher le minimum global de la perte du dataset d'entraînement que de s'assurer que cette perte minimal pourra être généralisé sur un dataset de test.
Il y'a beaucoup de travaux récents sur le sujet mais on est encore loin de la solution
C'est exact, comme je le précise dans le titre
![]()
Si ton nombre d'individus est infini tu n'as néanmoins pas besoin de tester l'algo, stat fréq oblige
![]()
Sinon tu comptes continuer en France post-doc? Rester en académie ou tenter une GAFAM/Nvidia/etc.?
Bien sûr que je continuerai en France
Partir à l'étranger est un rêve de futur dreamer qui n'a ni passion ni foi en des valeurs
Et pourtant les offres abondent, mais jamais je ne trahirai ce pays, bien que je regrette son évolution


Données du topic
- Auteur
- LnDeTroie
- Date de création
- 10 avril 2021 à 19:51:35
- Nb. messages archivés
- 927
- Nb. messages JVC
- 916