[NVIDIA] Nvidia va sortir un mini SUPERCOMPUTER - IA COMPUTER POUR 249$
- 1
Voilà quelques explications, je regarde en même temps que vous
https://www.youtube.com/watch?v=NDflpDCbmg4&t=19s&ab_channel=VisionIA
Faire un truc qui existe depuis toujours
Ajouter "IA"
Les golems se ruent dessus
GG
Le 24 décembre 2024 à 09:47:28 Bidipopbop a écrit :
Faire un truc qui existe depuis toujours
Ajouter "IA"
Les golems se ruent dessusGG
T'as raison on aurait du rester au Minitel et au Fax
[09:49:35] <Joe_PetChie>
Le 24 décembre 2024 à 09:47:28 Bidipopbop a écrit :
Faire un truc qui existe depuis toujours
Ajouter "IA"
Les golems se ruent dessusGG
T'as raison on aurait du rester au Minitel et au Fax
On te foutrait un fax avec un écran tactile que t'y verrais que du feu le Golem
Le 24 décembre 2024 à 09:47:28 :
Faire un truc qui existe depuis toujours
Ajouter "IA"
Les golems se ruent dessusGG
Je crois que tu ne comprends pas de quoi il s'agit, je t'invite à te renseigner
Le 24 décembre 2024 à 10:10:36 :
Faire tourner un LLM en local
Faisable avec un pc classique, mais faut une RTX et au moins 32go de ram, mais 64 c'est mieux
Le 24 décembre 2024 à 10:11:22 :
Le 24 décembre 2024 à 10:10:36 :
Faire tourner un LLM en localFaisable avec un pc classique, mais faut une RTX et au moins 32go de ram, mais 64 c'est mieux
C'est bientôt du passé ça, MS migre vers ARM, dans quelques années on aura des proco avec des NPU à la apple avec leurs processeurs M, ce PC c'est juste pour de la robotique pour avoir un truc autonome
Le 24 décembre 2024 à 10:13:11 :
Le 24 décembre 2024 à 10:11:22 :
Le 24 décembre 2024 à 10:10:36 :
Faire tourner un LLM en localFaisable avec un pc classique, mais faut une RTX et au moins 32go de ram, mais 64 c'est mieux
C'est bientôt du passé ça, MS migre vers ARM, dans quelques années on aura des proco avec des NPU à la apple avec leurs processeurs M, ce PC c'est juste pour de la robotique pour avoir un truc autonome
Ouais mais dans le turfu on va tout faire pour éviter que les gens aient accès au meilleur de l'IA en local je pense.
Meme aujourd'hui ça reste un marché de niche.
Demain on va nous vendre des abos, et à terme les gens abandonneront le hardware pour être majoritairement sur du cloud-computing.
Le 24 décembre 2024 à 10:15:13 :
Le 24 décembre 2024 à 10:13:11 :
Le 24 décembre 2024 à 10:11:22 :
Le 24 décembre 2024 à 10:10:36 :
Faire tourner un LLM en localFaisable avec un pc classique, mais faut une RTX et au moins 32go de ram, mais 64 c'est mieux
C'est bientôt du passé ça, MS migre vers ARM, dans quelques années on aura des proco avec des NPU à la apple avec leurs processeurs M, ce PC c'est juste pour de la robotique pour avoir un truc autonome
Ouais mais dans le turfu on va tout faire pour éviter que les gens aient accès au meilleur de l'IA en local je pense.
Meme aujourd'hui ça reste un marché de niche.
Demain on va nous vendre des abos, et à terme les gens abandonneront le hardware pour être majoritairement sur du cloud-computing.
C'est pas un marché de niche, toutes les puces apple ont des NPU pour faire tourner des LLM en local, avoir ta propre IA personnalisée et intégrée à ton OS, c'est ce qui va arriver. Ce mini PC c'est juste pour les IOT à la manière des raspberry, c'est encore un peu cher, mais c'est cher sans être cher
- 1
Données du topic
- Auteur
- Joe_PetChie
- Date de création
- 24 décembre 2024 à 09:41:34
- Nb. messages archivés
- 16
- Nb. messages JVC
- 16