Topic de Joe_PetChie :

[NVIDIA] Nvidia va sortir un mini SUPERCOMPUTER - IA COMPUTER POUR 249$

  • 1
On pourra miner de la crypto ?
C'est une blague son truc ?
Peut-être i y a un train a ne pas louper, on pourra créer plein de comptes insta, youtube pour engranger plein de thunes https://image.noelshack.com/fichiers/2021/43/4/1635454847-elton-john-tison-golem.png

Faire un truc qui existe depuis toujours
Ajouter "IA"
Les golems se ruent dessus

GG

Le 24 décembre 2024 à 09:47:28 Bidipopbop a écrit :
Faire un truc qui existe depuis toujours
Ajouter "IA"
Les golems se ruent dessus

GG

T'as raison on aurait du rester au Minitel et au Fax

[09:49:35] <Joe_PetChie>

Le 24 décembre 2024 à 09:47:28 Bidipopbop a écrit :
Faire un truc qui existe depuis toujours
Ajouter "IA"
Les golems se ruent dessus

GG

T'as raison on aurait du rester au Minitel et au Fax

On te foutrait un fax avec un écran tactile que t'y verrais que du feu le Golem

Le 24 décembre 2024 à 09:47:28 :
Faire un truc qui existe depuis toujours
Ajouter "IA"
Les golems se ruent dessus

GG

Je crois que tu ne comprends pas de quoi il s'agit, je t'invite à te renseigner

Faire tourner un LLM en local

Le 24 décembre 2024 à 10:10:36 :
Faire tourner un LLM en local

Faisable avec un pc classique, mais faut une RTX et au moins 32go de ram, mais 64 c'est mieux

Le 24 décembre 2024 à 10:11:22 :

Le 24 décembre 2024 à 10:10:36 :
Faire tourner un LLM en local

Faisable avec un pc classique, mais faut une RTX et au moins 32go de ram, mais 64 c'est mieux

C'est bientôt du passé ça, MS migre vers ARM, dans quelques années on aura des proco avec des NPU à la apple avec leurs processeurs M, ce PC c'est juste pour de la robotique pour avoir un truc autonome

Le 24 décembre 2024 à 10:13:11 :

Le 24 décembre 2024 à 10:11:22 :

Le 24 décembre 2024 à 10:10:36 :
Faire tourner un LLM en local

Faisable avec un pc classique, mais faut une RTX et au moins 32go de ram, mais 64 c'est mieux

C'est bientôt du passé ça, MS migre vers ARM, dans quelques années on aura des proco avec des NPU à la apple avec leurs processeurs M, ce PC c'est juste pour de la robotique pour avoir un truc autonome

Ouais mais dans le turfu on va tout faire pour éviter que les gens aient accès au meilleur de l'IA en local je pense.
Meme aujourd'hui ça reste un marché de niche.
Demain on va nous vendre des abos, et à terme les gens abandonneront le hardware pour être majoritairement sur du cloud-computing.

Le 24 décembre 2024 à 10:15:13 :

Le 24 décembre 2024 à 10:13:11 :

Le 24 décembre 2024 à 10:11:22 :

Le 24 décembre 2024 à 10:10:36 :
Faire tourner un LLM en local

Faisable avec un pc classique, mais faut une RTX et au moins 32go de ram, mais 64 c'est mieux

C'est bientôt du passé ça, MS migre vers ARM, dans quelques années on aura des proco avec des NPU à la apple avec leurs processeurs M, ce PC c'est juste pour de la robotique pour avoir un truc autonome

Ouais mais dans le turfu on va tout faire pour éviter que les gens aient accès au meilleur de l'IA en local je pense.
Meme aujourd'hui ça reste un marché de niche.
Demain on va nous vendre des abos, et à terme les gens abandonneront le hardware pour être majoritairement sur du cloud-computing.

C'est pas un marché de niche, toutes les puces apple ont des NPU pour faire tourner des LLM en local, avoir ta propre IA personnalisée et intégrée à ton OS, c'est ce qui va arriver. Ce mini PC c'est juste pour les IOT à la manière des raspberry, c'est encore un peu cher, mais c'est cher sans être cher

On peut faire tournéent Starfield avec svp ? https://image.noelshack.com/fichiers/2020/44/6/1604162104-cafe0sugarent.jpg
  • 1

Données du topic

Auteur
Joe_PetChie
Date de création
24 décembre 2024 à 09:41:34
Nb. messages archivés
16
Nb. messages JVC
16
En ligne sur JvArchive 159