"CHATGPT va REMPLACER les DÉVELOPPEURS"
Le 12 novembre 2024 à 01:02:48 isidore_1212 a écrit :
Le 12 novembre 2024 à 00:58:14 :
Allez on se reveille le patron de nvidia l'a dit lui meme c'est qu'une question de temps à 100%, chatgpt fait deja 30% des tafs de developpeurs a l'heure actuel mais tu ne sais pas promptYep faut pas louper le train, la prochaine révolution ça va être de faire évoluer des contextes avec des bases vectorielles pour faire du RAG/chroma/lora de manière plus intelligente qu'actuellement et là ça va scalper encore plus de professions.
toubibs devs com toutes les branches de la recherche et 90% du tertiaire qui vont finir à la poubelle avant 2030
Le 12 novembre 2024 à 01:05:43 :
Le 12 novembre 2024 à 01:04:34 Sindelar1 a écrit :
Le 12 novembre 2024 à 01:01:23 :
L'IA va remplacer 95% des dev d'ici 2 ans![]()
et j'ai une mauvaise nouvelle pour toi Paul employ tu fera pas parti des élus![]()
La vraie question c'est quel métier sera épargné par le remplacement ?
Le 12 novembre 2024 à 01:07:10 isidore_1212 a écrit :
Le 12 novembre 2024 à 01:05:43 :
Le 12 novembre 2024 à 01:04:34 Sindelar1 a écrit :
Le 12 novembre 2024 à 01:01:23 :
L'IA va remplacer 95% des dev d'ici 2 ans![]()
et j'ai une mauvaise nouvelle pour toi Paul employ tu fera pas parti des élus![]()
La vraie question c'est quel métier sera épargné par le remplacement ?
Le 12 novembre 2024 à 00:59:31 :
Le 12 novembre 2024 à 00:56:21 :
Le 12 novembre 2024 à 00:55:30 :
Le 12 novembre 2024 à 00:53:56 :
Le 12 novembre 2024 à 00:45:13 :
chatgpt c'est un model de merde pour le code essaye qwen2.5-coder32b c'est elevé
J'ai une 4090
j'ai pas ca moi
et comment je fais si je veux l'heberger ?
Bah tu installes un ollama ou un llama.cpp
j'ai utilisé llama2:chat / llama2:7b
ca prend 1:00-1:50 pour répondre quand y a des explications et 0:15-0:20 quand y a que le code
si je veux heberger l'ia sur un serveur je peux l'heberger sur quoi comme serveur ?
Le 12 novembre 2024 à 01:10:33 :
Le 12 novembre 2024 à 00:59:31 :
Le 12 novembre 2024 à 00:56:21 :
Le 12 novembre 2024 à 00:55:30 :
Le 12 novembre 2024 à 00:53:56 :
> Le 12 novembre 2024 à 00:45:13 :
>chatgpt c'est un model de merde pour le code essaye qwen2.5-coder
>
32b c'est elevé
J'ai une 4090
j'ai pas ca moi
et comment je fais si je veux l'heberger ?
Bah tu installes un ollama ou un llama.cpp
j'ai utilisé llama2:chat / llama2:7b
ca prend 1:00-1:50 pour répondre quand y a des explications et 0:15-0:20 quand y a que le codesi je veux heberger l'ia sur un serveur je peux l'heberger sur quoi comme serveur ?
un serveur avec une carte graphique qui a plein de gddr
Le 12 novembre 2024 à 01:15:06 :
Le 12 novembre 2024 à 01:10:33 :
Le 12 novembre 2024 à 00:59:31 :
Le 12 novembre 2024 à 00:56:21 :
Le 12 novembre 2024 à 00:55:30 :
> Le 12 novembre 2024 à 00:53:56 :
>> Le 12 novembre 2024 à 00:45:13 :
> >chatgpt c'est un model de merde pour le code essaye qwen2.5-coder
> >
>
> 32b c'est elevé
J'ai une 4090
j'ai pas ca moi
et comment je fais si je veux l'heberger ?
Bah tu installes un ollama ou un llama.cpp
j'ai utilisé llama2:chat / llama2:7b
ca prend 1:00-1:50 pour répondre quand y a des explications et 0:15-0:20 quand y a que le codesi je veux heberger l'ia sur un serveur je peux l'heberger sur quoi comme serveur ?
un serveur avec une carte graphique qui a plein de gddr
ca coute combien ?
Le 12 novembre 2024 à 01:18:39 :
Tu peux aussi en utiliser des plus petits si tu as un gpu de merde, j'utilise des modèles de TTS / STT de 1b à la maison pour faire de la reconnaissance et du contrôle vocal pour ma domotique ça marche pas mal en full cpu avec homeassistant (via avec des esp32 les "atom echo" )
c'est quoi le nom des models ?
Le 12 novembre 2024 à 01:19:27 :
Le 12 novembre 2024 à 01:18:39 :
Tu peux aussi en utiliser des plus petits si tu as un gpu de merde, j'utilise des modèles de TTS / STT de 1b à la maison pour faire de la reconnaissance et du contrôle vocal pour ma domotique ça marche pas mal en full cpu avec homeassistant (via avec des esp32 les "atom echo" )c'est quoi le nom des models ?
Le 12 novembre 2024 à 01:18:39 :
Tu peux aussi en utiliser des plus petits si tu as un gpu de merde, j'utilise des modèles de TTS / STT de 1b à la maison pour faire de la reconnaissance et du contrôle vocal pour ma domotique ça marche pas mal en full cpu avec homeassistant (via des esp32 les "atom echo" )
avec une raspberry ca peut marcher ?
Le 12 novembre 2024 à 01:01:23 :
L'IA va remplacer 95% des dev d'ici 2 ans![]()
et j'ai une mauvaise nouvelle pour toi Paul employ tu fera pas parti des élus![]()
Et ça fait deux ans que l'IA est censée nous remplacer...
Sauf qu'on aura toujours besoin de quelqu'un pour concevoir l'architecture du programme et vérifier le code fourni par chatgpt...
Le 12 novembre 2024 à 01:27:02 TitouanColossal a écrit :
Le 12 novembre 2024 à 01:01:23 :
L'IA va remplacer 95% des dev d'ici 2 ans![]()
et j'ai une mauvaise nouvelle pour toi Paul employ tu fera pas parti des élus![]()
Et ça fait deux ans que l'IA est censée nous remplacer...
Sauf qu'on aura toujours besoin de quelqu'un pour concevoir l'architecture du programme et vérifier le code fourni par chatgpt...
Données du topic
- Auteur
- JusdEauRange28
- Date de création
- 12 novembre 2024 à 00:29:01
- Nb. messages archivés
- 39
- Nb. messages JVC
- 39