Topic de ABowman :

Des passionnés d'IA et local LLM ? Héberger son IA qui le fait ? Ollama Open Web UI

Je viens de paramétrer Open Web UI avec Ollama, c'est hebergé en local lorsque je lance Docker

A la base pour ne pas se faire chier on peut très bien DL GPT4all, Jan ai ou LM Studio et utiliser des LLM open source ou sa clef API open ai (moins cher que gpt)

Mais je souhaiterais pouvoir utiliser un local LLM sur mon pc chez moi ou mon ordi
J'ai la flemme de laisser faire tourner mon pc pour ça

J'hésite à me prendre un vps sur hostinger à 6.5e par mois

D'autres solutions ? Rasberri ?

quel modèle + cb de param?

Le 13 mai 2025 à 00:56:12 :
quel modèle + cb de param?

Un modèle décent tout simplement

Données du topic

Auteur
ABowman
Date de création
13 mai 2025 à 00:36:37
Nb. messages archivés
3
Nb. messages JVC
3
Voir le topic sur JVC

Afficher uniquement les messages de l'auteur du topic

En ligne sur JvArchive

JvArchive compagnon

Découvrez JvArchive compagnon , l'userscript combattant la censure abusive sur le 18-25 !