Je viens de paramétrer Open Web UI avec Ollama, c'est hebergé en local lorsque je lance Docker
A la base pour ne pas se faire chier on peut très bien DL GPT4all, Jan ai ou LM Studio et utiliser des LLM open source ou sa clef API open ai (moins cher que gpt)
Mais je souhaiterais pouvoir utiliser un local LLM sur mon pc chez moi ou mon ordi
J'ai la flemme de laisser faire tourner mon pc pour ça
J'hésite à me prendre un vps sur hostinger à 6.5e par mois
D'autres solutions ? Rasberri ?