<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Llama-Cpp on TekBrut — La tech sans filtre</title><link>https://tekbrut.fr/tags/llama-cpp/</link><description>Recent content in Llama-Cpp on TekBrut — La tech sans filtre</description><generator>Hugo</generator><language>fr</language><lastBuildDate>Tue, 07 Apr 2026 10:00:00 +0200</lastBuildDate><atom:link href="https://tekbrut.fr/tags/llama-cpp/index.xml" rel="self" type="application/rss+xml"/><item><title>Hermes Agent + llama.cpp : brancher un modèle local proprement</title><link>https://tekbrut.fr/tutos/hermes-agent/brancher-modele-local-llama-cpp/</link><pubDate>Tue, 07 Apr 2026 10:00:00 +0200</pubDate><guid>https://tekbrut.fr/tutos/hermes-agent/brancher-modele-local-llama-cpp/</guid><description>&lt;p>Hermes Agent est installé, la commande &lt;code>hermes&lt;/code> répond, et tu as probablement déjà tapé deux ou trois messages avec un provider distant pour vérifier que tout tient debout. Bien. C&amp;rsquo;est le moment de lui brancher un vrai modèle local.&lt;/p>
&lt;p>Ce tuto te donne le chemin le plus propre pour ça : un serveur &lt;code>llama.cpp&lt;/code>, un modèle au format GGUF, un endpoint local compatible OpenAI, et Hermes qui pointe dessus. Pas de détour, pas de benchmark de modèles, pas de tunnel de flags avancés. Juste la chaîne qui marche, un premier test utile, et les erreurs qu&amp;rsquo;on voit revenir tout le temps.&lt;/p></description></item></channel></rss>