L29Ah<p><a href="https://qoto.org/tags/log" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>log</span></a> <a href="https://qoto.org/tags/%D0%B1%D1%8B%D0%B4%D0%BB%D0%BE%D0%BA%D0%BE%D0%B4%D0%B8%D0%BD%D0%B3" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>быдлокодинг</span></a> <a href="https://qoto.org/tags/haskell" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>haskell</span></a> <a href="https://qoto.org/tags/llm" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>llm</span></a> <a href="https://qoto.org/tags/llamacall" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>llamacall</span></a> <span class="h-card"><a href="https://mastodon.ml/@rf" class="u-url mention" rel="nofollow noopener" target="_blank">@<span>rf</span></a></span><br>Набыдлокодил простенький CLI для llama-server на Haskell: <a href="https://github.com/l29ah/llama-cpp-haskell" rel="nofollow noopener" target="_blank"><span class="invisible">https://</span><span class="ellipsis">github.com/l29ah/llama-cpp-has</span><span class="invisible">kell</span></a><br>Позволяет использовать LLM в скриптах без необходимости каждый раз её вгружать в память видюхи, как с llama-cli, и без страшного не поддающегося аудиту блоата aichat с форками.<br>Не знаю пока буду ли tool calling в ближайшем будущем прикручивать: эксперименты с openhands показывают что код проще самому написать как надо, чем итеративно проверять и описывать нейронке что она делает не так, а не-программерских юзкейсов для него у меня пока нету.</p>