up:: AIt
ローカルでLLMに検索させる奴。Perplexityのクローン。
結構前からある。
バックはollama。
普通に使うのはsearXNGの設定が必要になり結構重い。
なのでdocker composeを使う。以下を参考に進めていけばいい。
Perplexica と Ollama で LLM を利用した検索エンジンを試す LLM - Qiita
ollamaもdockerで起動すること前提の設定(http://host.docker.internal:11434)。モデルのダウンロードもこのollamaで行う。
なので一回ollamaのコンテナに接続する。
docker exec
その後、ollama runで好きなモデルを取ってくる。
Ollama で Hugging Face Hub の GGUF をそのまま使ってみる|ぬこぬこ
いちおうモデルファイルを自前で用意できればhuggingfaceでなくてもいけそう?
OllamaでローカルLLMを稼働させAPIサーバ化する
GGUFファイルで保存されたLLMをOllamaで読み込んで使う方法を調べてみました。 - CCCMKホールディングス TECH LABの Tech Blog