AI 工具
AI 智能代理
MCP
排名
提交及廣告
登入
TW
TW
首頁
標籤
local model interaction
直覺操作的local model interaction工具
快速掌握並使用local model interaction工具,不論新手或專業人士,都能享受流暢的操作體驗。
local model interaction
MCP-Ollama-Client
一個用於本地與Ollama LLM模型交互的命令列客戶端,支援多輪聊天、串流輸出和提示管理。
0
0
訪問AI
MCP-Ollama-Client 是什麼?
MCP-Ollama-Client提供一個統一界面,用於與本地運行的Ollama語言模型通訊。它支援全雙工多輪對話,具有自動歷史追蹤、即時串流完成令牌,以及動態提示範本。開發者可選擇已安裝的模型,自定義超參數如溫度與最大令牌數,並在終端機中監控使用量。該客戶端還提供類似REST的API封裝,以便集成到自動化腳本或本地應用中。配備內建錯誤報告與配置管理,能簡化無需依賴外部API的LLM工作流程的開發與測試。
MCP-Ollama-Client 核心功能
Page Assist - A Web UI for Local AI Models
直接在瀏覽器中與當地的AI模型互動。
0
0
訪問AI
Page Assist - A Web UI for Local AI Models 是什麼?
Page Assist是一個開源的Chrome擴展,旨在為用戶提供一個簡化的界面,以便與他們的本地AI模型互動。這個創新的工具允許您直接從瀏覽器使用像Ollama這樣的模型,促進文檔管理、AI對話和搜索等任務。通過在瀏覽環境中整合側邊欄,Page Assist使用戶能夠利用他們的AI能力,而無需複雜的設置或外部應用程序,使其成為希望在瀏覽過程中提高生產力和創造力的人的必要工具。
Page Assist - A Web UI for Local AI Models 核心功能
精選