Web LLM Assistant是一個開源的瀏覽器人工智慧代理,能在本地運行大型語言模型,使用WebGPU或WebAssembly。它提供基於聊天的交互、實時串流、模型切換及隱私保護的離線推理。支持LLaMA、Vicuna等開源模型,提供輕量級的網頁界面,可自定義UI並擴展插件支援,方便整合與部署,無需伺服器依賴。
Web LLM Assistant是一個開源的瀏覽器人工智慧代理,能在本地運行大型語言模型,使用WebGPU或WebAssembly。它提供基於聊天的交互、實時串流、模型切換及隱私保護的離線推理。支持LLaMA、Vicuna等開源模型,提供輕量級的網頁界面,可自定義UI並擴展插件支援,方便整合與部署,無需伺服器依賴。
Web LLM Assistant是一個輕量級的開源框架,可將您的瀏覽器轉變為人工智慧推理平台。它利用WebGPU和WebAssembly後端,在客戶端裝置上直接運行LLM,確保隱私與離線能力。使用者可以導入並切換LLaMA、Vicuna、Alpaca等模型,與助手聊天,並觀看串流回應。模組化的React界面支援主題、對話歷史、系統提示及插件式擴展,以實現自定義行為。開發者可自訂界面、整合外部API,並微調提示詞。部署只需託管靜態檔案,無需後端伺服器。Web LLM Assistant致力於讓任何現代瀏覽器皆能實現高性能的本地推理,推廣AI普及。