万能なEstrutura Leveツール

多様な用途に対応可能なEstrutura Leveツールを利用して、業務の効率化と柔軟性を実現しましょう。

Estrutura Leve

  • WebGPUとWebAssemblyを使用してローカル推論とストリーミングを可能にするブラウザベースのAIアシスタント。
    0
    0
    MLC Web LLM Assistantとは?
    Web LLM Assistantは、ブラウザをAI推論プラットフォームに変える軽量なオープンソースフレームワークです。WebGPUとWebAssemblyをバックエンドとして活用し、サーバーなしでクライアントデバイス上で直接LLMを実行し、プライバシーとオフライン動作を確保します。ユーザーはLLaMA、Vicuna、Alpacaなどのモデルをインポートして切り替え、アシスタントとチャットし、ストリーミング応答を見ることができます。モジュール式のReactベースのUIはテーマ、会話履歴、システムプロンプト、およびカスタム動作のためのプラグインのような拡張をサポートします。開発者はインターフェースをカスタマイズし、外部APIを統合し、プロンプトを微調整できます。展開には静的ファイルのホスティングのみが必要で、バックエンドサーバーは不要です。Web LLM Assistantは、あらゆる最新のウェブブラウザで高性能なローカル推論を可能にし、AIを民主化します。
    MLC Web LLM Assistant コア機能
    • WebGPUバックエンドを使用したローカルLLM推論
    • 幅広いデバイス互換性のためのWebAssemblyサポート
    • リアルタイムのAI応答ストリーミング
    • モデルの切り替え(LLaMA、Vicuna、Alpacaなど)
    • カスタマイズ可能なReactベースのユーザーインターフェース
    • 会話履歴とシステムプロンプト管理
    • カスタム動作のための拡張性のあるプラグインアーキテクチャ
    • サーバー依存なしのオフライン動作
  • OpenAIのLLMを利用したマルチステップ推論とタスク実行を行うミニマリストPython AIエージェントです。LangChainを利用しています。
    0
    0
    Minimalist Agentとは?
    Minimalist Agentは、PythonでAIエージェントを構築するためのベーシックなフレームワークです。LangChainのエージェントクラスとOpenAIのAPIを活用し、マルチステップ推論、ツールの動的選択、関数の実行を行います。リポジトリをクローンし、OpenAI APIキーを設定し、カスタムツールやエンドポイントを定義して、CLIスクリプトを実行してエージェントと対話できます。設計は明快さと拡張性を重視しており、コアエージェントの挙動を学習、変更、拡張しやすくなっています。
フィーチャー