GeminiやローカルLLMも使えるようになったAI Shell Preview 2
2025年3月3日(月)15時34分 マイナビニュース
MicrosoftのProduct ManagerであるSteven Bucher氏は、AI言語モデルをコマンドラインベースのシェルインターフェースに実装するOSS「AI Shell」Preview 2のリリースを公式ブログで発表した。ソースコードや各種ファイルはGitHubに設置してある。Preview 2では、OpenAI仕様に準拠させたサードパーティーモデルのサポートが拡張しており、OllamaやLM StudioなどのローカルLLM環境やGoogle Gemini、Deepseek、イーロン・マスク氏が率いるxAI社のGrokなどの生成AIサービスにも対応している。
openai.agents.configファイルの設定に各モデルのAPIキーなどの設定を追記する形で利用できるようになる。ローカルの場合、ローカルホストからOpenAI仕様互換のAPIを呼び出すことで可能とする。各サービスのOpenAI仕様互換の方法を示すページへのリンクも示している(Ollama、LM Studio、Deepseek、LocalAI、Google Gemini、Grok)。
Google AI StudioからGemini APIを発行して既存のopenai.agents.configファイルにAPIキーを追加、末尾の"Active": "gpt-gemini"を加えて
{
"Name": "gpt-gemini",
"Description": "A GPT instance using Google Gemini.",
"Endpoint": "https://generativelanguage.googleapis.com/v1beta/openai",
"Deployment": null,
"ModelName": "gemini-1.5-flash",
"Key": "AIzaSyCjG5●●●●●●●●●●●●●●●●●",
"SystemPrompt": "You are a helpful assistant."
}
],
"Active": "gpt-gemini"
}
上記で試したところ、Google Geminiが呼び出された。
.