2025 年 9 月時点 Windows 版 Ollama をインストールして API を試したメモ

2025 年 9 月時点 Windows 版 Ollama をインストールして API を試したメモ

2025 年 9 月時点 Windows 版 Ollama をインストールして API を試したメモです。

Windows 版 Ollama のアプリケーションが新しくリリースされた

2025 年 9 月時点の情報で進めます。

Ollama's new app · Ollama Blog

こちらの記事で気づいたのですが Windows で Ollama を使うときにアプリケーションとしてインストールして使えて、しかも API サーバーもちゃんと立つということが分かったので試してみます。

インストールしてみる

Download Ollama on Windows にアクセスして Windows インスト-ラをダウンロードします。

インストーラーがダウンロードされました。

インストールをクリックします。

インストールが進みます。

起動しました。いいかんじ!

モデルダウンロード

モデルをダウンロードしてみます。

まずチャット入力の UI の右下のモデルを選んで granite3.3:2b を入力してみます。これは Ollama Search でモデルを探した上での各モデルの名称です。

今回は Granite 3.3 2b モデルです。一致していると選択肢が出てきます。

これでメッセージを打ってみます。

そうすると、このタイミングでモデルダウンロードが開始されます。

しばらく待ってインストールが完了して回答が返ってきます。

API を軽く試してみる

このアプリが常駐していれば ollama serve する必要なく API サーバーが立ち上がっています。

たとえばモデル一覧を表示する http://localhost:11434/api/tags を叩いてみると、

{
  "models": [
    {
      "name": "granite3.3:2b",
      "model": "granite3.3:2b",
      "modified_at": "2025-08-30T16:34:11.762983+09:00",
      "size": 1545321637,
      "digest": "07bd1f170855240f9e162bf54ea494a8bc1c73d8cbd1365d7fccbeb7d2504947",
      "details": {
        "parent_model": "",
        "format": "gguf",
        "family": "granite",
        "families": [
          "granite"
        ],
        "parameter_size": "2.5B",
        "quantization_level": "Q4_K_M"
      }
    }
  ]
}

このように、先ほどインストールしたモデルを含めた一覧が表示できました。もちろんチャット API やモデルの削除といったような他の API も動きました。

いままで WSL に Ollama を入れて、それ経由でやり取りしていたので、こういう風にちゃんとアプリケーションで動き API も普通にアクセスできるのは、仕組みがシンプルになってありがたいです。