Ollama

AIテキスト

MoE 三つ巴|gemma4 vs Qwen3.5 vs Qwen3.6、32GB MacBook Air M5 で記事生成に最適な MoE はどれか

こんにちは、パレイド技術部です。昨日 (4/17) の記事で、新しくオープンウェイト化された Qwen3.6-35B-A3B を Qwen3.5 と比較し、記事執筆補助の用途では、3.6 は3.5とほぼ同等という結果を確認しました。最近のリ...
AIテキスト

Qwen 3.6 オープンウェイト版の実力は?記事執筆用途の 32GB MacBook Air M5 で Qwen 3.5 と世代対決

こんにちは、パレイド技術部です。先週 (4/7) の記事で、Alibaba が発表したフラッグシップ LLM Qwen 3.6-Plus のニュースを取り上げました。その時点ではクラウド API (OpenRouter / Bailian)...
AIテキスト

AI自動編集に挑む(4)|Gemma 4 で記事は書けるか?記事生成パイプラインで Qwen3.5 と実戦比較

こんにちは、パレイド技術部です。これまで数回にわたり、ローカル LLM の速度ベンチマークを行ってきました。速度はわかりました。MoE は速い、Dense は安定している。でも肝心の問いが残っています。「実際に記事を書かせたら、どのモデルが...
技術部

世界初の1-bit LLM「Bonsai 8B」が登場|1.15GBでLlama 3.1超え、Macで動かしてみた

こんにちは、パレイド技術部です。Caltech 発の AI ラボ PrismML が、世界初の商用レベル 1-bit LLM「Bonsai 8B」 を Apache 2.0 ライセンスで公開しました。本記事はローカル LLM による自動執筆...
技術部

Google Gemma 4 が Apache 2.0 で公開|Qwen3.5 と何が違う?デスクトップ LLM 比較の次の一手

こんにちは、パレイド技術部です。Google がオープンソース LLM の新シリーズ Gemma 4 を Apache 2.0 ライセンスで公開しました。本記事はローカル LLM による自動執筆パイプラインで生成されました。現段階ではクラウ...
AIテキスト

Ollama MLX対応で Qwen3.5 を試す|35Bが27Bより速い?MoEの実力をベンチマーク

こんにちは、パレイド技術部です。Ollama が v0.19 で Apple MLX フレームワークに対応しました。M5 チップの GPU Neural Accelerator を活かして推論速度が大幅に向上するとのこと。特に推しているのが...
AIテキスト

AI自動編集に挑む(3)|Windows で qwen3.5 が動かない―Ollama の壁と llama.cpp への移行

こんにちは、パレイド技術部です。前回記事では、Mac 環境で MLX を使った qwen3.5:27b の実用性を検証しました。今回は Windows 環境への展開で遭遇した問題と、その解決策としての llama.cpp への移行について書...
AIテキスト

AI自動編集に挑む(3)|qwen3.5:35B-A3B(MoE)は 27B を超えるか?MacBook Air M5 で検証

こんにちは、パレイド技術部です。前回・前々回の記事では、MacBook Air M5 + 32GB メモリ環境で、Ollama と MLX を使ったローカル LLM の自動記事生成パイプラインを検証しました。前回の結論は「qwen3.5:2...
AIテキスト

AI自動編集に挑む(1)|MacBook Air M5 vs M2 メモリ16GB→32GBの意味

こんにちは、パレイド技術部です。本サイトの編集には、長らく Macbook Air の M2搭載機を利用してきました。不満は特にありませんでしたが、16GB Unified Memory では、ローカルでのLLM利用は小型のモデルに限られる...
AIテキスト

嗜好化するToDo管理 — あとがき:開発環境の変遷とAIとの付き合い方

こんにちは、パレイド思想部です。連載20回とデモサイト公開で「嗜好化するToDo管理」は一区切りつきましたが、書き切れなかったことがあります。HigherSelfの開発中に経験した開発環境の変遷と、コードだけでなく記事執筆にAIを使った試行...