Ollama

AIテキスト

OllamaのFunction CallingでRAGを実装する方法(Python+Chroma DB)

OllamaのEmbedding+ChromaDB構成を土台に、Function Callingを使ったRAG実装の考え方と最小構成を解説します。
AIテキスト

OllamaのEmbeddingモデルを使う方法(Python + Chroma DB)

OllamaのEmbeddingモデルをPythonで実装し、Chroma DBで検索・RAGに利用する手順をわかりやすく解説します。
AIテキスト

PythonでRAGを実装:Ollama(llama3.1)+Chroma DBで“検索して答える”

PythonからRAGを試す最短ルートとして、Ollamaのllama3.1とChroma DBで「ユーザー側検索→LLM生成」を実装します。動く最小コードと、つまずきやすいAPI差分も最新情報で確認します。
AIテキスト

VSCodeとOllamaでGithub Copilotをローカルで使うガイド

はじめに:GitHub Copilotのbyok機能でOllamaとローカルで接続Visual Studio Code(VSCode)のGitHub Copilot拡張機能には、byok(Bring Your Own Key)という仕組みが...
AIテキスト

VSCodeでOllamaを呼び出す:拡張機能Cotinueを利用する方法

導入:ローカルAIで開発効率を高めるクラウドに頼らず、手元のマシンで大規模言語モデル(LLM)を動かせる環境として注目されているのが Ollama です。本記事では、このOllamaを Visual Studio Code(VS Code)...
AIテキスト

OllamaをCLIで使う:上級者向け導入ガイド

この記事のポイント(30秒で要点)OllamaをCLI(コマンドライン)で使う方法を解説。GUIでは触れられない高度な操作が可能インストール → 動作確認 → モデル実行までの最短手順を収録macOS/Linux/Windows(WSL)対...
AIテキスト

Ollamaとは?AIの新たな可能性を探る

この記事のポイント(30秒で要点)OllamaはローカルでLLM(大規模言語モデル)を動かせる無料アプリGUI版(デスクトップアプリ)は初心者でも簡単に使える直感的設計モデル選択・履歴管理・入力補完までマウス操作で完結この記事では導入~初回...