LLM

AIテキスト

RAG実装をLangChainでリファクタリングする方法とポイント

既存のRAG実装を拡張しやすくするために、LangChainを使った実装方法と注意点を解説します。
AIテキスト

llama3.1 と gpt-oss で役割分離したRAG実装 ─ function calling と生成を分ける

function calling を llama3.1:8b、文章生成を gpt-oss:20b に分担する RAG 実装と、その設計意図を解説します。
AIテキスト

Chroma DBとは?Python定番ベクトルDBを試す

RAGでは、ユーザーからの質問に答える際に、まず知識ベースから関連情報を「検索(Retrieval)」し、その情報を基にLLMが「生成(Generation)」を行います。まず知識ベースをChroma DBで準備しましょう。Chroma D...
AIテキスト

RAGとは何か:LLM単体の限界を超えて「自分のデータ」で答えさせる方法

RAG(Retrieval Augmented Generation)は、LLMの外に知識ベースを置き、必要な情報を検索してから回答させる仕組みです。LLM単体の弱点(知識が固定・全文を読めない)を補い、正確性と最新性を上げる考え方を最短で整理します。
AI音声

MacでWhisperを高速化する方法①:faster-whisper編(Python実装・Apple Silicon対応)

Mac (Apple Silicon対応) で faster-whisper を導入し、Whisper の文字起こしを最大3倍高速化する方法を解説します。
AI音声

MacでWhisperをインストールして音声認識を試す(ローカル実行・Apple Silicon対応)

Whisperとは(1分で把握)WhisperはOpenAIが提供する音声→テキストの汎用ASR(Automatic Speech Recognition)モデル。多言語対応・雑音耐性が高く、ローカルでも動作します。お手軽:Pythonパッ...
AIテキスト

ChatGPTとVSCodeで“Vibe Coding”を体験:AIと人が共にコードを書く新時代

はじめに:コードを書くという体験が変わり始めているChatGPTとVisual Studio Code(VSCode)をつなぐと、まるでAIと肩を並べてコーディングしているような感覚になります。生成AIと伴にコーディングを行うこのスタイルは...
AIテキスト

VSCodeとOllamaでGithub Copilotをローカルで使うガイド

はじめに:GitHub Copilotのbyok機能でOllamaとローカルで接続Visual Studio Code(VSCode)のGitHub Copilot拡張機能には、byok(Bring Your Own Key)という仕組みが...
AIテキスト

VSCodeでOllamaを呼び出す:拡張機能Cotinueを利用する方法

導入:ローカルAIで開発効率を高めるクラウドに頼らず、手元のマシンで大規模言語モデル(LLM)を動かせる環境として注目されているのが Ollama です。本記事では、このOllamaを Visual Studio Code(VS Code)...
AIテキスト

OllamaをCLIで使う:上級者向け導入ガイド

この記事のポイント(30秒で要点)OllamaをCLI(コマンドライン)で使う方法を解説。GUIでは触れられない高度な操作が可能インストール → 動作確認 → モデル実行までの最短手順を収録macOS/Linux/Windows(WSL)対...