RAG

AIテキスト

OllamaのEmbeddingモデルを使う方法(Python + Chroma DB)

OllamaのEmbeddingモデルをPythonで実装し、Chroma DBで検索・RAGに利用する手順をわかりやすく解説します。
AIテキスト

PythonでRAGを実装:Ollama(llama3.1)+Chroma DBで“検索して答える”

PythonからRAGを試す最短ルートとして、Ollamaのllama3.1とChroma DBで「ユーザー側検索→LLM生成」を実装します。動く最小コードと、つまずきやすいAPI差分も最新情報で確認します。
AIテキスト

Chroma DBとは?Python定番ベクトルDBを試す

RAGでは、ユーザーからの質問に答える際に、まず知識ベースから関連情報を「検索(Retrieval)」し、その情報を基にLLMが「生成(Generation)」を行います。まず知識ベースをChroma DBで準備しましょう。Chroma D...
AIテキスト

RAGとは何か:LLM単体の限界を超えて「自分のデータ」で答えさせる方法

RAG(Retrieval Augmented Generation)は、LLMの外に知識ベースを置き、必要な情報を検索してから回答させる仕組みです。LLM単体の弱点(知識が固定・全文を読めない)を補い、正確性と最新性を上げる考え方を最短で整理します。