LlamaIndex = RAG(検索拡張生成)を簡単に作るためのフレームワーク
ChatGPT だけでは社内データを知らないので、社内ドキュメント・Wiki・PDF・DB などを検索できるようにしてから回答する必要がある。この仕組みがRAGで、RAGを作りやすくするのがLlamaIndex。
LlamaIndex は次を自動化する
ステップ 役割
文書の取り込み PDF / Word / Google Docs / Confluence などから情報を読み込む
分割 長い文書を LLM が扱いやすいサイズに切る
ベクトル化 埋め込み(embedding)に変換
検索 質問に近い文を取り出す
回答生成 LLM に「文+質問」を渡して回答
似ているものと比較
フレームワーク 主な用途
LangChain LLMアプリ全般(チャット、エージェントなど何でも型)
LlamaIndex RAG特化(社内検索・QAに強い)
from llama_index.core import SimpleDirectoryReader, VectorStoreIndex
from llama_index.llms.openai import OpenAI
# LLM設定(例:GPT)
llm = OpenAI(model="gpt-4o-mini")
# PDFやtxtを読み込む
documents = SimpleDirectoryReader("docs").load_data()
# ベクトル検索用インデックスを作る
index = VectorStoreIndex.from_documents(documents)
# 質問
query_engine = index.as_query_engine(llm=llm)
response = query_engine.query("経費精算の締め日は?")
print(response)