2025年3月
Transformerの仕組みを体系的に理解したい 実践編新着!!
OpenAIやAnthropic ,Googleなどの巨大IT企業が新しい大規模LLMモデルを開発し続けているので、一般的な用途ではファインチューニングの必要性はあまり感じられなくなりました。LLM自体がすでに一般人以上 […]
Transformerの仕組みを体系的に理解したい 第5章新着!!
ここまでで、Transformerの基本構造と内部の処理について記述してきました。 この章では、Transformerを基にした代表的な以下のモデルを取り上げ、どのような違いがあるのか見ていきたいと思います。 5.1 B […]
Transformerの仕組みを体系的に理解したい 第4章新着!!
第4章: Transformerの全体構造 前章では、Transformerの核となるAttention機構について記述しました。 この章では、Transformer全体の構造を記述していきます。特に、エンコーダーとデコ […]
Transformerの仕組みを体系的に理解したい 第3章新着!!
第3章: Attention機構の仕組み Transformerの革新の中心となるのがAttention機構です。特に、Self-Attention(自己注意メカニズム)は、入力文中の単語間の関係をモデル化するための鍵と […]
Transformerの仕組みを体系的に理解したい 第1章、第2章新着!!
Transformerは、生成AIを理解する上で重要な技術です。以前、「直感的に理解したい」と思い、調べた結果を以下の記事にしました。 概念的には理解できたのですが、やはり「体系的に理解したい」と思い、まとめ直してみまし […]
PDFファイルを使ったRAGに挑戦(3)LangChain新着!!
この記事では、LangChainライブラリを使って、前回変換したMarkdownファイルをデータベース化する方法を紹介します。これにより、前回のようにMarkdownコンテンツを直接LLM(大規模言語モデル)に送る方法に […]
PDFファイルを使ったRAGに挑戦(2)新着!!
今回は、以下の記事の続きです。 Markdownを使ったRAG 単純にテキストを抽出しただけでは文書の構造情報が失われてしまうため、PDFからMarkdown形式に変換することで構造を保ちながらLLMへ入力する方法を試し […]