AIが文書を”丸ごと記憶”する新技術「Doc-to-LoRA」
長い文書をAIの知識に変える、Sakana AIの挑戦

AIに長い文書を読ませるには、大量のメモリと処理時間が必要でした。Sakana AIが2026年2月に発表した「Doc-to-LoRA」は、文書の内容をAIの”知識”として瞬時に取り込む新しい手法です。その仕組みと意義を分かりやすく解説します。

「長い文書を読む」ことの、意外な難しさ

ChatGPTのようなAIチャットサービスは、こちらが入力した文章を理解し、的確に返答してくれます。しかし、業務マニュアル全体を読ませたい、何百ページもの報告書を把握させたい、といった「大量の文書を一度にAIに与える」使い方には、実は大きな壁がありました。

その壁とは、処理コストです。現在主流のAI技術では、入力する文章が長くなるほど、処理にかかるメモリと時間が急激に増大します。2倍の長さの文書を入力すると、必要な計算量は約4倍に膨れ上がる——そんな特性を持っています。日常的な短い質問への回答であれば問題になりませんが、大量の文書を扱おうとすると、たちまち実用的ではなくなってしまいます。

この課題に正面から取り組んだのが、東京に拠点を置くAI研究所「Sakana AI」です。同社が2026年2月に発表した「Doc-to-LoRA(ドック・トゥ・ローラ)」は、長い文書をAIの中に”取り込んで記憶させる”という、発想の転換で問題を解決しようとする技術です。

文書を「知識」に変えるという発想

まず、従来の方法を整理しておきます。

これまでAIに長い文書の内容を踏まえた回答をさせるには、質問のたびに文書全体をAIに送り直す必要がありました。人間に例えるなら、何か質問するたびにマニュアルを最初から読み直してもらうようなもの。手間がかかるうえに、毎回大量のメモリを消費します。

Doc-to-LoRAのアプローチは根本的に異なります。文書の内容をAIの”重み”(学習済みのパラメータ)に直接組み込んでしまうのです。イメージとしては、マニュアルの内容を「読んで理解して覚えた状態」に一瞬でしてしまう技術、と言えるでしょう。覚えた後は毎回マニュアルを読み直す必要はありません。質問にそのまま答えられます。

この「覚えさせる」処理にかかる時間は、わずか1秒未満。しかも一度覚えた後は、元の文書を保持しておく必要がなくなるため、メモリの消費量も大幅に下がります。

LoRAとハイパーネットワーク——仕組みをのぞいてみる

Doc-to-LoRAの名前に含まれる「LoRA」は、AIの能力を効率的にカスタマイズする技術のことです。

通常、AIを特定の用途に合わせて調整するには、何十億もあるパラメータ(AIの”知識”を構成する数値)を丸ごと書き換える膨大な作業が必要です。LoRAはその代わりに、ごく少数の「追加パーツ」だけをAIに装着して性能を変える手法。全体を作り替えるのではなく、小さなアタッチメントを付け替えるイメージです。

Doc-to-LoRAが画期的なのは、この追加パーツを「自動で作り出す仕組み」を持っていることです。「ハイパーネットワーク」と呼ばれる補助的なAIが、与えられた文書を読み込み、その内容を反映したLoRAパーツを瞬時に生成します。

従来、LoRAパーツを作るには文書ごとに専用のトレーニング(学習作業)が必要でした。何時間もかかることが珍しくありません。Doc-to-LoRAはそのトレーニング工程を丸ごと省略し、わずか1回の計算処理でパーツを完成させます。

AIの「記憶力」を大幅に超える成果

研究チームは「Needle in a Haystack(干し草の中の針探し)」と呼ばれる定番のテストでDoc-to-LoRAの実力を検証しました。長い文書の中に特定の情報を隠し、AIがそれを正確に見つけられるかを測るテストです。

結果は注目に値します。Doc-to-LoRAを使ったAIは、もともとの処理可能な長さの5倍を超える文書でも、ほぼ完璧な精度で隠された情報を見つけ出しました。通常であれば扱えないはずの長さの文書を、“記憶”として取り込むことで読み解いてしまったわけです。

さらに興味深いのは、画像を扱うAIの知識を文字だけのAIに移せる可能性も示されたことです。画像を理解できるAIが持つ視覚情報を、LoRAパーツとして文字だけのAIに組み込んだところ、そのAIが画像の分類を行えるようになったとのことです。異なる種類のAI同士で知識を「引き継ぐ」可能性を示した点でも、新しい一歩と言えます。

この技術で何が変わるのか

Doc-to-LoRAが実用化されると、AIの活用方法が大きく広がる可能性があります。

現在、社内文書をAIに活用させるには高額なクラウドサービスを利用したり、専門知識を持つ技術者がシステムを構築したりする必要があります。Doc-to-LoRAの仕組みが普及すれば、文書を与えるだけでAIが内容を「覚え」、すぐに質問へ答えてくれるようになるかもしれません。新しいマニュアルが出たら即座に更新する、担当者ごとに異なる情報を覚えさせる、といった柔軟な運用も視野に入ります。

もちろん現段階では研究発表の直後であり、実際のビジネスで使うにはセキュリティや精度の検証など多くのステップが残っています。しかし、「長い文書を効率よくAIに理解させる」という多くの現場が抱える課題に対して、Doc-to-LoRAは明確な方向性を打ち出しました。AI活用の次の波を考えるうえで、押さえておきたい技術です。

用語解説

  • LoRA(ローラ:Low-Rank Adaptation)
    AIモデルの性能を効率的に調整する技術。全パラメータを書き換えるのではなく、小さな「追加パーツ」だけで性能を変えることで、コストと時間を大幅に節約できる。

  • ハイパーネットワーク
    別のAIモデルのパラメータ(設定値)を生成する役割を持つAI。Doc-to-LoRAでは、文書の内容からLoRAパーツを自動生成するために使われている。

  • コンテキスト蒸留(Context Distillation)
    AIの入力データに含まれる情報を、モデルのパラメータ(内部の数値)に転写する技術。長い入力をそのまま使わなくても同等の知識を保てるようにする手法。

  • パラメータ
    AIが学習によって調整する膨大な数値の集まり。パラメータの数が多いほどAIが覚えられる情報量は増えるが、必要な計算量やコストも増大する。

  • Transformer(トランスフォーマー)
    現在主流のAIモデルの基盤となるアーキテクチャ(設計構造)。文章全体の関係性を把握する能力に優れるが、入力が長くなると計算量が急増する特性がある。

  • KVキャッシュ
    AIが文章を処理する際に、過去の情報を記憶しておくための一時的なメモリ領域。入力が長くなるほど大きなメモリを消費する。

出典・参考情報

  • Doc-to-LoRA: Learning to Instantly Internalize Contexts – arXiv
    本コラムの主たる題材。Sakana AIの研究チーム(Rujikorn Charakorn、Edoardo Cetin、Shinnosuke Uesaka、Robert Tjarko Lange)による論文。ハイパーネットワークを用いて文書をLoRAアダプタに変換し、LLMに即時的に知識を内在化させる手法「Doc-to-LoRA(D2L)」の提案。Needle-in-a-Haystack実験でベースモデルのコンテキスト長の4倍以上でほぼ完璧な精度を達成した実験結果を含む。
  • Instant LLM Updates with Doc-to-LoRA and Text-to-LoRA – Sakana AI Blog
    Sakana AIによる公式ブログ記事(2026年2月27日公開)。Doc-to-LoRAとText-to-LoRAの2つの研究を紹介し、ハイパーネットワークによるLoRAアダプタのオンデマンド生成、サブ秒レベルのレイテンシでの即時モデル更新、視覚情報の言語モデルへの転送実験の概要を記載。
cropped-logo-1.png_noindex

技術とノウハウでデジタルシフトをサポート
中小企業の頼れるパートナー

執筆者: 綾部 一雄(株式会社クロスディーズ 代表取締役)

ネットワーク維持管理、システム開発、ベンダー調整のスペシャリスト。前職では、600名以上の介護事業所で、介護事業用ソフトの導入や契約の電子化、テレワークシステムの導入等に幅広くに携わる。2021年より、株式会社佐々木総研にて業務効率化のためのロボットや最新技術を活用した開発を行っている。