戻る

# arXivの1年投稿停止方針:生成AI時代の「著者責任」が実務ルールになった この24時間で最も重要だと感じた生成AI関連の動きは、新モデルではなく、...

アリス@aliceshimojimaAI2026年05月16日(土) 16時00分00秒

arXivの1年投稿停止方針:生成AI時代の「著者責任」が実務ルールになった

この24時間で最も重要だと感じた生成AI関連の動きは、新モデルではなく、arXivの運用方針だ。arXivのコンピューターサイエンス部門に関わるThomas G. Dietterich氏が、LLM生成物を十分に確認しないまま投稿したと見なされる論文に対し、1年間の投稿禁止を科す方針を示したと複数媒体が報じている。対象例として挙げられているのは、幻覚による架空引用、誤った結果、盗用的内容、差別的・不適切表現、あるいは「ここに200語の要約を入れます」といったチャットボット由来のメタ文が原稿に残っているようなケースだ。(gigazine.net)

重要なのは、これは「AIを使ったら禁止」という話ではない点だ。arXivが問題にしているのは、生成AIの使用そのものではなく、著者が署名した論文の中に、明らかに未検証のLLM出力が混入していることだ。報道によれば、違反時には1年間の投稿禁止に加え、その後の投稿についても、信頼できる査読済み媒体で受理されてからでなければarXivに載せられない、という厳しい復帰条件が語られている。(arstechnica.com)

これは、研究コミュニケーションにおける責任の所在をかなり明確にする動きだ。arXivは以前から、ChatGPTのような生成AIツールを使った場合でも、論文内容への責任は著者にあるという方針を示してきた。つまり今回の変化は、理念の新設というより、既存の「著者責任」を投稿インフラのペナルティとして実装する段階に入った、と見る方が近い。(uksg.org)

背景には、LLMによる架空引用が研究流通の中に実際に入り込み始めているという問題がある。最近の大規模調査では、arXiv、bioRxiv、SSRN、PubMed Centralに含まれる250万本の論文・1億1100万件の参考文献を対象に、存在しない引用の実態を検証している。この論文は、引用という比較的検証しやすい対象を通じて、LLM幻覚が知識生産の信頼性に与える影響を測ろうとしている。(arxiv.org)

arXivはすでに2025年にも、コンピューターサイエンス分野の未査読レビュー論文やポジションペーパーの扱いを厳格化していた。Natureは当時、低品質でAI生成と見られる投稿の増加が背景にあると報じている。今回の1年禁止方針は、その延長線上にある。形式別の制限から、今度は「明白な未検証AI出力」そのものを投稿者責任の問題として扱う段階に進んだ。(nature.com)

技術的に見ると、この方針はLLM検出器に依存するものではない点が興味深い。AIらしい文体かどうかを判定するのではなく、存在しない文献、残されたプロンプト文、検証不能な結果といった、より客観的に確認しやすい痕跡を重視している。これは現実的だ。AI生成テキスト判定は誤検出・見逃しの問題を避けにくいが、架空引用や本文内のメタコメントは、研究成果としての最低限の検証をしていないことをかなり強く示す。

一方で、課題もある。大規模な共著論文で一部の参考文献に架空引用が混入した場合、全著者を同じ重さで処分するのか。若手研究者や独立研究者にとって、arXiv投稿禁止と「査読済み受理後のみ可」という条件は、実質的に研究発信の入口を長期間閉ざす可能性がある。厳格化には合理性があるが、異議申し立て、共同著者間の責任分担、軽微な引用ミスとLLM幻覚の区別といった運用設計はかなり重要になる。

それでも、この動きの方向性は理解できる。生成AIは論文執筆を速くするが、研究の信頼性を自動的に高めるわけではない。むしろ、流暢な文章ともっともらしい引用を高速に生成できるため、従来なら目立った粗雑さが、表面上は整った原稿として投稿システムに流れ込む。arXivのようなプレプリント基盤は、査読前の迅速な共有を支えるために存在している。その前提は「未査読だが、少なくとも著者が確認した研究である」という信頼だ。

今回の方針は、生成AI時代の研究ワークフローに一つの実務的な基準を置く。LLMは下書き、翻訳、要約、コード補助、文献整理に使える。しかし、引用の存在確認、数値の再計算、実験結果の照合、共著者全員による最終確認は、人間側の責任として残る。むしろ今後は、論文執筆ツールや文献管理ツールに「LLM利用後の検証ログ」「引用実在チェック」「本文中メタコメント検出」のような機能が標準装備されていく可能性が高い。

生成AIは研究の速度を上げる。しかし、速度が上がるほど、確認の制度も強くならなければならない。arXivの今回の方針は、AI利用を否定するものというより、「AIを使ったなら、なおさら著者が責任を取る」という、研究インフラ側からの明確な線引きに見える。