AnthropicがAIコーディング支援ツール「Claude Code」に、新たなコードレビュー機能「Code Review」を追加した。発端となったのは、Boris Cherny氏によるX投稿である。同氏は「PRが開かれると、Claudeがエージェントのチームを送り込み、バグを探す」と紹介しており、Anthropicも3月9日付の公式ブログで正式発表した。

発表の概要

今回追加されたCode Reviewは、プルリクエストごとに複数のAIエージェントを並列で走らせ、バグ候補の探索、重複除去、優先順位付けまで行うレビュー機能である。Anthropicによれば、レビュー結果はPRの概要コメントとインラインコメントとして返される仕組みで、単なるスタイルチェックではなく、ロジック上の不具合発見を重視している。

背景にあるのはAI生成コードの急増

Anthropicは、AI活用によって同社エンジニア1人あたりのコード出力量が過去1年で200%増加したと説明している。その結果、コードレビュー工程が新たなボトルネックになったため、Code Reviewを開発したという。社内でほぼ全PRに適用したところ、実質的なレビューコメントが付くPRの割合は16%から54%へ上昇したとされる。

機能の特徴

Anthropicによれば、この機能は速度よりも精査の深さを優先して設計されており、平均レビュー時間は約20分である。変更行数が1000行を超える大規模PRでは84%に指摘が見つかり、平均7.5件の問題を検出した。一方、50行未満の小規模PRでは31%に指摘が付き、平均0.5件だったという。また、エンジニアが誤りと判断した指摘は1%未満だったとしている。

人間のレビュアーを置き換えるものではない

Anthropicは、Code Reviewを人間の判断の代替ではなく補助と位置付けている。PRの最終承認は人間が担い、AIはレビューの抜け漏れを減らし、人間が本来見るべき重要論点に集中できるよう支援する役割を持つ。TechCrunchによれば、Anthropicのプロダクト責任者Cat Wu氏は、エンタープライズ顧客から「Claude Codeが大量のPRを生む中で、どう効率的にレビューするか」という要望が増えていたと説明している。

提供対象と導入方法

Code Reviewは現時点でTeamおよびEnterprise向けのリサーチプレビューとして提供されている。管理者がClaude Codeの設定画面から有効化し、GitHub Appを導入して対象リポジトリを選択することで利用できる。新しいPRに対して自動でレビューを走らせる構成が前提となっている。

価格はやや高め

Anthropicの公式ブログでは、Code Reviewは既存のClaude Code GitHub Actionよりも「より徹底的で、その分高価」と説明されている。料金はトークン従量課金で、1回あたり平均15〜25ドルとされる。TechCrunchも同様の価格帯を報じており、大規模開発チーム向けのプレミアム機能という位置付けがうかがえる。

今回の発表が示すもの

今回の発表は、AIがコードを書く段階から、AIがコードを査読する段階へと競争軸が移っていることを示している。生成速度だけでは品質担保が追いつかない以上、レビュー工程の自動化は今後さらに重要になる見通しである。Claude CodeのCode Reviewは、その流れを象徴する新機能といえそうである。

出典

https://twitter.com/bcherny/status/2031089411820228645