「AIで実装は終わりました!」 その一言で、安心したはずのプロジェクトが、数日後に炎上する。

そんな場面に、心当たりはないでしょうか。

画面は動いている。機能も一通り揃っている。それなのに・・・ テストは不十分、例外処理は抜け漏れだらけ。 気づけば、修正の連鎖でスケジュールは崩壊している。

問題は、AIではありません。「AIに任せた後の管理の仕方」が、従来のままだからです。

第1回でお伝えした通り、AIの登場によって「実装には時間がかかる」という前提は崩れました。 工数の本質は、「作業時間」から「意思決定と検証の時間」へと変わっています

にもかかわらず、WBSもQAのルールも昔のままでは、 AIのスピードに管理が追いつかず、プロジェクトは簡単にコントロールを失います。

第2回の今回は、「AIに任せました」で炎上させないために、 PMが明日から使えるハイブリッドWBSと新しい品質保証の仕組みを具体的に解説します。

「作る」から「検証する」へ:ハイブリッドWBSの引き方

これまで私たちが慣れ親しんできた「基本設計 → 詳細設計 → 製造 → 単体テスト」という、きれいにバトンを渡していくウォーターフォール型のタスク分割は、もはやAI時代にはフィットしません。

なぜなら、実行型AIは「詳細な指示(要件)」さえあれば、実装からテストコードの生成までを一気通貫で行ってしまうからです。

これからのPMに求められるのは、「どこまでをAIに任せ、どこを人間が『関所』としてチェックするか」を事前にWBS上で明確に定義することです。

明日から使える「ハイブリッドWBS」テンプレ

では、具体的にどうタスクを分割し、工数を積めばいいのでしょうか。 ここでは「ユーザー登録機能」を開発する場合を例に、新しいWBSの引き方(1行テンプレ)をご紹介します。

AIと人間が共存するWBSの例(ユーザー登録機能)

  1. 要件言語化(AI指示書作成): 0.5人日 【人間】
  2. AI実装(コード生成): 0.1人日 【AI+人間】
  3. 設計ルール・基本構造の監査: 0.5人日 【人間】
  4. テスト設計レビュー: 0.5人日 【人間】
  5. テスト実行・結果確認: 0.5人日 【人間】

※工数配分はプロジェクト規模や難易度によって変わりますが、「実装<言語化・検証」になる構造が重要です。

ご覧の通り、AIが実際にコードを書く「実装」の工数(0.1人日)は極端に圧縮されています。 その代わり、事前の「AIが迷わないレベルまで要件を言語化する作業」や、事後の「AIが出力したコードやテストが正しいかを監査・検証する作業」に、圧倒的な工数(コスト)を積んでいます。

「製造に何日かかるか」ではなく、「AIへの指示と出力の検証にどれだけの工数をかけるべきか」。これが、これからのWBSの基本形になります。

ブラックボックスを制御する:新しいQA(品質保証)の仕組み

WBSを引き直したら、次は品質の担保です。AIが数分で書き上げた数千行のコードを、人間が1行ずつ目視でレビューするのは現実的ではありません。

ここでPMがチームに徹底させるべきなのが、「コードの中身」ではなく「振る舞い(テスト)」をレビューの主軸に据えるというマネジメントです。

QAの関所:「AIが書いたテスト」を人間がテストする

最近のAIは、実装と同時にテストコードも書いてくれます。一見すると「これでテストも万全だ」と思いがちですが、ここに大きな落とし穴があります。

AI自身が作ったテストは、「AIが自分が実装した通りに動くか」を確認しているだけの自己満足なテストになりがちです。 特に、AIは「正常系(うまくいくパターン)」を過剰に最適化する傾向があり、「異常系」や「境界値(極端な入力)」の抜け漏れが頻繁に発生します。

また、特に性能やセキュリティといった非機能要件は、AIの標準出力だけでは担保されないため、人間の設計と検証が不可欠です。

したがって、人間(QA担当やシニアエンジニア)の最も重要な仕事は、コードの細かい書きっぷりを指摘することではありません。

「AIが書いたこのテストケースの網羅性は妥当か?」「このエッジケースがすっぽり抜けていないか?」

これを監査するプロセスを、品質保証(QA)の絶対的な「関所」として設定してください。テスト設計のレビューこそが、ブラックボックスを制御する最大の武器になります。

進捗管理の指標を変える:「完了率」の罠

WBSと品質保証のルールが変われば、当然「進捗の測り方」も変わります。ここでPMが陥りがちなのが「AIによる実装完了=進捗の大幅な前倒し」と錯覚してしまうことです。

「コードが動いた」時点では、体感的にはまだ20%程度

AIを使えば、画面が動き、一見完成したように見えるシステムがすぐにできあがります。

しかし、そこを進捗の基準(たとえば「実装が終わったから80%完了」)にしてしまうと、プロジェクト終盤で「セキュリティチェックが全く通らない」「データが増えたら性能要件を満たせない」といった大炎上が起きます。

厳しいようですが、「とりあえずコードが動いた」という状態は、システム開発全体から見れば、体感的にはまだ20%程度に過ぎません。むしろ「スタートラインに立った状態」と言った方が近いでしょう。

「検証の消化率」をマイルストーンにする

では、どう進捗を管理すればいいのか。 これからの進捗管理は、「どれだけ作ったか」ではありません。 「どれだけ検証を通過したか」=検証の消化率です。

❌ 誤った進捗指標:「コーディングが〇ファイル終わった」

⭕ 正しい進捗指標:「テストケースのレビューと承認が終わった」「セキュリティスキャンをパスした」

「検証」を軸に進捗を測ることで、プロジェクト終盤での「見えない手戻り」という時限爆弾を、確実に取り除くことができます。

まとめ:AIを安全なエンジンに変える「検証」中心のマネジメント

第1回で述べた通り、これからの工数は「作業時間」ではなく「意思決定と検証の時間」です。

AIツールの導入だけでは、プロジェクトは成功しません。むしろ、AIの出力スピードに管理が追いつかず、あっという間にコントロールを失います。

「検証に工数を積むWBS」を引き、「テスト設計を監査するQA」をルール化し、「検証の消化率で進捗を測る」。 この仕組みを変えて初めて、実行型AIはプロジェクトを推進する安全で強力なエンジンになります。

しかし、どんなに完璧なWBSやルールを作っても、それを実際に動かす「メンバー(人)」の意識が変わらなければ、現場は回りません。

シリーズ:AI時代のPM生存戦略
【第1回】実行型AIで再定義されるシステム開発の3つの常識
【第2回】「AIに任せました」で炎上させない。ハイブリッドWBSとQAの再構築(本記事)
【第3回】AIでチームが壊れる理由|「自分で書くベテラン」と「AI任せの若手」をどう動かすか
【第4回】AIに駆逐されるPM・無双するPMの違いと、次世代のキャリア戦略

【完全保存版】要件定義の実践ガイド総まとめ|炎上と手戻りを防ぐプロジェクト成功のロードマップシステム開発の成否の8割を決める「要件定義」。本記事では、プロジェクトの炎上や手戻りを防ぐための実践ガイド(全9回)を一挙にまとめました。企画構想からWBS作成、業務フローの書き方まで、現場PMが絶対に知っておくべき成功のロードマップを大公開します。...
ABOUT ME
hidechi
情報システムエンジニアとして35年以上、システム開発の最前線に立つ現役エンジニア。10億円規模の大規模案件など、数多くのプロジェクトマネジメント経験から得た「現場ですぐに使える実践的な知見」を発信します。日々、厳しい現場で奮闘しているPMやSEの皆さんの一助となれば幸いです。