techcellar logo
Tips エンジニア採用のヒント

updated_at: 2026/4/14

エンジニア採用のワークサンプルテスト設計ガイド|実務課題で見極める選考手法

ワークサンプルテストの設計・運用・評価手法を体系的に解説し選考精度と候補者体験を両立する方法を紹介

tip Image

TL;DR(この記事の要約)

  • ワークサンプルテストは候補者に実務に近い課題を解いてもらい、入社後のパフォーマンスを予測する選考手法

  • アルゴリズム偏重のコーディング試験より実務適性の予測精度が高いとされ、候補者の納得感も得やすい

  • 設計の要は「職務との関連性」「時間の尊重」「評価基準の標準化」の3つ

  • 無償で課題を課すと候補者体験を損ねる——報酬の支払い時間上限の設定がベストプラクティス

  • AI時代には「AIツールを使って課題を解いてよい」前提で設計し、プロンプト設計力・出力検証力まで評価対象にする


このページでわかること

  • ワークサンプルテストとは何か、他の選考手法(コーディング試験・ペアプロ・システム設計面接)との違い

  • 職種・レベル別のワークサンプルテスト設計パターン

  • 課題の作り方、所要時間の目安、評価ルーブリックのテンプレート

  • 候補者体験を損ねない運用のコツ(報酬・フィードバック・時間制限)

  • AI時代に合わせた課題設計のアップデート方法

  • 導入から運用改善までの90日ロードマップ


Add Tasks Illustration

1. ワークサンプルテストとは何か

ワークサンプルテストとは、入社後に実際に担当する業務に近い課題を候補者に取り組んでもらい、その成果物やプロセスを評価する選考手法です。「仕事の一部を体験してもらう選考」と言い換えてもよいでしょう。

産業・組織心理学の分野では、ワークサンプルテストは入社後のパフォーマンス予測において高い妥当性を持つ選考手法として知られています。面接だけでは見えないスキルを可視化し、候補者と企業の双方がミスマッチのリスクを下げられるのが大きな利点です。

コーディング試験やペアプロとの違い

エンジニア採用の技術評価にはさまざまな手法がありますが、それぞれ測れるものが異なります。

選考手法

主な評価対象

時間軸

候補者の負担感

アルゴリズム系コーディング試験

計算量設計・データ構造の理解

30分〜1時間(同期)

中〜高

ライブコーディング / ペアプロ

思考プロセス・コミュニケーション

45分〜1.5時間(同期)

システム設計面接

アーキテクチャ設計力・トレードオフ判断

45分〜1時間(同期)

ワークサンプルテスト

実務遂行力・設計判断・コードの品質

2〜4時間(非同期)

中(設計次第)

ワークサンプルテストの最大の特徴は非同期であること実務との距離が近いことです。候補者は自分のペースで取り組め、企業側は「この人が入社したらどんなアウトプットを出すか」をリアルに想像できます。各手法の詳細はコーディング試験設計ガイドペアプロ・ライブコーディング面接設計ガイドも参照してください。

なぜ今ワークサンプルテストが注目されるのか

背景には3つのトレンドがあります。

1. アルゴリズム試験への疲弊

「LeetCodeの暗記ゲーム」と揶揄されるアルゴリズム試験に対して、候補者側の不満が高まっています。特に実務経験が豊富なシニアエンジニアほど「業務で使わないアルゴリズムの暗記で評価されたくない」と感じる傾向があります。

2. ミスマッチの深刻化

2026年2月のpaiza調査によると、ITエンジニア採用を利用する企業の約7割が「採用ミスマッチが起きている」と回答しています。面接だけでは見えないスキルギャップを事前に検知する仕組みとして、ワークサンプルテストが再評価されています。ミスマッチの原因と対策についてはエンジニア採用ミスマッチを防ぐガイドでも詳しく解説しています。

3. AI時代の評価軸シフト

GitHub CopilotやClaude Codeの普及により、「コードを一から書く力」よりも「AIの出力を検証・改善し、実務上の問題を解決する力」が重視されるようになりました。ワークサンプルテストはこうした実務寄りのスキルを自然に評価できます。


2. ワークサンプルテストの設計原則

効果的なワークサンプルテストを設計するには、以下の5つの原則を押さえる必要があります。

原則1:職務関連性を最優先にする

課題は実際のポジションで発生する業務に近いものを選ぶのが鉄則です。

たとえばバックエンドエンジニアの採用であれば、「ToDoアプリのCRUD API実装」のような汎用的な課題ではなく、自社プロダクトで実際に直面した課題をデフォルメしたものが理想的です。

具体例:

  • 「既存APIのレスポンス速度が遅い。ボトルネックを特定し、改善案を実装してください」

  • 「このマイクロサービス間の通信設計にはどんな課題がありますか。改善PRを作ってください」

  • 「新機能の技術設計ドキュメントを書いてください(テンプレートあり)」

注意点: 自社の未リリースプロダクトコードをそのまま課題にすると、知的財産の問題が生じます。必ず実際のコードを抽象化・匿名化して使いましょう。

原則2:所要時間を2〜4時間に収める

候補者が在職中であることを前提に設計してください。多くの候補者は業務時間外に課題に取り組みます。

所要時間

完了率の目安

推奨度

1〜2時間

85%以上

スクリーニング目的なら最適

2〜4時間

70〜80%

本選考の技術評価として最適

4〜8時間

50〜60%

優秀層ほど離脱しやすい

8時間超

30%以下

非推奨(候補者体験を著しく損ねる)

時間の「目安」ではなく「上限」を明記することが重要です。「2〜3時間を目安にしてください」ではなく「最大4時間以内で提出してください。完璧を目指す必要はありません」と伝えましょう。

原則3:評価基準を事前に言語化する

課題を配布する前に、何をどう評価するかをルーブリック(採点基準表)として標準化しておきます。これがないと面接官ごとに評価がブレ、公平性を担保できません。構造化面接設計ガイドで解説している評価基準の考え方は、ワークサンプルテストにもそのまま応用できます。

ルーブリックのサンプルは後述の「セクション4」で紹介します。

原則4:候補者の時間に対価を払う

ワークサンプルテストの最大の批判ポイントは「無償労働ではないか」という点です。

この批判に応えるベストプラクティスは以下の3つです。

  • 報酬を支払う:1〜3万円程度の報酬を支払う企業が増えています。コストはかかりますが、候補者体験が大幅に向上し、完了率も上がります

  • 時間を最小限にする:報酬を払えない場合は、所要時間を2時間以内に抑える

  • フィードバックを返す:不合格でも成果物に対する具体的なフィードバックを返す。候補者の学びになり、企業への印象も良くなる

原則5:AIツールの使用方針を明示する

2026年現在、多くのエンジニアが日常的にAIコーディングアシスタントを使っています。ワークサンプルテストでもAIツールの使用を前提とした設計が求められます。

推奨するスタンスは以下の通りです。

GitHub Copilot、Claude Code、ChatGPTなど、普段お使いのツールはすべて使用可能です。ただし、AIが生成したコードをそのまま提出するのではなく、なぜその実装を選んだかDECISIONS.mdに記載してください。

こうすることで、AIを使いこなす力(プロンプト設計、出力の取捨選択、品質担保) を評価に組み込めます。


Typing Code Illustration

3. 職種・レベル別のワークサンプルテスト設計パターン

バックエンドエンジニア

ジュニア(経験1〜3年)向け:

課題例:シンプルなREST APIの実装

  • 要件定義書を渡し、エンドポイント3〜5本のAPI実装を依頼

  • データベーススキーマ設計・バリデーション・エラーハンドリングを含む

  • テストコードの記述を必須とする

  • 所要時間:2〜3時間

評価のコツ:ジュニアの場合、設計の正解を求めるのではなく「基本的なベストプラクティスを理解しているか」を見ます。たとえばHTTPステータスコードの使い分け、入力バリデーションの実装、SQLインジェクション対策ができているかどうかが判断材料になります。

シニア(経験5年以上)向け:

課題例:既存コードベースのリファクタリング + 設計ドキュメント

  • あえて品質の低いコードベースを渡し、改善点の特定と修正を依頼

  • 「なぜその修正を選んだか」の設計判断ドキュメントを提出に含める

  • パフォーマンス改善やセキュリティ対策まで踏み込めるかを見る

  • 所要時間:3〜4時間

評価のコツ:シニアには「何を直さないか」の判断も見ます。限られた時間でどこに優先順位をつけるか、技術的な完璧主義よりもビジネスインパクトを考慮した判断ができるかが重要です。リファクタリングの範囲を絞り込み、「今は手をつけないがTODOとして残す」判断ができる候補者は高評価です。

フロントエンドエンジニア

課題例:UIコンポーネントの実装とアクセシビリティ対応

  • Figmaデザインカンプを渡し、React/Vue等でコンポーネントを実装

  • レスポンシブ対応・アクセシビリティ(WAI-ARIA)対応を含める

  • Storybook等でコンポーネントカタログを作成してもらうとなおよい

  • 所要時間:2〜3時間

評価のコツ:フロントエンドではコードの品質に加えて「デザインの再現度」と「ユーザビリティへの配慮」がポイントです。デザインカンプに含まれていないエッジケース(テキストが長い場合、画面幅が極端に狭い場合など)にどう対処するかで、実務力の差が見えてきます。

SRE・インフラエンジニア

課題例:インシデント対応シナリオ

  • 「本番環境でレイテンシが急増した」シナリオを提示

  • ログ・メトリクスデータを渡し、原因特定と対策を文書で提出

  • Terraform/CloudFormation等のIaCコードによる修正を含める

  • 所要時間:2〜4時間

評価のコツ:SREの課題では、原因特定のプロセス(仮説立案→検証→絞り込み)を重視します。最終的な答えが合っているかよりも、論理的な切り分けアプローチができているかがポイントです。また、再発防止策やモニタリングの改善提案まで言及できる候補者は高く評価しましょう。

エンジニアリングマネージャー(EM)

課題例:チーム課題の分析と改善提案

  • 架空のチーム状況(ベロシティ低下、離職率上昇、技術負債増加)を提示

  • 原因仮説の立案、優先順位づけ、90日改善プランの策定を依頼

  • コードではなくドキュメント(設計書・スライド) が成果物になる

  • 所要時間:3〜4時間

評価のコツ:EMの課題では、問題を構造的に捉えられるか(個人の問題 vs プロセスの問題 vs 組織の問題の切り分け)と、施策の優先順位づけのロジックを見ます。「全部やります」ではなく、限られたリソースで最もインパクトの大きい施策を選べるかが判断基準です。

プロダクトエンジニア

課題例:機能の企画〜技術設計

  • ユーザーインタビューの要約と事業KPIを渡す

  • 「次にどんな機能を作るべきか」の企画書と技術設計ドキュメントを依頼

  • ビジネスインパクトと技術的実現可能性の両面を評価する

  • 所要時間:3〜4時間

評価のコツ:プロダクトエンジニアには「ユーザー課題の本質を捉えているか」と「技術的に実現可能なスコープに落とし込めているか」の両方を見ます。ユーザーの声をそのまま機能にするのではなく、背景にある課題を抽象化して最適な解決策を提案できるかがポイントです。

データエンジニア

課題例:データパイプラインの設計と実装

  • サンプルのデータソース(CSV、JSON、API)を渡す

  • ETLパイプラインの設計と一部実装を依頼

  • データ品質チェック(欠損値処理、型バリデーション等)を含める

  • 所要時間:3〜4時間

評価のコツ:データエンジニアの課題では、データの正確性を担保する仕組み(バリデーション、モニタリング、リトライ処理)に目が行くかどうかがポイントです。「動くパイプライン」を作ることよりも「壊れたときに気づける仕組み」を設計できるかを見ましょう。


4. 評価ルーブリックの設計と運用

ワークサンプルテストの評価精度を左右するのは、事前に設計されたルーブリック(採点基準表) です。

バックエンドエンジニア向けルーブリックの例

以下は4段階評価のルーブリック例です。各観点を1(不十分)〜4(卓越)で評価します。

コード品質(配点25%)

  • 4:可読性が高く、一貫したコーディング規約に従っている。適切な命名とコメント

  • 3:おおむね読みやすいが、一部命名や構造に改善余地がある

  • 2:動作するが、可読性やメンテナンス性に課題がある

  • 1:読みにくく、構造が整理されていない

設計判断(配点25%)

  • 4:トレードオフを明確に言語化し、根拠のある設計判断をしている

  • 3:設計判断の方向性は妥当だが、言語化がやや不足

  • 2:設計判断の説明がなく、意図が読み取りにくい

  • 1:設計上の問題が多く、改善の方向性も見えない

テスト(配点20%)

  • 4:正常系・異常系・境界値のテストが網羅されている

  • 3:主要な正常系・異常系はカバーされている

  • 2:正常系のテストはあるが、異常系が不足

  • 1:テストがない、またはテストが機能していない

問題解決プロセス(配点15%)

  • 4:READMEやコミットメッセージから思考プロセスが明確に追える

  • 3:大まかなプロセスは分かるが、一部不明瞭

  • 2:コミットがまとめられており、プロセスが見えにくい

  • 1:プロセスが全く追えない

AIツール活用力(配点15%)

  • 4:AIの出力を適切に検証・改善し、DECISIONS.mdで判断根拠を説明

  • 3:AIを活用しているが、検証や判断根拠の説明がやや不足

  • 2:AIに依存しすぎており、出力の検証が不十分

  • 1:AIを使っていない、または使い方に問題がある

ルーブリック運用のポイント

1. 複数人で評価する

最低2名の評価者が独立して採点し、その後すり合わせるプロセスが理想です。1名だけの評価はバイアスの温床になります。

2. 評価者間の差異が大きい場合のルール

特定の観点で評価者間のスコア差が2以上ある場合は、第三者を加えてディスカッションするルールを設けましょう。

3. 四半期ごとにルーブリックを見直す

技術トレンドやチームの課題は変化します。ルーブリックも固定せず、四半期に一度レビューしてアップデートすることを推奨します。


Global Team Illustration

5. 候補者体験を損ねない運用設計

ワークサンプルテストは、設計を誤ると「タダ働きさせられた」という印象を与え、採用ブランディングに大きなダメージを与えます。以下のポイントを押さえて運用しましょう。

課題配布時のコミュニケーション

課題を送る際に以下の情報を明記します。

  • 所要時間の上限(例:最大4時間)

  • 提出期限(例:配布から7日以内)

  • 評価基準の概要(何を重視するか)

  • AIツールの使用可否

  • 質問の受付方法(Slackチャンネル・メール等)

  • 報酬の有無

テンプレート例:

提出後のフィードバック

合格の場合: 成果物の良かった点を具体的に伝えた上で、次の選考ステップを案内します。

不合格の場合: 以下の3点を含むフィードバックを返すのがベストプラクティスです。

  1. 良かった点を具体的に挙げる(候補者のモチベーション維持)

  2. 改善が必要だった点を建設的に伝える(候補者の成長につなげる)

  3. 今回の判断基準を簡潔に説明する(透明性の担保)

不合格フィードバックを丁寧に返す企業は少数派です。だからこそ、ここに力を入れることで他社との差別化につながります。候補者体験の改善が採用力にどう影響するかはエンジニア採用CX(候補者体験)改善ガイドもあわせてご覧ください。

提出期限の柔軟性

候補者から「業務が忙しく期限に間に合わない」と連絡があった場合は、柔軟に延長を認めましょう。期限に厳格すぎると、優秀な在職中エンジニアを逃すことになります。

質問対応の体制を整える

課題に取り組む中で「要件の解釈に迷った」「技術的な制約を確認したい」といった質問が出ることは自然です。質問に対して24時間以内に回答する体制を整えましょう。

質問への対応で企業の印象は大きく変わります。「質問しても返事が来ない」という体験は候補者にとって大きなマイナスです。逆に、丁寧かつ迅速に対応できれば「この会社はコミュニケーションが円滑だ」という好印象につながります。

Slackの共有チャンネルを作り、候補者と採用担当・エンジニアが直接やりとりできる場を用意するのも効果的です。チャットのやりとり自体が「この人と一緒に働くイメージが湧くか」の判断材料になります。

候補者アンケートを実施する

選考結果に関わらず、ワークサンプルテスト後に候補者アンケートを実施しましょう。以下の項目を聞くのがおすすめです。

  • 課題の難易度は適切でしたか(5段階評価)

  • 所要時間は案内通りでしたか(実際にかかった時間)

  • 課題の説明は分かりやすかったですか

  • 改善してほしい点はありますか(自由記述)

このフィードバックをもとに課題を継続的に改善することで、候補者体験は着実に向上します。


6. よくある失敗パターンと対策

失敗1:課題が重すぎて候補者が離脱する

事例: 8時間以上かかる課題を出し、提出率が30%を下回った。

対策:

  • 所要時間の上限を4時間以内に設定する

  • 課題をリリースする前に社内エンジニアに解いてもらい、実際の所要時間を計測する

  • 「完璧でなくてよい」ことを明記し、TODOリストの記載を推奨する

失敗2:自社プロダクトの無償開発に見える

事例: 実際のプロダクト課題をそのまま出し、「タダ働きさせられた」と候補者がSNSに投稿。

対策:

  • 課題は必ず抽象化・匿名化する

  • 報酬を支払う

  • 「この課題の成果物を自社プロダクトに使用することはありません」と明記する

失敗3:評価基準が曖昧で面接官ごとに判断がバラつく

事例: 「良いコードかどうか」を直感で判断し、面接官Aは合格、面接官Bは不合格と判定。

対策:

  • ルーブリック(セクション4参照)を事前に設計する

  • 複数名で独立評価した後にすり合わせるプロセスを導入する

  • 評価のキャリブレーション会を月次で実施する

失敗4:選考プロセスの最初にワークサンプルテストを置く

事例: 書類選考の直後にワークサンプルテストを課し、「まだ話もしていないのに何時間も使わされた」と候補者から不満。

対策:

  • ワークサンプルテストはカジュアル面談や一次面接の後に配置する

  • 候補者と企業が互いに「この先に進みたい」と合意してから実施するのが鉄則

失敗5:フィードバックを返さない

事例: 不合格の候補者に結果だけ伝え、成果物に対するコメントなし。口コミサイトに「何時間もかけたのに何も返ってこなかった」と書かれる。

対策:

  • 全候補者に成果物へのフィードバックを返す(テンプレートを用意してもよい)

  • フィードバック返却までのリードタイムを社内で決める(推奨:提出後5営業日以内)


Digital Artwork

7. AI時代のワークサンプルテスト設計アップデート

「AIを禁止する」のは逆効果

AI利用を禁止しても、隠れて使う候補者を検知する手段はありません。むしろAIの活用を前提にした課題設計に切り替えるべきです。

2026年現在、GitHub CopilotやClaude Code、Cursorといったツールはエンジニアの日常的な開発環境に組み込まれています。AIなしでコードを書くことを求めるのは、電卓なしで計算することを求めるようなものです。評価すべきは「AIを使えるかどうか」ではなく、「AIを使ってどれだけ質の高い成果を出せるか」 です。

AI時代に評価すべき3つのスキル

1. プロンプト設計力

AIに的確な指示を出し、意図通りのアウトプットを引き出す力。DECISIONS.mdに「どんなプロンプトでどんな結果を得たか」を記録してもらうことで評価できます。

2. 出力検証力

AIが生成したコードのバグ・セキュリティリスク・パフォーマンス問題を見抜く力。あえてAIが間違えやすい課題(エッジケースの多い仕様、曖昧な要件定義)を含めることで評価の精度が上がります。

3. 統合・判断力

複数のAI出力を組み合わせ、最終的なアーキテクチャ判断を下す力。「なぜこの設計を選んだか」「どんな代替案を検討したか」を文書化してもらうことで可視化できます。

AI前提の課題設計の具体例

従来の課題: 「RESTful APIを設計・実装してください」

AI前提に再設計した課題: 「以下の要件書(あえて曖昧な箇所を含む)をもとにRESTful APIを設計・実装してください。AIツールは自由に使用可能です。ただし以下を提出に含めてください。」

  • DECISIONS.md:設計上の判断とその根拠(AIの提案をどう取捨選択したかを含む)

  • 要件書の曖昧な箇所について、どのような前提を置いたかの記録

  • AIが生成したコードに対して加えた修正とその理由

この設計のポイントは、要件の曖昧さを意図的に残していることです。AIツールは明確な指示に対しては高品質なコードを生成しますが、曖昧な要件をどう解釈するかは人間の判断力が問われます。「要件が不明瞭なので確認します」と質問を送ってくる候補者はむしろ高評価の対象です。

AI前提のワークサンプルテスト設計チェックリスト

  • AIツールの使用を明示的に許可している

  • DECISIONS.md(意思決定記録)の提出を必須にしている

  • 「AIが生成したコードをそのまま提出しただけ」では高評価にならない設計になっている

  • エッジケースや曖昧な要件を意図的に含めている

  • コードの「量」ではなく「判断の質」を評価基準にしている


8. 導入から運用改善までの90日ロードマップ

Phase 1:設計と社内テスト(1〜30日目)

やること:

  • 採用ポジションごとの課題を設計する(職種別テンプレートはセクション3を参照)

  • 評価ルーブリックを作成する(セクション4を参照)

  • 社内エンジニア2〜3名に試験的に解いてもらい、所要時間と難易度を検証する

  • 課題配布テンプレートを作成する(セクション5を参照)

チェックポイント:

  • 社内エンジニアが目安時間内に完了できるか

  • ルーブリックで評価したときに妥当な結果が出るか

Phase 2:パイロット運用(31〜60日目)

やること:

  • 実際の候補者3〜5名にワークサンプルテストを実施する

  • 提出率・完了時間・候補者のフィードバックを記録する

  • 評価者2名体制で独立採点→すり合わせプロセスを回す

  • 候補者アンケートで「課題の難易度」「所要時間」「体験の満足度」を収集する

チェックポイント:

  • 提出率が70%以上あるか

  • 評価者間のスコア差が許容範囲内か

  • 候補者から「課題が重すぎる」等のネガティブフィードバックがないか

Phase 3:本格運用と改善(61〜90日目)

やること:

  • パイロットの結果をもとに課題・ルーブリック・運用フローを修正する

  • 全採用ポジションにワークサンプルテストを展開する

  • 四半期ごとのルーブリックレビューサイクルを設定する

  • ワークサンプルテストの結果と入社後パフォーマンスの相関分析を開始する

チェックポイント:

  • 選考辞退率が導入前と比較して悪化していないか

  • 入社後のミスマッチ(早期離職・パフォーマンス不足)が減少しているか


9. ワークサンプルテストと他の選考手法の組み合わせ方

ワークサンプルテストは単独で使うものではありません。他の選考手法と組み合わせることで、多角的な評価が可能になります。

推奨する選考フローの例

ポイントは、ワークサンプルテストの後にテクニカルディスカッションを置くことです。成果物をもとに「なぜこの設計を選んだか」「別のアプローチを検討したか」を深掘りすることで、候補者の技術力をより立体的に評価できます。

テクニカルディスカッションの進め方

ワークサンプルテストの成果物をベースにしたテクニカルディスカッションは、以下の流れで進めるのが効果的です。

1. 成果物の概要説明(10分)

候補者に成果物の全体像と設計判断の要点を説明してもらいます。「限られた時間でどこに注力したか」「何をやらない判断をしたか」を聞くことで、優先順位づけの力が見えます。

2. 設計判断の深掘り(20分)

DECISIONS.mdをベースに、具体的な設計判断について「なぜその選択をしたか」「代替案は検討したか」「トレードオフは何か」を質問します。ここでの受け答えで、候補者の技術的な深さとコミュニケーション力が両方見えます。

3. 拡張シナリオの議論(20分)

「このシステムのユーザーが10倍になったらどうするか」「新しい要件が追加されたらどの部分を変更する必要があるか」といった拡張シナリオを提示し、即興での設計議論を行います。準備した成果物だけでなく、その場での思考力を評価できます。

4. 候補者からの質問(10分)

最後に候補者からの質問を受け付けます。技術スタックやチーム文化について質問してくる候補者は、入社後のことを真剣に考えている証拠です。

組み合わせの注意点

  • 選考ステップは最大5つまで:ステップが増えすぎるとリードタイムが長くなり、候補者離脱の原因になる

  • ワークサンプルテストとコーディング試験の併用は避ける:候補者の負担が大きすぎる。どちらか一方を選ぶ

  • テクニカルディスカッションは必ずセットにする:成果物だけでは測れない思考プロセスやコミュニケーション力を補完する

ワークサンプルテスト vs 他の選考手法:どう選ぶ?

すべてのポジションでワークサンプルテストが最適とは限りません。以下の判断基準で使い分けましょう。

ワークサンプルテストが向いているケース:

  • 実務スキルの再現性を重視するポジション

  • シニアクラスの採用で、設計判断力を見たい場合

  • 候補者の数が多すぎず、評価に十分なリソースを割ける場合

  • リモートワーク前提のポジション

他の手法が向いているケース:

  • 大量採用でスクリーニングの効率を重視する場合(→コーディング試験)

  • コミュニケーション力やチームワークを最優先で評価したい場合(→ペアプロ)

  • アーキテクチャ設計力を重点的に見たい場合(→システム設計面接)


FAQ(よくある質問)

Q1. ワークサンプルテストの報酬はいくらが適切ですか?

一般的には1〜3万円が相場です。所要時間が2時間なら1万円、4時間なら2〜3万円を目安にしている企業が多いです。報酬を支払うことで候補者の完了率が大幅に向上します。予算が厳しい場合は、フィードバックの質を上げることで候補者体験を補完しましょう。

Q2. ワークサンプルテストの結果を不合格にする基準は?

ルーブリックの合計スコアで全体の60%未満を不合格ラインとする企業が多いです。ただし、特定の観点(例:設計判断)で極端に低いスコアの場合は合計点に関わらず不合格とする「足切りルール」を設けるのも有効です。基準は必ず事前に決めておき、選考途中で変更しないことが公平性の担保につながります。

Q3. 候補者が「忙しくて取り組めない」と言った場合はどうすべきですか?

提出期限の延長を柔軟に認めましょう。優秀なエンジニアほど現職の業務が忙しいものです。一般的には7日間→14日間への延長を認める企業が多いです。それでも困難な場合は、代替の選考手法(ペアプログラミング面接等)を提案するのも一つの方法です。

Q4. ワークサンプルテストの成果物を自社プロダクトに使ってもよいですか?

使うべきではありません。 候補者の成果物を商用利用すると「タダ働き」の批判を受けるリスクがあります。課題は実務に近いものであっても、あくまで評価目的に限定してください。課題配布時に「成果物を自社プロダクトに使用しない」旨を明記するとトラブルを防げます。

Q5. ジュニアエンジニアにもワークサンプルテストは有効ですか?

有効ですが、課題の難易度と所要時間を調整する必要があります。ジュニア向けには要件を明確にし、所要時間を2時間以内に抑えた課題を設計しましょう。また、「完成度」よりも「問題に取り組むプロセス」を重視する評価基準にすることで、経験の浅い候補者の潜在能力を見極められます。

Q6. リモートワーク環境でもワークサンプルテストは実施できますか?

ワークサンプルテストは非同期で実施できるため、リモート環境との相性が抜群です。GitHubリポジトリでの提出、Google Docsでのドキュメント共有など、オンラインツールを活用すれば場所を問わず実施できます。むしろ、同期型の面接よりもタイムゾーンの違いに左右されにくい点がメリットです。

Q7. ワークサンプルテストの導入にはどのくらいのコストがかかりますか?

主なコストは以下の3つです。課題設計コスト(社内エンジニアの工数:初回20〜30時間、以降は改善のため四半期ごとに5〜10時間)、報酬コスト(候補者1名あたり1〜3万円)、評価コスト(評価者2名×1〜2時間)。年間20名に実施する場合、報酬だけで20〜60万円程度を見込んでおく必要があります。


まとめ:ワークサンプルテストは「お互いを知る」選考設計

ワークサンプルテストは、企業が候補者のスキルを測るだけの一方的な試験ではありません。候補者にとっても「この会社でどんな仕事をするのか」を入社前に体験できる貴重な機会です。

設計のポイントを振り返ります。

  • 課題は実務に近いものを選び、所要時間は2〜4時間に収める

  • 評価ルーブリックを事前に設計し、複数名で独立評価する

  • 候補者の時間に対価を払い、全員にフィードバックを返す

  • AI時代にはAIの活用を前提とした設計に切り替える

  • 選考フローの中でテクニカルディスカッションとセットで運用する

ワークサンプルテストの導入は、選考精度の向上と候補者体験の改善を同時に実現できる数少ない施策です。

重要なのは、最初から完璧な課題を作ろうとしないことです。まずはパイロットとして1ポジションで試し、候補者のフィードバックを聞きながら改善を重ねていきましょう。社内エンジニアに解いてもらって「これは重すぎる」「この要件が曖昧すぎる」といったフィードバックを受けて調整するプロセスを経ることで、自社にとって最適な課題が出来上がっていきます。

また、ワークサンプルテストは選考手法のひとつに過ぎません。カジュアル面談での相互理解、構造化面接での公平な評価、オファー面談での丁寧なクロージングなど、選考プロセス全体を設計する中にワークサンプルテストを組み込むことが成功の鍵です。


エンジニア採用の選考設計にお悩みの方は、techcellarの採用支援サービスにご相談ください。ワークサンプルテストの設計から運用改善まで、エンジニア視点でサポートします。

Download


資料ダウンロード

エンジニア採用の課題を
AI×エンジニアの力で解決します

techcellar
techcellar
techcellar
techcellar