K 分割交差検証は、モデルのパフォーマンスを評価するために使用される手法です。これは、新しいまだ見たことのないデータに対して モデルがどの程度一般化されるか を推定するのに特に役立ちます。このプロセスには、データセットをほぼ同じサイズの「k」個のサブセットまたはフォールドに分割することが含まれます。手順の内訳は次のとおりです。
1. データセットの分割:
データセットは、「k」個の等しいサイズのサブセットまたはフォールドに分割されます。たとえば、1,000 個のサンプルがあり、「k」として 5 を選択した場合、各フォールドには 200 個のサンプルが含まれます。
2. 反復的なトレーニングと評価:
モデルは「k」回トレーニングされます。各反復では、異なるフォールドが検証セットとして使用され、残りのフォールドがトレーニングに使用されます。例えば:
-
反復 1: 検証として 1 を折り、トレーニングのために 2 から k まで折ります。
-
反復 2: 検証としてフォールド 2、トレーニングのためにフォールド 1 と 3 から k まで
-
反復 3: 検証用のフォールド 3、トレーニング用のフォールド 1 と 2、および 4 ~ k
-
...すべてのフォールドが検証セットとして使用されるまで続きます。
3. パフォーマンス評価:
各反復の後、検証セットで選択したメトリック (精度、適合率、再現率など) を使用してモデルのパフォーマンスが評価されます。各反復のパフォーマンス メトリクスは平均化または結合されて、モデルのパフォーマンスの全体的な推定値が得られます。
4. メトリクスの集計:
各反復からのパフォーマンス メトリクス (精度スコアなど) が平均化または結合されて、モデルのパフォーマンスの全体的な評価が提供されます。この集計されたメトリクスは、目に見えないデータに対するモデルの予想パフォーマンスを表します。
単純なトレーニング/テスト分割に対する K 分割相互検証の利点
-
データの有効利用: 各サンプルがトレーニングと検証の両方に使用されるため、K 分割相互検証により利用可能なデータが有効に活用されます。
-
パフォーマンス推定の分散の削減: 単一のトレーニング/テスト分割に関連する分散を削減することで、モデルのパフォーマンスのより信頼性の高い推定を提供します。
-
一般化: データのさまざまなサブセットに対してモデルがどのように機能するかを理解し、その一般化機能を評価するのに役立ちます。
'k' の値の選択
-
より高い「k」値: より高い「k」値 (例: 10 以上) を使用すると、検証セットが小さくなり、パフォーマンス推定値の 低いバイアスにつながる可能性がありますが、計算コストが高くなります。。
-
より低い「k」値: より低い「k」値(例: 3 または 5)を使用すると、計算コストが削減されますが、検証が小さいため、パフォーマンス推定値により大きなバイアスが生じる可能性があります。セット。
実際のシナリオでは
-
大規模なデータセットの場合、「k」値が高くなると、計算コストが高くなる可能性があります。
-
データセットが小さい場合、「k」が高くなると、各フォールドで堅牢なモデル トレーニングに十分なデータが提供されない可能性があります。
-
一般に、計算効率と信頼性の高いパフォーマンス推定のバランスをとるため、5 や 10 などの値がよく使用されます。