Kohonen ネットワークは、クラスタリングを実行するニューラル・ネットワークの一種で、knet、または自己組織化マップとしても知られています。 この種のネットワークを使用すると、開始時にグループの性質がわからない場合に、データセットを異なるグループにクラスター化することができます。 グループまたはクラスター内のレコードは互いに似た傾向があり、異なるグループのレコードとは似ていないように、レコードがグループ化されます。
基本ユニットはニューロンで、次の2つの層で編成されています。入力層および出力層 (出力マップと呼ばれることもあります)。 すべての入力ニューロンがすべての出力ニューロンに接続されます。これらの接続には、それぞれに関連付けられた強さまたは重みがあります。 学習中、各ユニットは各レコードを「勝ち取る」ために互いに競争します。
出力マップは、ニューロンの 2 次配列グリッドで、ユニット間の接続はありません。
入力データが入力層に入り、値が出力層に伝達されます。 最も強い応答の出力ニューロンはウィナーと呼ばれ、入力に対する応答となります。
最初は、重みはすべて無作為です。 あるユニットがレコードを勝ち取ると、そのレコードの予測値のパターンとの適合性を高めるために、重みが (近傍と呼ばれる近くのユニットの重みとともに) 調整されます。 入力レコードがすべて表示され、それに従って重みが更新されます。 変化がほとんどなくなるまで、この処理が何回も繰り返されます。 学習が進行するにつれて、グリッド ユニットの重みがクラスターの 2 次元「マップ」を構成するように調整されます (自己組織化マップと呼ばれる理由です)。
ネットワークの学習が完了すると、類似のレコードは出力マップで互い近くに表示され、違いが非常に大きいレコードほど離れたところに表示されます。
watsonx.aiのほとんどの学習方法とは異なり、Kohonen ネットワークは対象フィールドを使用 しません 。 このタイプの学習は、対象フィールドがないことから、教師なし学習と呼ばれます。 Kohonen ネットワークは、結果を予測するのではなく、一連の入力フィールドのパターンを明らかにします。 通常、最終的な Kohonen ネットワークは、多数の観測値を要約した少数のユニット (強いユニット) と、どの観測値とも対応しない複数のユニット (弱いユニット) で構成されます。 強いユニット (グリッド内の近接ユニットを含むこともある) はクラスターの中心候補を表します。
Kohonen ネットワークは、次元分解にも用いられます。 2 次元グリッドの空間的な特徴により、k
個の元の予測値から、元の予測フィールドの類似関係を保持する 2 つの派生特性への関連付けが行われます。 場合によっては、因子分析や主成分分析と同様の利点があります。
出力グリッドのデフォルト・サイズの計算方法は、 SPSS Modelerの旧バージョンとは異なることに注意してください。 手法では、全般的に学習が速く、効果的に一般化できる、小さい出力層が生成されます。 デフォルト・サイズで満足する結果を得られない場合は、「エキスパート」タブで出力グリッドのサイズを増やしてください。
要件。 Kohonen ネットワークをトレーニングするには、役割が Input
に設定された 1 つ以上のフィールドが必要です。 役割が Target
、 Both
、または None
に設定されているフィールドは無視されます。
利点 Kohonen ネットワーク・モデルを作成する場合、グループに属するデータは必要ありません。 検索するグループ数も必要ありません。 Kohonen ネットワークは多数のユニットから始めて、学習が進行するにつれて、ユニットがデータの自然クラスターを形成していきます。 モデル・ナゲットの各ユニットが獲得した観測値数から強いユニットを識別することにより、適切なクラスター数がわかります。