インテル® DAAL 2017 デベロッパー・ガイド
バックワード全結合層の入力は次のとおりです。入力 ID をパラメーターとして、アルゴリズムの入力を提供するメソッドに渡します。詳細は、「アルゴリズム」を参照してください。
入力 ID |
入力 |
|
---|---|---|
inputGradient |
前の層で計算された入力勾配を格納するサイズ nk x m のテンソルのポインター。この入力は、Tensor の派生クラスのオブジェクトです。 |
|
inputFromForward |
バックワード全結合層に必要なデータのコレクション。Tensor の派生クラスのオブジェクトをコレクションに含めることができます。 |
|
要素 ID |
要素 |
|
auxData |
バックワード全結合層の入力データを格納するサイズ n1 x ... x nk x ... x np のテンソルのポインター。この入力は、Tensor の派生クラスのオブジェクトです。 |
|
auxWeights |
重みのセットを格納するサイズ n1 x ... x nk - 1 x m x nk + 1 x ... x np のテンソルのポインター。この入力は、Tensor の派生クラスのオブジェクトです。 |
|
auxBiases |
バイアスのセットを格納するサイズ m のテンソルのポインター。この入力は、Tensor の派生クラスのオブジェクトです。 |
|
auxMask |
マスク (計算で使用される対応する重みは 1、計算で使用されない重みは 0) を保持するサイズ n1 x ... x nk - 1 x m x nk + 1 x ... x np のテンソルのポインター。マスクが提供されない場合、ライブラリーは重みをすべて使用します。 |
バックワード全結合層のパラメーターは次のとおりです。
パラメーター |
デフォルト値 |
説明 |
|
---|---|---|---|
algorithmFPType |
float |
アルゴリズムが中間計算に使用する浮動小数点の型。float または double を指定できます。 |
|
method |
defaultDense |
パフォーマンス指向の計算メソッド。層でサポートされている唯一のメソッドです。 |
|
nOutputs |
適用不可 |
層の出力 m の数。アルゴリズムを初期化するために必要です。 |
|
dimension |
0 |
全結合層のバックワード伝播ステップを実行する次元 k。 |
バックワード全結合層は次の結果を計算します。結果 ID をパラメーターとして、アルゴリズムの結果にアクセスするメソッドに渡します。詳細は、「アルゴリズム」を参照してください。
結果 ID |
結果 |
|
---|---|---|
gradient |
バックワード全結合層の結果を格納するサイズ n1 x ... x nk x ... x np のテンソルのポインター。この入力は、Tensor の派生クラスのオブジェクトです。 |
|
weightDerivatives |
バックワード全結合層の結果 ∂Ε / ∂wi1...j...ip を格納するサイズ n1 x ... x nk - 1 x m x nk + 1 x ... x np のテンソルのポインター。ここで、j = {1, ..., m}。この入力は、Tensor の派生クラスのオブジェクトです。 |
|
biasDerivatives |
バックワード全結合層の結果 ∂Ε / ∂bj を格納するサイズ m のテンソルのポインター。ここで、j = {1, ..., m}。この入力は、Tensor の派生クラスのオブジェクトです。 |
インテル® DAAL ディレクトリーの次のサンプルを参照してください。
C++: ./examples/cpp/source/neural_networks/fullyconnected_layer_batch.cpp
Java*: ./examples/java/source/com/intel/daal/examples/neural_networks/FullyconnectedLayerBatch.java
Python*: ./examples/python/source/neural_networks/fullyconnected_layer_batch.py