インテル® DAAL 2017 デベロッパー・ガイド

バッチ処理

層の入力

バックワード pReLU 層の入力は次のとおりです。入力 ID をパラメーターとして、アルゴリズムの入力を提供するメソッドに渡します。詳細は、「アルゴリズム」を参照してください。

入力 ID

入力

inputGradient

前の層で計算された入力勾配を格納するサイズ n1 x n2 x ... x np のテンソルのポインター。この入力は、Tensor の派生クラスのオブジェクトです。

inputFromForward

バックワード pReLU 層に必要なデータのコレクション。Tensor の派生クラスのオブジェクトをコレクションに含めることができます。

要素 ID

要素

auxData

フォワード pReLU 層の入力データを格納するサイズ n1 x n2 x ... x np のテンソルのポインター。この入力は、Tensor の派生クラスのオブジェクトです。

auxWeights

フォワード pReLU 層の重みを格納するサイズ nk x nk + 1 x ... x nk + q - 1 のテンソルのポインター。この入力は、Tensor の派生クラスのオブジェクトです。

層のパラメーター

バックワード pReLU 層のパラメーターは次のとおりです。

パラメーター

デフォルト値

説明

algorithmFPType

float

アルゴリズムが中間計算に使用する浮動小数点の型。float または double を指定できます。

method

defaultDense

パフォーマンス指向の計算メソッド。層でサポートされている唯一のメソッドです。

dataDimension

0

重みを適用する size_t 型のデータ次元の開始インデックス。

weightsDimension

1

size_t 型の重み次元の数。

層の出力

バックワード pReLU 層は次の結果を計算します。結果 ID をパラメーターとして、アルゴリズムの結果にアクセスするメソッドに渡します。詳細は、「アルゴリズム」を参照してください。

結果 ID

結果

gradient

バックワード pReLU 層の結果を格納するサイズ n1 x n2 x ... x np のテンソルのポインター。この入力は、Tensor の派生クラスのオブジェクトです。

weightDerivatives

バックワード pReLU 層の結果 Ε / ∂wik...ik + q - 1 を格納するサイズ nk x nk + 1 x ... x nk + q - 1 のテンソルのポインター。この入力は、Tensor の派生クラスのオブジェクトです。

サンプル

インテル® DAAL ディレクトリーの次のサンプルを参照してください。

C++: ./examples/cpp/source/neural_networks/prelu_layer_batch.cpp

Java*: ./examples/java/source/com/intel/daal/examples/neural_networks/PReLULayerBatch.java

Python*: ./examples/python/source/neural_networks/prelu_layer_batch.py

関連情報