インテル® DAAL 2017 デベロッパー・ガイド
pReLU (パラメトリック正規化線形関数) 活性化層は、入力データに変換 f(x) = max(0, x) + w * min(0, x) を適用します。バックワード pReLU 層は、値 z = y*f'(x) を計算します。ここで、y は前の層で計算された入力勾配、w は入力引数の重み、
サイズ n1 x n2 x ... x np の p 次元のテンソル X、Y、および W で、次のようなサイズ n1 x n2 x ... x np の p 次元のテンソル Z = (zi1...ip) を計算します。