インテル® DAAL 2018 デベロッパー・ガイド

バックワード pReLU (パラメトリック正規化線形関数) 層

pReLU (パラメトリック正規化線形関数) 活性化層は、入力データに変換 f(x) = max(0, x) + w * min(0, x) を適用します。バックワード pReLU 層は、値 z = y*f'(x) を計算します。ここで、y は前の層で計算された入力勾配、w は入力引数の重み、

問題ステートメント

サイズ n1 x n2 x ... x npp 次元のテンソル XY、および W で、次のようなサイズ n1 x n2 x ... x npp 次元のテンソル Z= (zi1...ip) を計算します。