Commit fbea5c70 by xiaotong

rename arguments

parent b66c099a
...@@ -31,27 +31,27 @@ namespace nts { // namespace nts(NiuTrans.Tensor) ...@@ -31,27 +31,27 @@ namespace nts { // namespace nts(NiuTrans.Tensor)
/* scale each entry (CUDA Kernel) */ /* scale each entry (CUDA Kernel) */
__global__ __global__
void KernelScale(int * a, int * b, int size, int num); void KernelScale(int * a, int * b, int size, int scale);
/* scale each entry */ /* scale each entry */
void _CudaScale(const XTensor * a, XTensor * b, int num); void _CudaScale(const XTensor * a, XTensor * b, int scale);
/* descale each entry (CUDA Kernel) */ /* descale each entry (CUDA Kernel) */
__global__ __global__
void KernelDescale(int * a, int * b, int size, int num); void KernelDescale(int * a, int * b, int size, int scale);
/* descale each entry */ /* descale each entry */
void _CudaDescale(const XTensor * a, XTensor * b, int num); void _CudaDescale(const XTensor * a, XTensor * b, int scale);
/* shift each entry (CUDA Kernel) */ /* shift each entry (CUDA Kernel) */
__global__ __global__
void KernelShift(int * a, int * b, int size, int num); void KernelShift(int * a, int * b, int size, int shift);
/* shift each entry */ /* shift each entry */
void _CudaShift(const XTensor * a, XTensor * b, int num); void _CudaShift(const XTensor * a, XTensor * b, int shift);
/* mod each entry (CUDA Kernel) */ /* mod each entry (CUDA Kernel) */
__global__ __global__
void KernelMod(int * a, int * b, int size, int num); void KernelMod(int * a, int * b, int size, int base);
/* mod each entry */ /* mod each entry */
void _CudaMod(const XTensor * a, XTensor * b, int num); void _CudaMod(const XTensor * a, XTensor * b, int base);
#endif // USE_CUDA #endif // USE_CUDA
......
Markdown 格式
0%
您添加了 0 到此讨论。请谨慎行事。
请先完成此评论的编辑!
注册 或者 后发表评论