aboutsummaryrefslogtreecommitdiff
path: root/src/core/NEON/kernels/arm_gemm/kernels/sve_native_fp16_mla_4VLx4/generic.cpp
diff options
context:
space:
mode:
Diffstat (limited to 'src/core/NEON/kernels/arm_gemm/kernels/sve_native_fp16_mla_4VLx4/generic.cpp')
-rw-r--r--src/core/NEON/kernels/arm_gemm/kernels/sve_native_fp16_mla_4VLx4/generic.cpp868
1 files changed, 423 insertions, 445 deletions
diff --git a/src/core/NEON/kernels/arm_gemm/kernels/sve_native_fp16_mla_4VLx4/generic.cpp b/src/core/NEON/kernels/arm_gemm/kernels/sve_native_fp16_mla_4VLx4/generic.cpp
index f1aaeb13ee..14dd38bd25 100644
--- a/src/core/NEON/kernels/arm_gemm/kernels/sve_native_fp16_mla_4VLx4/generic.cpp
+++ b/src/core/NEON/kernels/arm_gemm/kernels/sve_native_fp16_mla_4VLx4/generic.cpp
@@ -1,5 +1,5 @@
/*
- * Copyright (c) 2019 Arm Limited.
+ * Copyright (c) 2018-2019 Arm Limited.
*
* SPDX-License-Identifier: MIT
*
@@ -25,30 +25,49 @@
#include <algorithm>
+#include "arm_gemm.hpp"
#include "../../asmlib.hpp"
#include "../../utils.hpp"
namespace arm_gemm {
-void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ldb, __fp16 *C, int ldc, __fp16 beta, int M, int N, int K) {
- const long beta0 = (beta == 0.0f);
+void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ldb, __fp16 *C, int ldc, int M, int N, int K, const __fp16 *bias, Activation act, bool append) {
const long loops_count = ((K + 8) / 16) - 1;
K -= loops_count * 16;
const long regs_count = (K / 8) - 1;
K -= (regs_count + 1) * 8;
const long leftovers = K;
+ __fp16 nullbias[512];
+ if (!append && !bias) {
+ memset(nullbias, 0, (4 * get_vector_length<__fp16>() * sizeof(__fp16)));
+ }
+ __fp16 minval = - static_cast<__fp16>(std::numeric_limits<float>::infinity());
+ __fp16 maxval = static_cast<__fp16>(std::numeric_limits<float>::infinity());
+ const __fp16 * const minptr = &minval;
+ const __fp16 * const maxptr = &maxval;
+
+ switch(act.type)
+ {
+ default:
+ case Activation::Type::None:
+ break;
+ case Activation::Type::BoundedReLU:
+ maxval = static_cast<__fp16>(act.param1);
+ /* fall through */
+ case Activation::Type::ReLU:
+ minval = 0.0f;
+ break;
+ }
for (int y=0; y<M; y+=4) {
const __fp16 * const a_ptr0_base = A + (y * lda);
const unsigned long ldab = lda * sizeof(__fp16);
__fp16 *c_ptr0 = C + (y * ldc);
- const unsigned long ldcb = ldc * sizeof(__fp16);
for (int x0=0; x0<N; x0+=(4 * get_vector_length<__fp16>())) {
const long width = std::min((unsigned long)N-x0, (4 * get_vector_length<__fp16>()));
- const __fp16 *betaptr = &beta;
long loops = loops_count;
long regs = regs_count;
long temp = 0;
@@ -56,6 +75,8 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
const __fp16 *a_ptr0 = a_ptr0_base;
const __fp16 *b_ptr0 = B + x0;
long ldbb = ldb * sizeof(__fp16);
+ const unsigned long ldcb = ldc * sizeof(__fp16);
+ const __fp16 *biasptr = bias ? bias+x0 : nullbias;
switch(M-y) {
case 1:
@@ -64,52 +85,34 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"whilelt p0.h, %[temp], %[width]\n"
"inch %[temp], all, mul #1\n"
"ptrue p7.h\n"
+ "ld1h z16.h, p0/z, [%[biasptr]]\n"
"whilelt p1.h, %[temp], %[width]\n"
- "inch %[temp], all, mul #1\n"
- "whilelt p2.h, %[temp], %[width]\n"
- "inch %[temp], all, mul #1\n"
- "whilelt p3.h, %[temp], %[width]\n"
- "cbz %[beta0], 1f\n"
- "mov z16.h, #0\n"
"ld1rqh z0.h, p7/z, [%[a_ptr0]]\n"
- "mov z17.h, #0\n"
+ "inch %[temp], all, mul #1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
- "mov z18.h, #0\n"
- "ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "mov z19.h, #0\n"
- "ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
"add %[a_ptr0], %[a_ptr0], #0x10\n"
- "cbz %[loops], 2f\n"
- "b 3f\n"
- "1:\n"
- "ld1rh z15.h, p7/z, [%[betaptr]]\n"
- "ld1h z16.h, p0/z, [%[c_ptr0]]\n"
- "ld1h z17.h, p1/z, [%[c_ptr0], #1, MUL VL]\n"
- "ld1h z18.h, p2/z, [%[c_ptr0], #2, MUL VL]\n"
- "ld1h z19.h, p3/z, [%[c_ptr0], #3, MUL VL]\n"
- "fmul z16.h, p7/m, z16.h, z15.h\n"
- "ld1rqh z0.h, p7/z, [%[a_ptr0]]\n"
- "fmul z17.h, p7/m, z17.h, z15.h\n"
- "ld1h z8.h, p0/z, [%[b_ptr0]]\n"
- "fmul z18.h, p7/m, z18.h, z15.h\n"
+ "ld1h z17.h, p1/z, [%[biasptr], #1, MUL VL]\n"
+ "whilelt p2.h, %[temp], %[width]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "fmul z19.h, p7/m, z19.h, z15.h\n"
+ "inch %[temp], all, mul #1\n"
+ "ld1h z18.h, p2/z, [%[biasptr], #2, MUL VL]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "add %[a_ptr0], %[a_ptr0], #0x10\n"
- "cbz %[loops], 2f\n"
- "3:\n"
+ "whilelt p3.h, %[temp], %[width]\n"
+ "ld1h z19.h, p3/z, [%[biasptr], #3, MUL VL]\n"
+ "cbz %[loops], 1f\n"
+ "2:\n"
"fmla z16.h, z8.h, z0.h[0]\n"
- "ld1rqh z4.h, p7/z, [%[a_ptr0]]\n"
+ "ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
"fmla z17.h, z9.h, z0.h[0]\n"
- "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
+ "ld1rqh z4.h, p7/z, [%[a_ptr0]]\n"
"fmla z18.h, z10.h, z0.h[0]\n"
- "ld1h z12.h, p0/z, [%[b_ptr0]]\n"
+ "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z19.h, z11.h, z0.h[0]\n"
+ "ld1h z12.h, p0/z, [%[b_ptr0]]\n"
"ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
"subs %[loops], %[loops], #0x1\n"
+ "ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "add %[a_ptr0], %[a_ptr0], #0x20\n"
"fmla z16.h, z12.h, z0.h[1]\n"
"ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
"fmla z17.h, z13.h, z0.h[1]\n"
@@ -119,70 +122,69 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z19.h, z15.h, z0.h[1]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "add %[a_ptr0], %[a_ptr0], #0x20\n"
- "fmla z16.h, z8.h, z0.h[2]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "fmla z17.h, z9.h, z0.h[2]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z18.h, z10.h, z0.h[2]\n"
+ "fmla z16.h, z8.h, z0.h[2]\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
- "fmla z19.h, z11.h, z0.h[2]\n"
+ "fmla z17.h, z9.h, z0.h[2]\n"
"ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
+ "fmla z18.h, z10.h, z0.h[2]\n"
"ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "fmla z19.h, z11.h, z0.h[2]\n"
"ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z16.h, z12.h, z0.h[3]\n"
- "ld1h z8.h, p0/z, [%[b_ptr0]]\n"
+ "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z17.h, z13.h, z0.h[3]\n"
- "ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
+ "ld1h z8.h, p0/z, [%[b_ptr0]]\n"
"fmla z18.h, z14.h, z0.h[3]\n"
- "ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
"fmla z19.h, z15.h, z0.h[3]\n"
+ "ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "fmla z16.h, z8.h, z0.h[4]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z17.h, z9.h, z0.h[4]\n"
+ "fmla z16.h, z8.h, z0.h[4]\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
- "fmla z18.h, z10.h, z0.h[4]\n"
+ "fmla z17.h, z9.h, z0.h[4]\n"
"ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "fmla z19.h, z11.h, z0.h[4]\n"
+ "fmla z18.h, z10.h, z0.h[4]\n"
"ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "fmla z19.h, z11.h, z0.h[4]\n"
"ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z16.h, z12.h, z0.h[5]\n"
- "ld1h z8.h, p0/z, [%[b_ptr0]]\n"
+ "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z17.h, z13.h, z0.h[5]\n"
- "ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
+ "ld1h z8.h, p0/z, [%[b_ptr0]]\n"
"fmla z18.h, z14.h, z0.h[5]\n"
- "ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
"fmla z19.h, z15.h, z0.h[5]\n"
+ "ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "fmla z16.h, z8.h, z0.h[6]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z17.h, z9.h, z0.h[6]\n"
+ "fmla z16.h, z8.h, z0.h[6]\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
- "fmla z18.h, z10.h, z0.h[6]\n"
+ "fmla z17.h, z9.h, z0.h[6]\n"
"ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "fmla z19.h, z11.h, z0.h[6]\n"
+ "fmla z18.h, z10.h, z0.h[6]\n"
"ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "fmla z19.h, z11.h, z0.h[6]\n"
"ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z16.h, z12.h, z0.h[7]\n"
- "ld1h z8.h, p0/z, [%[b_ptr0]]\n"
+ "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z17.h, z13.h, z0.h[7]\n"
- "ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
+ "ld1h z8.h, p0/z, [%[b_ptr0]]\n"
"fmla z18.h, z14.h, z0.h[7]\n"
- "ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
"fmla z19.h, z15.h, z0.h[7]\n"
+ "ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
+ "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z16.h, z8.h, z4.h[0]\n"
"ld1rqh z0.h, p7/z, [%[a_ptr0], #-0x10]\n"
"fmla z17.h, z9.h, z4.h[0]\n"
- "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z18.h, z10.h, z4.h[0]\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
- "fmla z19.h, z11.h, z4.h[0]\n"
+ "fmla z18.h, z10.h, z4.h[0]\n"
"ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
+ "fmla z19.h, z11.h, z4.h[0]\n"
"ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
"ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
@@ -247,94 +249,95 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z18.h, z14.h, z4.h[7]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
"fmla z19.h, z15.h, z4.h[7]\n"
+ "b.ne 2b\n"
+ "1:\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "b.ne 3b\n"
- "2:\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
"ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
"ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "cbz %[regs], 4f\n"
- "fmla z16.h, z8.h, z0.h[0]\n"
"ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "fmla z17.h, z9.h, z0.h[0]\n"
+ "cbz %[regs], 3f\n"
+ "fmla z16.h, z8.h, z0.h[0]\n"
"ld1rqh z4.h, p7/z, [%[a_ptr0]]\n"
- "fmla z18.h, z10.h, z0.h[0]\n"
+ "fmla z17.h, z9.h, z0.h[0]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z19.h, z11.h, z0.h[0]\n"
+ "fmla z18.h, z10.h, z0.h[0]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
- "fmla z16.h, z12.h, z0.h[1]\n"
+ "fmla z19.h, z11.h, z0.h[0]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "fmla z17.h, z13.h, z0.h[1]\n"
+ "fmla z16.h, z12.h, z0.h[1]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "fmla z18.h, z14.h, z0.h[1]\n"
+ "fmla z17.h, z13.h, z0.h[1]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "fmla z19.h, z15.h, z0.h[1]\n"
+ "fmla z18.h, z14.h, z0.h[1]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z16.h, z8.h, z0.h[2]\n"
+ "fmla z19.h, z15.h, z0.h[1]\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
- "fmla z17.h, z9.h, z0.h[2]\n"
+ "fmla z16.h, z8.h, z0.h[2]\n"
"ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "fmla z18.h, z10.h, z0.h[2]\n"
+ "fmla z17.h, z9.h, z0.h[2]\n"
"ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "fmla z19.h, z11.h, z0.h[2]\n"
+ "fmla z18.h, z10.h, z0.h[2]\n"
"ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "fmla z16.h, z12.h, z0.h[3]\n"
+ "fmla z19.h, z11.h, z0.h[2]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z17.h, z13.h, z0.h[3]\n"
+ "fmla z16.h, z12.h, z0.h[3]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
- "fmla z18.h, z14.h, z0.h[3]\n"
+ "fmla z17.h, z13.h, z0.h[3]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "fmla z19.h, z15.h, z0.h[3]\n"
+ "fmla z18.h, z14.h, z0.h[3]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "fmla z19.h, z15.h, z0.h[3]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z16.h, z8.h, z0.h[4]\n"
- "ld1h z12.h, p0/z, [%[b_ptr0]]\n"
+ "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z17.h, z9.h, z0.h[4]\n"
- "ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
+ "ld1h z12.h, p0/z, [%[b_ptr0]]\n"
"fmla z18.h, z10.h, z0.h[4]\n"
- "ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
"fmla z19.h, z11.h, z0.h[4]\n"
+ "ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
"ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "fmla z16.h, z12.h, z0.h[5]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z17.h, z13.h, z0.h[5]\n"
+ "fmla z16.h, z12.h, z0.h[5]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
- "fmla z18.h, z14.h, z0.h[5]\n"
+ "fmla z17.h, z13.h, z0.h[5]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "fmla z19.h, z15.h, z0.h[5]\n"
+ "fmla z18.h, z14.h, z0.h[5]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "fmla z19.h, z15.h, z0.h[5]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z16.h, z8.h, z0.h[6]\n"
- "ld1h z12.h, p0/z, [%[b_ptr0]]\n"
+ "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z17.h, z9.h, z0.h[6]\n"
- "ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
+ "ld1h z12.h, p0/z, [%[b_ptr0]]\n"
"fmla z18.h, z10.h, z0.h[6]\n"
- "ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
"fmla z19.h, z11.h, z0.h[6]\n"
+ "ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
"ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "fmla z16.h, z12.h, z0.h[7]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z17.h, z13.h, z0.h[7]\n"
+ "fmla z16.h, z12.h, z0.h[7]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
- "fmla z18.h, z14.h, z0.h[7]\n"
+ "fmla z17.h, z13.h, z0.h[7]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "fmla z19.h, z15.h, z0.h[7]\n"
+ "fmla z18.h, z14.h, z0.h[7]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "fmla z19.h, z15.h, z0.h[7]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z16.h, z8.h, z4.h[0]\n"
- "ld1h z12.h, p0/z, [%[b_ptr0]]\n"
+ "ld1rqh z0.h, p6/z, [%[a_ptr0], #0x10]\n"
"fmla z17.h, z9.h, z4.h[0]\n"
- "ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
+ "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z18.h, z10.h, z4.h[0]\n"
- "ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "ld1h z12.h, p0/z, [%[b_ptr0]]\n"
"fmla z19.h, z11.h, z4.h[0]\n"
- "ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
+ "ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
+ "ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "addvl %[a_ptr0], %[a_ptr0], #2\n"
"fmla z16.h, z12.h, z4.h[1]\n"
- "ld1rqh z0.h, p6/z, [%[a_ptr0], #0x10]\n"
+ "ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
"fmla z17.h, z13.h, z4.h[1]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z18.h, z14.h, z4.h[1]\n"
@@ -392,7 +395,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z17.h, z13.h, z4.h[7]\n"
"fmla z18.h, z14.h, z4.h[7]\n"
"fmla z19.h, z15.h, z4.h[7]\n"
- "cbz %[blocks], 5f\n"
+ "cbz %[blocks], 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -403,7 +406,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z17.h, z9.h, z0.h[0]\n"
"fmla z18.h, z10.h, z0.h[0]\n"
"fmla z19.h, z11.h, z0.h[0]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -414,7 +417,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z17.h, z13.h, z0.h[1]\n"
"fmla z18.h, z14.h, z0.h[1]\n"
"fmla z19.h, z15.h, z0.h[1]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -425,7 +428,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z17.h, z9.h, z0.h[2]\n"
"fmla z18.h, z10.h, z0.h[2]\n"
"fmla z19.h, z11.h, z0.h[2]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -436,7 +439,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z17.h, z13.h, z0.h[3]\n"
"fmla z18.h, z14.h, z0.h[3]\n"
"fmla z19.h, z15.h, z0.h[3]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -447,7 +450,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z17.h, z9.h, z0.h[4]\n"
"fmla z18.h, z10.h, z0.h[4]\n"
"fmla z19.h, z11.h, z0.h[4]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -458,7 +461,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z17.h, z13.h, z0.h[5]\n"
"fmla z18.h, z14.h, z0.h[5]\n"
"fmla z19.h, z15.h, z0.h[5]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
@@ -468,73 +471,73 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z17.h, z9.h, z0.h[6]\n"
"fmla z18.h, z10.h, z0.h[6]\n"
"fmla z19.h, z11.h, z0.h[6]\n"
- "b 5f\n"
- "4:\n"
+ "b 4f\n"
+ "3:\n"
"fmla z16.h, z8.h, z0.h[0]\n"
- "ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "fmla z17.h, z9.h, z0.h[0]\n"
"ld1rqh z4.h, p6/z, [%[a_ptr0]]\n"
- "fmla z18.h, z10.h, z0.h[0]\n"
+ "fmla z17.h, z9.h, z0.h[0]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z19.h, z11.h, z0.h[0]\n"
+ "fmla z18.h, z10.h, z0.h[0]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
- "fmla z16.h, z12.h, z0.h[1]\n"
+ "fmla z19.h, z11.h, z0.h[0]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "fmla z17.h, z13.h, z0.h[1]\n"
+ "fmla z16.h, z12.h, z0.h[1]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "fmla z18.h, z14.h, z0.h[1]\n"
+ "fmla z17.h, z13.h, z0.h[1]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "fmla z19.h, z15.h, z0.h[1]\n"
+ "fmla z18.h, z14.h, z0.h[1]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z16.h, z8.h, z0.h[2]\n"
+ "fmla z19.h, z15.h, z0.h[1]\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
- "fmla z17.h, z9.h, z0.h[2]\n"
+ "fmla z16.h, z8.h, z0.h[2]\n"
"ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "fmla z18.h, z10.h, z0.h[2]\n"
+ "fmla z17.h, z9.h, z0.h[2]\n"
"ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "fmla z19.h, z11.h, z0.h[2]\n"
+ "fmla z18.h, z10.h, z0.h[2]\n"
"ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "fmla z16.h, z12.h, z0.h[3]\n"
+ "fmla z19.h, z11.h, z0.h[2]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z17.h, z13.h, z0.h[3]\n"
+ "fmla z16.h, z12.h, z0.h[3]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
- "fmla z18.h, z14.h, z0.h[3]\n"
+ "fmla z17.h, z13.h, z0.h[3]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "fmla z19.h, z15.h, z0.h[3]\n"
+ "fmla z18.h, z14.h, z0.h[3]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "fmla z19.h, z15.h, z0.h[3]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z16.h, z8.h, z0.h[4]\n"
- "ld1h z12.h, p0/z, [%[b_ptr0]]\n"
+ "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z17.h, z9.h, z0.h[4]\n"
- "ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
+ "ld1h z12.h, p0/z, [%[b_ptr0]]\n"
"fmla z18.h, z10.h, z0.h[4]\n"
- "ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
"fmla z19.h, z11.h, z0.h[4]\n"
+ "ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
"ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "fmla z16.h, z12.h, z0.h[5]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z17.h, z13.h, z0.h[5]\n"
+ "fmla z16.h, z12.h, z0.h[5]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
- "fmla z18.h, z14.h, z0.h[5]\n"
+ "fmla z17.h, z13.h, z0.h[5]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "fmla z19.h, z15.h, z0.h[5]\n"
+ "fmla z18.h, z14.h, z0.h[5]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "fmla z19.h, z15.h, z0.h[5]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z16.h, z8.h, z0.h[6]\n"
- "ld1h z12.h, p0/z, [%[b_ptr0]]\n"
+ "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z17.h, z9.h, z0.h[6]\n"
- "ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
+ "ld1h z12.h, p0/z, [%[b_ptr0]]\n"
"fmla z18.h, z10.h, z0.h[6]\n"
- "ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
"fmla z19.h, z11.h, z0.h[6]\n"
+ "ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
"ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
+ "addvl %[a_ptr0], %[a_ptr0], #1\n"
"fmla z16.h, z12.h, z0.h[7]\n"
"fmla z17.h, z13.h, z0.h[7]\n"
"fmla z18.h, z14.h, z0.h[7]\n"
"fmla z19.h, z15.h, z0.h[7]\n"
- "cbz %[blocks], 5f\n"
+ "cbz %[blocks], 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -545,7 +548,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z17.h, z9.h, z4.h[0]\n"
"fmla z18.h, z10.h, z4.h[0]\n"
"fmla z19.h, z11.h, z4.h[0]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -556,7 +559,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z17.h, z13.h, z4.h[1]\n"
"fmla z18.h, z14.h, z4.h[1]\n"
"fmla z19.h, z15.h, z4.h[1]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -567,7 +570,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z17.h, z9.h, z4.h[2]\n"
"fmla z18.h, z10.h, z4.h[2]\n"
"fmla z19.h, z11.h, z4.h[2]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -578,7 +581,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z17.h, z13.h, z4.h[3]\n"
"fmla z18.h, z14.h, z4.h[3]\n"
"fmla z19.h, z15.h, z4.h[3]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -589,7 +592,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z17.h, z9.h, z4.h[4]\n"
"fmla z18.h, z10.h, z4.h[4]\n"
"fmla z19.h, z11.h, z4.h[4]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -600,7 +603,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z17.h, z13.h, z4.h[5]\n"
"fmla z18.h, z14.h, z4.h[5]\n"
"fmla z19.h, z15.h, z4.h[5]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
@@ -610,14 +613,24 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z17.h, z9.h, z4.h[6]\n"
"fmla z18.h, z10.h, z4.h[6]\n"
"fmla z19.h, z11.h, z4.h[6]\n"
- "5:\n"
+ "4:\n"
+ "ld1rh z14.h, p7/z, [%[minptr]]\n"
+ "ld1rh z15.h, p7/z, [%[maxptr]]\n"
+ "fmax z16.h, p7/m, z16.h, z14.h\n"
+ "fmax z17.h, p7/m, z17.h, z14.h\n"
+ "fmax z18.h, p7/m, z18.h, z14.h\n"
+ "fmax z19.h, p7/m, z19.h, z14.h\n"
+ "fmin z16.h, p7/m, z16.h, z15.h\n"
+ "fmin z17.h, p7/m, z17.h, z15.h\n"
+ "fmin z18.h, p7/m, z18.h, z15.h\n"
+ "fmin z19.h, p7/m, z19.h, z15.h\n"
"st1h z16.h, p0, [%[c_ptr0]]\n"
"st1h z17.h, p1, [%[c_ptr0], #1, MUL VL]\n"
"st1h z18.h, p2, [%[c_ptr0], #2, MUL VL]\n"
"st1h z19.h, p3, [%[c_ptr0], #3, MUL VL]\n"
"addvl %[c_ptr0], %[c_ptr0], #4\n"
: [a_ptr0] "+r" (a_ptr0), [b_ptr0] "+r" (b_ptr0), [c_ptr0] "+r" (c_ptr0), [loops] "+r" (loops), [regs] "+r" (regs), [temp] "+r" (temp), [blocks] "+r" (blocks)
- : [betaptr] "r" (betaptr), [width] "r" (width), [beta0] "r" (beta0), [lda] "r" (ldab), [ldc] "r" (ldcb), [leftovers] "r" (leftovers), [ldb] "r" (ldbb)
+ : [width] "r" (width), [append] "r" (static_cast<uint64_t>(append)), [lda] "r" (ldab), [ldc] "r" (ldcb), [biasptr] "r" (biasptr), [minptr] "r" (minptr), [maxptr] "r" (maxptr), [leftovers] "r" (leftovers), [ldb] "r" (ldbb)
: "z0", "z1", "z2", "z3", "z4", "z5", "z6", "z7", "z8", "z9", "z10", "z11", "z12", "z13", "z14", "z15", "z16", "z17", "z18", "z19", "z20", "z21", "z22", "z23", "z24", "z25", "z26", "z27", "z28", "z29", "z30", "z31", "cc", "memory"
);
break;
@@ -631,66 +644,33 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"whilelt p0.h, %[temp], %[width]\n"
"inch %[temp], all, mul #1\n"
"ptrue p7.h\n"
+ "ld1h z16.h, p0/z, [%[biasptr]]\n"
"whilelt p1.h, %[temp], %[width]\n"
- "inch %[temp], all, mul #1\n"
- "whilelt p2.h, %[temp], %[width]\n"
- "inch %[temp], all, mul #1\n"
- "whilelt p3.h, %[temp], %[width]\n"
- "cbz %[beta0], 1f\n"
- "mov z16.h, #0\n"
"ld1rqh z0.h, p7/z, [%[a_ptr0]]\n"
- "mov z17.h, #0\n"
+ "inch %[temp], all, mul #1\n"
+ "mov z20.d, z16.d\n"
+ "ld1h z17.h, p1/z, [%[biasptr], #1, MUL VL]\n"
"ld1rqh z1.h, p7/z, [a_ptr1]\n"
- "mov z18.h, #0\n"
- "ld1h z8.h, p0/z, [%[b_ptr0]]\n"
- "mov z19.h, #0\n"
- "ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "mov z20.h, #0\n"
- "ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "mov z21.h, #0\n"
- "ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "mov z22.h, #0\n"
"add %[a_ptr0], %[a_ptr0], #0x10\n"
- "mov z23.h, #0\n"
- "add a_ptr1, a_ptr1, #0x10\n"
- "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "ld1h z12.h, p0/z, [%[b_ptr0]]\n"
- "ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "cbz %[loops], 2f\n"
- "b 3f\n"
- "1:\n"
- "ld1rh z15.h, p7/z, [%[betaptr]]\n"
- "ld1h z16.h, p0/z, [%[c_ptr0]]\n"
- "ld1h z17.h, p1/z, [%[c_ptr0], #1, MUL VL]\n"
- "ld1h z18.h, p2/z, [%[c_ptr0], #2, MUL VL]\n"
- "ld1h z19.h, p3/z, [%[c_ptr0], #3, MUL VL]\n"
- "fmul z16.h, p7/m, z16.h, z15.h\n"
- "ld1h z20.h, p0/z, [c_ptr1]\n"
- "fmul z17.h, p7/m, z17.h, z15.h\n"
- "ld1h z21.h, p1/z, [c_ptr1, #1, MUL VL]\n"
- "fmul z18.h, p7/m, z18.h, z15.h\n"
- "ld1h z22.h, p2/z, [c_ptr1, #2, MUL VL]\n"
- "fmul z19.h, p7/m, z19.h, z15.h\n"
- "ld1h z23.h, p3/z, [c_ptr1, #3, MUL VL]\n"
- "fmul z20.h, p7/m, z20.h, z15.h\n"
- "ld1rqh z0.h, p7/z, [%[a_ptr0]]\n"
- "fmul z21.h, p7/m, z21.h, z15.h\n"
- "ld1rqh z1.h, p7/z, [a_ptr1]\n"
- "fmul z22.h, p7/m, z22.h, z15.h\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
- "fmul z23.h, p7/m, z23.h, z15.h\n"
+ "whilelt p2.h, %[temp], %[width]\n"
+ "mov z21.d, z17.d\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
+ "inch %[temp], all, mul #1\n"
+ "add a_ptr1, a_ptr1, #0x10\n"
+ "ld1h z18.h, p2/z, [%[biasptr], #2, MUL VL]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "add %[a_ptr0], %[a_ptr0], #0x10\n"
+ "whilelt p3.h, %[temp], %[width]\n"
+ "mov z22.d, z18.d\n"
+ "ld1h z19.h, p3/z, [%[biasptr], #3, MUL VL]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "add a_ptr1, a_ptr1, #0x10\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
+ "mov z23.d, z19.d\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
"ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
"ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "cbz %[loops], 2f\n"
- "3:\n"
+ "cbz %[loops], 1f\n"
+ "2:\n"
"fmla z16.h, z8.h, z0.h[0]\n"
"ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
"fmla z20.h, z8.h, z1.h[0]\n"
@@ -906,23 +886,23 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
"fmla z19.h, z15.h, z4.h[7]\n"
"fmla z23.h, z15.h, z5.h[7]\n"
- "b.ne 3b\n"
- "2:\n"
- "cbz %[regs], 4f\n"
- "fmla z16.h, z8.h, z0.h[0]\n"
+ "b.ne 2b\n"
+ "1:\n"
"ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "fmla z20.h, z8.h, z1.h[0]\n"
+ "cbz %[regs], 3f\n"
+ "fmla z16.h, z8.h, z0.h[0]\n"
"ld1rqh z4.h, p7/z, [%[a_ptr0]]\n"
- "fmla z17.h, z9.h, z0.h[0]\n"
+ "fmla z20.h, z8.h, z1.h[0]\n"
"ld1rqh z5.h, p7/z, [a_ptr1]\n"
- "fmla z21.h, z9.h, z1.h[0]\n"
+ "fmla z17.h, z9.h, z0.h[0]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z18.h, z10.h, z0.h[0]\n"
+ "fmla z21.h, z9.h, z1.h[0]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
- "fmla z22.h, z10.h, z1.h[0]\n"
+ "fmla z18.h, z10.h, z0.h[0]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "fmla z19.h, z11.h, z0.h[0]\n"
+ "fmla z22.h, z10.h, z1.h[0]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "fmla z19.h, z11.h, z0.h[0]\n"
"fmla z23.h, z11.h, z1.h[0]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
"fmla z16.h, z12.h, z0.h[1]\n"
@@ -1026,9 +1006,11 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z21.h, z9.h, z5.h[0]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
"fmla z18.h, z10.h, z4.h[0]\n"
+ "addvl %[a_ptr0], %[a_ptr0], #2\n"
"fmla z22.h, z10.h, z5.h[0]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
"fmla z19.h, z11.h, z4.h[0]\n"
+ "addvl a_ptr1, a_ptr1, #2\n"
"fmla z23.h, z11.h, z5.h[0]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
"fmla z16.h, z12.h, z4.h[1]\n"
@@ -1112,7 +1094,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z22.h, z14.h, z5.h[7]\n"
"fmla z19.h, z15.h, z4.h[7]\n"
"fmla z23.h, z15.h, z5.h[7]\n"
- "cbz %[blocks], 5f\n"
+ "cbz %[blocks], 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -1127,7 +1109,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z22.h, z10.h, z1.h[0]\n"
"fmla z19.h, z11.h, z0.h[0]\n"
"fmla z23.h, z11.h, z1.h[0]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -1142,7 +1124,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z22.h, z14.h, z1.h[1]\n"
"fmla z19.h, z15.h, z0.h[1]\n"
"fmla z23.h, z15.h, z1.h[1]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -1157,7 +1139,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z22.h, z10.h, z1.h[2]\n"
"fmla z19.h, z11.h, z0.h[2]\n"
"fmla z23.h, z11.h, z1.h[2]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -1172,7 +1154,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z22.h, z14.h, z1.h[3]\n"
"fmla z19.h, z15.h, z0.h[3]\n"
"fmla z23.h, z15.h, z1.h[3]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -1187,7 +1169,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z22.h, z10.h, z1.h[4]\n"
"fmla z19.h, z11.h, z0.h[4]\n"
"fmla z23.h, z11.h, z1.h[4]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -1202,7 +1184,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z22.h, z14.h, z1.h[5]\n"
"fmla z19.h, z15.h, z0.h[5]\n"
"fmla z23.h, z15.h, z1.h[5]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
@@ -1216,22 +1198,22 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z22.h, z10.h, z1.h[6]\n"
"fmla z19.h, z11.h, z0.h[6]\n"
"fmla z23.h, z11.h, z1.h[6]\n"
- "b 5f\n"
- "4:\n"
+ "b 4f\n"
+ "3:\n"
"fmla z16.h, z8.h, z0.h[0]\n"
- "ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "fmla z20.h, z8.h, z1.h[0]\n"
"ld1rqh z4.h, p6/z, [%[a_ptr0]]\n"
- "fmla z17.h, z9.h, z0.h[0]\n"
+ "fmla z20.h, z8.h, z1.h[0]\n"
"ld1rqh z5.h, p6/z, [a_ptr1]\n"
- "fmla z21.h, z9.h, z1.h[0]\n"
+ "fmla z17.h, z9.h, z0.h[0]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z18.h, z10.h, z0.h[0]\n"
+ "fmla z21.h, z9.h, z1.h[0]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
- "fmla z22.h, z10.h, z1.h[0]\n"
+ "fmla z18.h, z10.h, z0.h[0]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "fmla z19.h, z11.h, z0.h[0]\n"
+ "fmla z22.h, z10.h, z1.h[0]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "fmla z19.h, z11.h, z0.h[0]\n"
+ "addvl %[a_ptr0], %[a_ptr0], #1\n"
"fmla z23.h, z11.h, z1.h[0]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
"fmla z16.h, z12.h, z0.h[1]\n"
@@ -1239,6 +1221,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z20.h, z12.h, z1.h[1]\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
"fmla z17.h, z13.h, z0.h[1]\n"
+ "addvl a_ptr1, a_ptr1, #1\n"
"fmla z21.h, z13.h, z1.h[1]\n"
"ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
"fmla z18.h, z14.h, z0.h[1]\n"
@@ -1315,7 +1298,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z22.h, z14.h, z1.h[7]\n"
"fmla z19.h, z15.h, z0.h[7]\n"
"fmla z23.h, z15.h, z1.h[7]\n"
- "cbz %[blocks], 5f\n"
+ "cbz %[blocks], 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -1330,7 +1313,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z22.h, z10.h, z5.h[0]\n"
"fmla z19.h, z11.h, z4.h[0]\n"
"fmla z23.h, z11.h, z5.h[0]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -1345,7 +1328,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z22.h, z14.h, z5.h[1]\n"
"fmla z19.h, z15.h, z4.h[1]\n"
"fmla z23.h, z15.h, z5.h[1]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -1360,7 +1343,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z22.h, z10.h, z5.h[2]\n"
"fmla z19.h, z11.h, z4.h[2]\n"
"fmla z23.h, z11.h, z5.h[2]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -1375,7 +1358,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z22.h, z14.h, z5.h[3]\n"
"fmla z19.h, z15.h, z4.h[3]\n"
"fmla z23.h, z15.h, z5.h[3]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -1390,7 +1373,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z22.h, z10.h, z5.h[4]\n"
"fmla z19.h, z11.h, z4.h[4]\n"
"fmla z23.h, z11.h, z5.h[4]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -1405,7 +1388,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z22.h, z14.h, z5.h[5]\n"
"fmla z19.h, z15.h, z4.h[5]\n"
"fmla z23.h, z15.h, z5.h[5]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
@@ -1419,10 +1402,28 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z22.h, z10.h, z5.h[6]\n"
"fmla z19.h, z11.h, z4.h[6]\n"
"fmla z23.h, z11.h, z5.h[6]\n"
- "5:\n"
+ "4:\n"
+ "ld1rh z14.h, p7/z, [%[minptr]]\n"
+ "ld1rh z15.h, p7/z, [%[maxptr]]\n"
+ "fmax z16.h, p7/m, z16.h, z14.h\n"
+ "fmax z17.h, p7/m, z17.h, z14.h\n"
+ "fmax z18.h, p7/m, z18.h, z14.h\n"
+ "fmax z19.h, p7/m, z19.h, z14.h\n"
+ "fmin z16.h, p7/m, z16.h, z15.h\n"
+ "fmin z17.h, p7/m, z17.h, z15.h\n"
+ "fmin z18.h, p7/m, z18.h, z15.h\n"
+ "fmin z19.h, p7/m, z19.h, z15.h\n"
"st1h z16.h, p0, [%[c_ptr0]]\n"
+ "fmax z20.h, p7/m, z20.h, z14.h\n"
+ "fmax z21.h, p7/m, z21.h, z14.h\n"
+ "fmax z22.h, p7/m, z22.h, z14.h\n"
"st1h z17.h, p1, [%[c_ptr0], #1, MUL VL]\n"
+ "fmax z23.h, p7/m, z23.h, z14.h\n"
+ "fmin z20.h, p7/m, z20.h, z15.h\n"
+ "fmin z21.h, p7/m, z21.h, z15.h\n"
"st1h z18.h, p2, [%[c_ptr0], #2, MUL VL]\n"
+ "fmin z22.h, p7/m, z22.h, z15.h\n"
+ "fmin z23.h, p7/m, z23.h, z15.h\n"
"st1h z19.h, p3, [%[c_ptr0], #3, MUL VL]\n"
"addvl %[c_ptr0], %[c_ptr0], #4\n"
"st1h z20.h, p0, [c_ptr1]\n"
@@ -1432,7 +1433,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
".unreq a_ptr1\n"
".unreq c_ptr1\n"
: [a_ptr0] "+r" (a_ptr0), [b_ptr0] "+r" (b_ptr0), [c_ptr0] "+r" (c_ptr0), [loops] "+r" (loops), [regs] "+r" (regs), [temp] "+r" (temp), [blocks] "+r" (blocks)
- : [betaptr] "r" (betaptr), [width] "r" (width), [beta0] "r" (beta0), [lda] "r" (ldab), [ldc] "r" (ldcb), [leftovers] "r" (leftovers), [ldb] "r" (ldbb)
+ : [width] "r" (width), [append] "r" (static_cast<uint64_t>(append)), [lda] "r" (ldab), [ldc] "r" (ldcb), [biasptr] "r" (biasptr), [minptr] "r" (minptr), [maxptr] "r" (maxptr), [leftovers] "r" (leftovers), [ldb] "r" (ldbb)
: "z0", "z1", "z2", "z3", "z4", "z5", "z6", "z7", "z8", "z9", "z10", "z11", "z12", "z13", "z14", "z15", "z16", "z17", "z18", "z19", "z20", "z21", "z22", "z23", "z24", "z25", "z26", "z27", "z28", "z29", "z30", "z31", "x0", "x1", "cc", "memory"
);
break;
@@ -1450,82 +1451,39 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"whilelt p0.h, %[temp], %[width]\n"
"inch %[temp], all, mul #1\n"
"ptrue p7.h\n"
+ "ld1h z16.h, p0/z, [%[biasptr]]\n"
"whilelt p1.h, %[temp], %[width]\n"
- "inch %[temp], all, mul #1\n"
- "whilelt p2.h, %[temp], %[width]\n"
- "inch %[temp], all, mul #1\n"
- "whilelt p3.h, %[temp], %[width]\n"
- "cbz %[beta0], 1f\n"
- "mov z16.h, #0\n"
"ld1rqh z0.h, p7/z, [%[a_ptr0]]\n"
- "mov z17.h, #0\n"
- "ld1rqh z1.h, p7/z, [a_ptr1]\n"
- "mov z18.h, #0\n"
- "ld1rqh z2.h, p7/z, [a_ptr2]\n"
- "mov z19.h, #0\n"
- "ld1h z8.h, p0/z, [%[b_ptr0]]\n"
- "mov z20.h, #0\n"
- "ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "mov z21.h, #0\n"
- "ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "mov z22.h, #0\n"
- "ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "mov z23.h, #0\n"
- "add %[a_ptr0], %[a_ptr0], #0x10\n"
- "mov z24.h, #0\n"
- "add a_ptr1, a_ptr1, #0x10\n"
- "mov z25.h, #0\n"
- "add a_ptr2, a_ptr2, #0x10\n"
- "mov z26.h, #0\n"
- "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "mov z27.h, #0\n"
- "ld1h z12.h, p0/z, [%[b_ptr0]]\n"
- "ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "cbz %[loops], 2f\n"
- "b 3f\n"
- "1:\n"
- "ld1rh z15.h, p7/z, [%[betaptr]]\n"
- "ld1h z16.h, p0/z, [%[c_ptr0]]\n"
- "ld1h z17.h, p1/z, [%[c_ptr0], #1, MUL VL]\n"
- "ld1h z18.h, p2/z, [%[c_ptr0], #2, MUL VL]\n"
- "ld1h z19.h, p3/z, [%[c_ptr0], #3, MUL VL]\n"
- "fmul z16.h, p7/m, z16.h, z15.h\n"
- "ld1h z20.h, p0/z, [c_ptr1]\n"
- "fmul z17.h, p7/m, z17.h, z15.h\n"
- "ld1h z21.h, p1/z, [c_ptr1, #1, MUL VL]\n"
- "fmul z18.h, p7/m, z18.h, z15.h\n"
- "ld1h z22.h, p2/z, [c_ptr1, #2, MUL VL]\n"
- "fmul z19.h, p7/m, z19.h, z15.h\n"
- "ld1h z23.h, p3/z, [c_ptr1, #3, MUL VL]\n"
- "fmul z20.h, p7/m, z20.h, z15.h\n"
- "ld1h z24.h, p0/z, [c_ptr2]\n"
- "fmul z21.h, p7/m, z21.h, z15.h\n"
- "ld1h z25.h, p1/z, [c_ptr2, #1, MUL VL]\n"
- "fmul z22.h, p7/m, z22.h, z15.h\n"
- "ld1h z26.h, p2/z, [c_ptr2, #2, MUL VL]\n"
- "fmul z23.h, p7/m, z23.h, z15.h\n"
- "ld1h z27.h, p3/z, [c_ptr2, #3, MUL VL]\n"
- "fmul z24.h, p7/m, z24.h, z15.h\n"
- "ld1rqh z0.h, p7/z, [%[a_ptr0]]\n"
- "fmul z25.h, p7/m, z25.h, z15.h\n"
+ "inch %[temp], all, mul #1\n"
+ "mov z20.d, z16.d\n"
+ "ld1h z17.h, p1/z, [%[biasptr], #1, MUL VL]\n"
+ "mov z24.d, z16.d\n"
"ld1rqh z1.h, p7/z, [a_ptr1]\n"
- "fmul z26.h, p7/m, z26.h, z15.h\n"
"ld1rqh z2.h, p7/z, [a_ptr2]\n"
- "fmul z27.h, p7/m, z27.h, z15.h\n"
+ "whilelt p2.h, %[temp], %[width]\n"
+ "mov z21.d, z17.d\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
+ "mov z25.d, z17.d\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
+ "inch %[temp], all, mul #1\n"
+ "ld1h z18.h, p2/z, [%[biasptr], #2, MUL VL]\n"
"add %[a_ptr0], %[a_ptr0], #0x10\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
+ "whilelt p3.h, %[temp], %[width]\n"
+ "mov z22.d, z18.d\n"
"add a_ptr1, a_ptr1, #0x10\n"
+ "mov z26.d, z18.d\n"
+ "ld1h z19.h, p3/z, [%[biasptr], #3, MUL VL]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
"add a_ptr2, a_ptr2, #0x10\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
+ "mov z23.d, z19.d\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
+ "mov z27.d, z19.d\n"
"ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
"ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "cbz %[loops], 2f\n"
- "3:\n"
+ "cbz %[loops], 1f\n"
+ "2:\n"
"fmla z16.h, z8.h, z0.h[0]\n"
"ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
"fmla z20.h, z8.h, z1.h[0]\n"
@@ -1551,9 +1509,9 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z27.h, z11.h, z2.h[0]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
"fmla z16.h, z12.h, z0.h[1]\n"
- "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z20.h, z12.h, z1.h[1]\n"
"add a_ptr2, a_ptr2, #0x20\n"
+ "fmla z20.h, z12.h, z1.h[1]\n"
+ "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z24.h, z12.h, z2.h[1]\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
"fmla z17.h, z13.h, z0.h[1]\n"
@@ -1808,23 +1766,23 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z19.h, z15.h, z4.h[7]\n"
"fmla z23.h, z15.h, z5.h[7]\n"
"fmla z27.h, z15.h, z6.h[7]\n"
- "b.ne 3b\n"
- "2:\n"
- "cbz %[regs], 4f\n"
- "fmla z16.h, z8.h, z0.h[0]\n"
+ "b.ne 2b\n"
+ "1:\n"
"ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "fmla z20.h, z8.h, z1.h[0]\n"
+ "cbz %[regs], 3f\n"
+ "fmla z16.h, z8.h, z0.h[0]\n"
"ld1rqh z4.h, p7/z, [%[a_ptr0]]\n"
- "fmla z24.h, z8.h, z2.h[0]\n"
+ "fmla z20.h, z8.h, z1.h[0]\n"
"ld1rqh z5.h, p7/z, [a_ptr1]\n"
- "fmla z17.h, z9.h, z0.h[0]\n"
+ "fmla z24.h, z8.h, z2.h[0]\n"
"ld1rqh z6.h, p7/z, [a_ptr2]\n"
- "fmla z21.h, z9.h, z1.h[0]\n"
+ "fmla z17.h, z9.h, z0.h[0]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z25.h, z9.h, z2.h[0]\n"
+ "fmla z21.h, z9.h, z1.h[0]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
- "fmla z18.h, z10.h, z0.h[0]\n"
+ "fmla z25.h, z9.h, z2.h[0]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
+ "fmla z18.h, z10.h, z0.h[0]\n"
"fmla z22.h, z10.h, z1.h[0]\n"
"fmla z26.h, z10.h, z2.h[0]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
@@ -1960,10 +1918,13 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z24.h, z8.h, z6.h[0]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
"fmla z17.h, z9.h, z4.h[0]\n"
+ "addvl %[a_ptr0], %[a_ptr0], #2\n"
"fmla z21.h, z9.h, z5.h[0]\n"
+ "addvl a_ptr1, a_ptr1, #2\n"
"fmla z25.h, z9.h, z6.h[0]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
"fmla z18.h, z10.h, z4.h[0]\n"
+ "addvl a_ptr2, a_ptr2, #2\n"
"fmla z22.h, z10.h, z5.h[0]\n"
"fmla z26.h, z10.h, z6.h[0]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
@@ -2080,7 +2041,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z19.h, z15.h, z4.h[7]\n"
"fmla z23.h, z15.h, z5.h[7]\n"
"fmla z27.h, z15.h, z6.h[7]\n"
- "cbz %[blocks], 5f\n"
+ "cbz %[blocks], 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -2099,7 +2060,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z19.h, z11.h, z0.h[0]\n"
"fmla z23.h, z11.h, z1.h[0]\n"
"fmla z27.h, z11.h, z2.h[0]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -2118,7 +2079,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z19.h, z15.h, z0.h[1]\n"
"fmla z23.h, z15.h, z1.h[1]\n"
"fmla z27.h, z15.h, z2.h[1]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -2137,7 +2098,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z19.h, z11.h, z0.h[2]\n"
"fmla z23.h, z11.h, z1.h[2]\n"
"fmla z27.h, z11.h, z2.h[2]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -2156,7 +2117,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z19.h, z15.h, z0.h[3]\n"
"fmla z23.h, z15.h, z1.h[3]\n"
"fmla z27.h, z15.h, z2.h[3]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -2175,7 +2136,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z19.h, z11.h, z0.h[4]\n"
"fmla z23.h, z11.h, z1.h[4]\n"
"fmla z27.h, z11.h, z2.h[4]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -2194,7 +2155,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z19.h, z15.h, z0.h[5]\n"
"fmla z23.h, z15.h, z1.h[5]\n"
"fmla z27.h, z15.h, z2.h[5]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
@@ -2212,26 +2173,28 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z19.h, z11.h, z0.h[6]\n"
"fmla z23.h, z11.h, z1.h[6]\n"
"fmla z27.h, z11.h, z2.h[6]\n"
- "b 5f\n"
- "4:\n"
+ "b 4f\n"
+ "3:\n"
"fmla z16.h, z8.h, z0.h[0]\n"
- "ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "fmla z20.h, z8.h, z1.h[0]\n"
"ld1rqh z4.h, p6/z, [%[a_ptr0]]\n"
- "fmla z24.h, z8.h, z2.h[0]\n"
+ "fmla z20.h, z8.h, z1.h[0]\n"
"ld1rqh z5.h, p6/z, [a_ptr1]\n"
- "fmla z17.h, z9.h, z0.h[0]\n"
+ "fmla z24.h, z8.h, z2.h[0]\n"
"ld1rqh z6.h, p6/z, [a_ptr2]\n"
- "fmla z21.h, z9.h, z1.h[0]\n"
+ "fmla z17.h, z9.h, z0.h[0]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z25.h, z9.h, z2.h[0]\n"
+ "fmla z21.h, z9.h, z1.h[0]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
- "fmla z18.h, z10.h, z0.h[0]\n"
+ "fmla z25.h, z9.h, z2.h[0]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
+ "fmla z18.h, z10.h, z0.h[0]\n"
+ "addvl %[a_ptr0], %[a_ptr0], #1\n"
"fmla z22.h, z10.h, z1.h[0]\n"
+ "addvl a_ptr1, a_ptr1, #1\n"
"fmla z26.h, z10.h, z2.h[0]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
"fmla z19.h, z11.h, z0.h[0]\n"
+ "addvl a_ptr2, a_ptr2, #1\n"
"fmla z23.h, z11.h, z1.h[0]\n"
"fmla z27.h, z11.h, z2.h[0]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
@@ -2344,7 +2307,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z19.h, z15.h, z0.h[7]\n"
"fmla z23.h, z15.h, z1.h[7]\n"
"fmla z27.h, z15.h, z2.h[7]\n"
- "cbz %[blocks], 5f\n"
+ "cbz %[blocks], 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -2363,7 +2326,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z19.h, z11.h, z4.h[0]\n"
"fmla z23.h, z11.h, z5.h[0]\n"
"fmla z27.h, z11.h, z6.h[0]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -2382,7 +2345,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z19.h, z15.h, z4.h[1]\n"
"fmla z23.h, z15.h, z5.h[1]\n"
"fmla z27.h, z15.h, z6.h[1]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -2401,7 +2364,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z19.h, z11.h, z4.h[2]\n"
"fmla z23.h, z11.h, z5.h[2]\n"
"fmla z27.h, z11.h, z6.h[2]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -2420,7 +2383,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z19.h, z15.h, z4.h[3]\n"
"fmla z23.h, z15.h, z5.h[3]\n"
"fmla z27.h, z15.h, z6.h[3]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -2439,7 +2402,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z19.h, z11.h, z4.h[4]\n"
"fmla z23.h, z11.h, z5.h[4]\n"
"fmla z27.h, z11.h, z6.h[4]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -2458,7 +2421,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z19.h, z15.h, z4.h[5]\n"
"fmla z23.h, z15.h, z5.h[5]\n"
"fmla z27.h, z15.h, z6.h[5]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
@@ -2476,14 +2439,40 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z19.h, z11.h, z4.h[6]\n"
"fmla z23.h, z11.h, z5.h[6]\n"
"fmla z27.h, z11.h, z6.h[6]\n"
- "5:\n"
+ "4:\n"
+ "ld1rh z14.h, p7/z, [%[minptr]]\n"
+ "ld1rh z15.h, p7/z, [%[maxptr]]\n"
+ "fmax z16.h, p7/m, z16.h, z14.h\n"
+ "fmax z17.h, p7/m, z17.h, z14.h\n"
+ "fmax z18.h, p7/m, z18.h, z14.h\n"
+ "fmax z19.h, p7/m, z19.h, z14.h\n"
+ "fmin z16.h, p7/m, z16.h, z15.h\n"
+ "fmin z17.h, p7/m, z17.h, z15.h\n"
+ "fmin z18.h, p7/m, z18.h, z15.h\n"
+ "fmin z19.h, p7/m, z19.h, z15.h\n"
"st1h z16.h, p0, [%[c_ptr0]]\n"
+ "fmax z20.h, p7/m, z20.h, z14.h\n"
+ "fmax z21.h, p7/m, z21.h, z14.h\n"
+ "fmax z22.h, p7/m, z22.h, z14.h\n"
"st1h z17.h, p1, [%[c_ptr0], #1, MUL VL]\n"
+ "fmax z23.h, p7/m, z23.h, z14.h\n"
+ "fmin z20.h, p7/m, z20.h, z15.h\n"
+ "fmin z21.h, p7/m, z21.h, z15.h\n"
"st1h z18.h, p2, [%[c_ptr0], #2, MUL VL]\n"
+ "fmin z22.h, p7/m, z22.h, z15.h\n"
+ "fmin z23.h, p7/m, z23.h, z15.h\n"
+ "fmax z24.h, p7/m, z24.h, z14.h\n"
"st1h z19.h, p3, [%[c_ptr0], #3, MUL VL]\n"
+ "fmax z25.h, p7/m, z25.h, z14.h\n"
"addvl %[c_ptr0], %[c_ptr0], #4\n"
+ "fmax z26.h, p7/m, z26.h, z14.h\n"
"st1h z20.h, p0, [c_ptr1]\n"
+ "fmin z24.h, p7/m, z24.h, z15.h\n"
+ "fmin z25.h, p7/m, z25.h, z15.h\n"
+ "fmax z27.h, p7/m, z27.h, z14.h\n"
"st1h z21.h, p1, [c_ptr1, #1, MUL VL]\n"
+ "fmin z26.h, p7/m, z26.h, z15.h\n"
+ "fmin z27.h, p7/m, z27.h, z15.h\n"
"st1h z22.h, p2, [c_ptr1, #2, MUL VL]\n"
"st1h z23.h, p3, [c_ptr1, #3, MUL VL]\n"
"st1h z24.h, p0, [c_ptr2]\n"
@@ -2495,7 +2484,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
".unreq c_ptr1\n"
".unreq c_ptr2\n"
: [a_ptr0] "+r" (a_ptr0), [b_ptr0] "+r" (b_ptr0), [c_ptr0] "+r" (c_ptr0), [loops] "+r" (loops), [regs] "+r" (regs), [temp] "+r" (temp), [blocks] "+r" (blocks)
- : [betaptr] "r" (betaptr), [width] "r" (width), [beta0] "r" (beta0), [lda] "r" (ldab), [ldc] "r" (ldcb), [leftovers] "r" (leftovers), [ldb] "r" (ldbb)
+ : [width] "r" (width), [append] "r" (static_cast<uint64_t>(append)), [lda] "r" (ldab), [ldc] "r" (ldcb), [biasptr] "r" (biasptr), [minptr] "r" (minptr), [maxptr] "r" (maxptr), [leftovers] "r" (leftovers), [ldb] "r" (ldbb)
: "z0", "z1", "z2", "z3", "z4", "z5", "z6", "z7", "z8", "z9", "z10", "z11", "z12", "z13", "z14", "z15", "z16", "z17", "z18", "z19", "z20", "z21", "z22", "z23", "z24", "z25", "z26", "z27", "z28", "z29", "z30", "z31", "x0", "x1", "x2", "x3", "cc", "memory"
);
break;
@@ -2518,98 +2507,45 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"whilelt p0.h, %[temp], %[width]\n"
"inch %[temp], all, mul #1\n"
"ptrue p7.h\n"
+ "ld1h z16.h, p0/z, [%[biasptr]]\n"
"whilelt p1.h, %[temp], %[width]\n"
- "inch %[temp], all, mul #1\n"
- "whilelt p2.h, %[temp], %[width]\n"
- "inch %[temp], all, mul #1\n"
- "whilelt p3.h, %[temp], %[width]\n"
- "cbz %[beta0], 1f\n"
- "mov z16.h, #0\n"
"ld1rqh z0.h, p7/z, [%[a_ptr0]]\n"
- "mov z17.h, #0\n"
+ "inch %[temp], all, mul #1\n"
+ "mov z20.d, z16.d\n"
+ "ld1h z17.h, p1/z, [%[biasptr], #1, MUL VL]\n"
+ "mov z24.d, z16.d\n"
"ld1rqh z1.h, p7/z, [a_ptr1]\n"
- "mov z18.h, #0\n"
+ "mov z28.d, z16.d\n"
"ld1rqh z2.h, p7/z, [a_ptr2]\n"
- "mov z19.h, #0\n"
"ld1rqh z3.h, p7/z, [a_ptr3]\n"
- "mov z20.h, #0\n"
+ "whilelt p2.h, %[temp], %[width]\n"
+ "mov z21.d, z17.d\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
- "mov z21.h, #0\n"
+ "mov z25.d, z17.d\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "mov z22.h, #0\n"
+ "mov z29.d, z17.d\n"
+ "ld1h z18.h, p2/z, [%[biasptr], #2, MUL VL]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "mov z23.h, #0\n"
- "ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "mov z24.h, #0\n"
+ "inch %[temp], all, mul #1\n"
"add %[a_ptr0], %[a_ptr0], #0x10\n"
- "mov z25.h, #0\n"
+ "mov z22.d, z18.d\n"
"add a_ptr1, a_ptr1, #0x10\n"
- "mov z26.h, #0\n"
+ "mov z26.d, z18.d\n"
+ "whilelt p3.h, %[temp], %[width]\n"
+ "mov z30.d, z18.d\n"
"add a_ptr2, a_ptr2, #0x10\n"
- "mov z27.h, #0\n"
"add a_ptr3, a_ptr3, #0x10\n"
- "mov z28.h, #0\n"
- "add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "mov z29.h, #0\n"
- "ld1h z12.h, p0/z, [%[b_ptr0]]\n"
- "mov z30.h, #0\n"
- "ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "mov z31.h, #0\n"
- "ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "cbz %[loops], 2f\n"
- "b 3f\n"
- "1:\n"
- "ld1rh z15.h, p7/z, [%[betaptr]]\n"
- "ld1h z16.h, p0/z, [%[c_ptr0]]\n"
- "ld1h z17.h, p1/z, [%[c_ptr0], #1, MUL VL]\n"
- "ld1h z18.h, p2/z, [%[c_ptr0], #2, MUL VL]\n"
- "ld1h z19.h, p3/z, [%[c_ptr0], #3, MUL VL]\n"
- "fmul z16.h, p7/m, z16.h, z15.h\n"
- "ld1h z20.h, p0/z, [c_ptr1]\n"
- "fmul z17.h, p7/m, z17.h, z15.h\n"
- "ld1h z21.h, p1/z, [c_ptr1, #1, MUL VL]\n"
- "fmul z18.h, p7/m, z18.h, z15.h\n"
- "ld1h z22.h, p2/z, [c_ptr1, #2, MUL VL]\n"
- "fmul z19.h, p7/m, z19.h, z15.h\n"
- "ld1h z23.h, p3/z, [c_ptr1, #3, MUL VL]\n"
- "fmul z20.h, p7/m, z20.h, z15.h\n"
- "ld1h z24.h, p0/z, [c_ptr2]\n"
- "fmul z21.h, p7/m, z21.h, z15.h\n"
- "ld1h z25.h, p1/z, [c_ptr2, #1, MUL VL]\n"
- "fmul z22.h, p7/m, z22.h, z15.h\n"
- "ld1h z26.h, p2/z, [c_ptr2, #2, MUL VL]\n"
- "fmul z23.h, p7/m, z23.h, z15.h\n"
- "ld1h z27.h, p3/z, [c_ptr2, #3, MUL VL]\n"
- "fmul z24.h, p7/m, z24.h, z15.h\n"
- "ld1h z28.h, p0/z, [c_ptr3]\n"
- "fmul z25.h, p7/m, z25.h, z15.h\n"
- "ld1h z29.h, p1/z, [c_ptr3, #1, MUL VL]\n"
- "fmul z26.h, p7/m, z26.h, z15.h\n"
- "ld1h z30.h, p2/z, [c_ptr3, #2, MUL VL]\n"
- "fmul z27.h, p7/m, z27.h, z15.h\n"
- "ld1h z31.h, p3/z, [c_ptr3, #3, MUL VL]\n"
- "fmul z28.h, p7/m, z28.h, z15.h\n"
- "ld1rqh z0.h, p7/z, [%[a_ptr0]]\n"
- "fmul z29.h, p7/m, z29.h, z15.h\n"
- "ld1rqh z1.h, p7/z, [a_ptr1]\n"
- "fmul z30.h, p7/m, z30.h, z15.h\n"
- "ld1rqh z2.h, p7/z, [a_ptr2]\n"
- "fmul z31.h, p7/m, z31.h, z15.h\n"
- "ld1rqh z3.h, p7/z, [a_ptr3]\n"
- "ld1h z8.h, p0/z, [%[b_ptr0]]\n"
- "add %[a_ptr0], %[a_ptr0], #0x10\n"
- "ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
- "add a_ptr1, a_ptr1, #0x10\n"
- "ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "add a_ptr2, a_ptr2, #0x10\n"
+ "ld1h z19.h, p3/z, [%[biasptr], #3, MUL VL]\n"
"ld1h z11.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "add a_ptr3, a_ptr3, #0x10\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
+ "mov z23.d, z19.d\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
+ "mov z27.d, z19.d\n"
"ld1h z13.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
+ "mov z31.d, z19.d\n"
"ld1h z14.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
- "cbz %[loops], 2f\n"
- "3:\n"
+ "cbz %[loops], 1f\n"
+ "2:\n"
"fmla z16.h, z8.h, z0.h[0]\n"
"ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
"fmla z20.h, z8.h, z1.h[0]\n"
@@ -2959,23 +2895,23 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z23.h, z15.h, z5.h[7]\n"
"fmla z27.h, z15.h, z6.h[7]\n"
"fmla z31.h, z15.h, z7.h[7]\n"
- "b.ne 3b\n"
- "2:\n"
- "cbz %[regs], 4f\n"
- "fmla z16.h, z8.h, z0.h[0]\n"
+ "b.ne 2b\n"
+ "1:\n"
"ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "fmla z20.h, z8.h, z1.h[0]\n"
+ "cbz %[regs], 3f\n"
+ "fmla z16.h, z8.h, z0.h[0]\n"
"ld1rqh z4.h, p7/z, [%[a_ptr0]]\n"
- "fmla z24.h, z8.h, z2.h[0]\n"
+ "fmla z20.h, z8.h, z1.h[0]\n"
"ld1rqh z5.h, p7/z, [a_ptr1]\n"
- "fmla z28.h, z8.h, z3.h[0]\n"
+ "fmla z24.h, z8.h, z2.h[0]\n"
"ld1rqh z6.h, p7/z, [a_ptr2]\n"
- "fmla z17.h, z9.h, z0.h[0]\n"
+ "fmla z28.h, z8.h, z3.h[0]\n"
"ld1rqh z7.h, p7/z, [a_ptr3]\n"
- "fmla z21.h, z9.h, z1.h[0]\n"
+ "fmla z17.h, z9.h, z0.h[0]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z25.h, z9.h, z2.h[0]\n"
+ "fmla z21.h, z9.h, z1.h[0]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
+ "fmla z25.h, z9.h, z2.h[0]\n"
"fmla z29.h, z9.h, z3.h[0]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
"fmla z18.h, z10.h, z0.h[0]\n"
@@ -3143,11 +3079,15 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z20.h, z8.h, z5.h[0]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"fmla z24.h, z8.h, z6.h[0]\n"
+ "addvl %[a_ptr0], %[a_ptr0], #2\n"
"fmla z28.h, z8.h, z7.h[0]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
"fmla z17.h, z9.h, z4.h[0]\n"
+ "addvl a_ptr1, a_ptr1, #2\n"
"fmla z21.h, z9.h, z5.h[0]\n"
+ "addvl a_ptr2, a_ptr2, #2\n"
"fmla z25.h, z9.h, z6.h[0]\n"
+ "addvl a_ptr3, a_ptr3, #2\n"
"fmla z29.h, z9.h, z7.h[0]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
"fmla z18.h, z10.h, z4.h[0]\n"
@@ -3297,7 +3237,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z23.h, z15.h, z5.h[7]\n"
"fmla z27.h, z15.h, z6.h[7]\n"
"fmla z31.h, z15.h, z7.h[7]\n"
- "cbz %[blocks], 5f\n"
+ "cbz %[blocks], 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -3320,7 +3260,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z23.h, z11.h, z1.h[0]\n"
"fmla z27.h, z11.h, z2.h[0]\n"
"fmla z31.h, z11.h, z3.h[0]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -3343,7 +3283,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z23.h, z15.h, z1.h[1]\n"
"fmla z27.h, z15.h, z2.h[1]\n"
"fmla z31.h, z15.h, z3.h[1]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -3366,7 +3306,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z23.h, z11.h, z1.h[2]\n"
"fmla z27.h, z11.h, z2.h[2]\n"
"fmla z31.h, z11.h, z3.h[2]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -3389,7 +3329,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z23.h, z15.h, z1.h[3]\n"
"fmla z27.h, z15.h, z2.h[3]\n"
"fmla z31.h, z15.h, z3.h[3]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -3412,7 +3352,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z23.h, z11.h, z1.h[4]\n"
"fmla z27.h, z11.h, z2.h[4]\n"
"fmla z31.h, z11.h, z3.h[4]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -3435,7 +3375,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z23.h, z15.h, z1.h[5]\n"
"fmla z27.h, z15.h, z2.h[5]\n"
"fmla z31.h, z15.h, z3.h[5]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
@@ -3457,27 +3397,30 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z23.h, z11.h, z1.h[6]\n"
"fmla z27.h, z11.h, z2.h[6]\n"
"fmla z31.h, z11.h, z3.h[6]\n"
- "b 5f\n"
- "4:\n"
+ "b 4f\n"
+ "3:\n"
"fmla z16.h, z8.h, z0.h[0]\n"
- "ld1h z15.h, p3/z, [%[b_ptr0], #3, MUL VL]\n"
- "fmla z20.h, z8.h, z1.h[0]\n"
"ld1rqh z4.h, p6/z, [%[a_ptr0]]\n"
- "fmla z24.h, z8.h, z2.h[0]\n"
+ "fmla z20.h, z8.h, z1.h[0]\n"
"ld1rqh z5.h, p6/z, [a_ptr1]\n"
- "fmla z28.h, z8.h, z3.h[0]\n"
+ "fmla z24.h, z8.h, z2.h[0]\n"
"ld1rqh z6.h, p6/z, [a_ptr2]\n"
- "fmla z17.h, z9.h, z0.h[0]\n"
+ "fmla z28.h, z8.h, z3.h[0]\n"
"ld1rqh z7.h, p6/z, [a_ptr3]\n"
- "fmla z21.h, z9.h, z1.h[0]\n"
+ "fmla z17.h, z9.h, z0.h[0]\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
- "fmla z25.h, z9.h, z2.h[0]\n"
+ "fmla z21.h, z9.h, z1.h[0]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
+ "fmla z25.h, z9.h, z2.h[0]\n"
+ "addvl %[a_ptr0], %[a_ptr0], #1\n"
"fmla z29.h, z9.h, z3.h[0]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
"fmla z18.h, z10.h, z0.h[0]\n"
+ "addvl a_ptr1, a_ptr1, #1\n"
"fmla z22.h, z10.h, z1.h[0]\n"
+ "addvl a_ptr2, a_ptr2, #1\n"
"fmla z26.h, z10.h, z2.h[0]\n"
+ "addvl a_ptr3, a_ptr3, #1\n"
"fmla z30.h, z10.h, z3.h[0]\n"
"ld1h z10.h, p2/z, [%[b_ptr0], #2, MUL VL]\n"
"fmla z19.h, z11.h, z0.h[0]\n"
@@ -3622,7 +3565,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z23.h, z15.h, z1.h[7]\n"
"fmla z27.h, z15.h, z2.h[7]\n"
"fmla z31.h, z15.h, z3.h[7]\n"
- "cbz %[blocks], 5f\n"
+ "cbz %[blocks], 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -3645,7 +3588,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z23.h, z11.h, z5.h[0]\n"
"fmla z27.h, z11.h, z6.h[0]\n"
"fmla z31.h, z11.h, z7.h[0]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -3668,7 +3611,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z23.h, z15.h, z5.h[1]\n"
"fmla z27.h, z15.h, z6.h[1]\n"
"fmla z31.h, z15.h, z7.h[1]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -3691,7 +3634,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z23.h, z11.h, z5.h[2]\n"
"fmla z27.h, z11.h, z6.h[2]\n"
"fmla z31.h, z11.h, z7.h[2]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -3714,7 +3657,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z23.h, z15.h, z5.h[3]\n"
"fmla z27.h, z15.h, z6.h[3]\n"
"fmla z31.h, z15.h, z7.h[3]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
@@ -3737,7 +3680,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z23.h, z11.h, z5.h[4]\n"
"fmla z27.h, z11.h, z6.h[4]\n"
"fmla z31.h, z11.h, z7.h[4]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"subs %[blocks], %[blocks], #0x1\n"
"ld1h z12.h, p0/z, [%[b_ptr0]]\n"
@@ -3760,7 +3703,7 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z23.h, z15.h, z5.h[5]\n"
"fmla z27.h, z15.h, z6.h[5]\n"
"fmla z31.h, z15.h, z7.h[5]\n"
- "b.eq 5f\n"
+ "b.eq 4f\n"
"add %[b_ptr0], %[b_ptr0], %[ldb]\n"
"ld1h z8.h, p0/z, [%[b_ptr0]]\n"
"ld1h z9.h, p1/z, [%[b_ptr0], #1, MUL VL]\n"
@@ -3782,17 +3725,51 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
"fmla z23.h, z11.h, z5.h[6]\n"
"fmla z27.h, z11.h, z6.h[6]\n"
"fmla z31.h, z11.h, z7.h[6]\n"
- "5:\n"
+ "4:\n"
+ "ld1rh z14.h, p7/z, [%[minptr]]\n"
+ "ld1rh z15.h, p7/z, [%[maxptr]]\n"
+ "fmax z16.h, p7/m, z16.h, z14.h\n"
+ "fmax z17.h, p7/m, z17.h, z14.h\n"
+ "fmax z18.h, p7/m, z18.h, z14.h\n"
+ "fmax z19.h, p7/m, z19.h, z14.h\n"
+ "fmin z16.h, p7/m, z16.h, z15.h\n"
+ "fmin z17.h, p7/m, z17.h, z15.h\n"
+ "fmin z18.h, p7/m, z18.h, z15.h\n"
+ "fmin z19.h, p7/m, z19.h, z15.h\n"
"st1h z16.h, p0, [%[c_ptr0]]\n"
+ "fmax z20.h, p7/m, z20.h, z14.h\n"
+ "fmax z21.h, p7/m, z21.h, z14.h\n"
+ "fmax z22.h, p7/m, z22.h, z14.h\n"
"st1h z17.h, p1, [%[c_ptr0], #1, MUL VL]\n"
+ "fmax z23.h, p7/m, z23.h, z14.h\n"
+ "fmin z20.h, p7/m, z20.h, z15.h\n"
+ "fmin z21.h, p7/m, z21.h, z15.h\n"
"st1h z18.h, p2, [%[c_ptr0], #2, MUL VL]\n"
+ "fmin z22.h, p7/m, z22.h, z15.h\n"
+ "fmin z23.h, p7/m, z23.h, z15.h\n"
+ "fmax z24.h, p7/m, z24.h, z14.h\n"
"st1h z19.h, p3, [%[c_ptr0], #3, MUL VL]\n"
+ "fmax z25.h, p7/m, z25.h, z14.h\n"
"addvl %[c_ptr0], %[c_ptr0], #4\n"
+ "fmax z26.h, p7/m, z26.h, z14.h\n"
"st1h z20.h, p0, [c_ptr1]\n"
+ "fmin z24.h, p7/m, z24.h, z15.h\n"
+ "fmin z25.h, p7/m, z25.h, z15.h\n"
+ "fmax z27.h, p7/m, z27.h, z14.h\n"
"st1h z21.h, p1, [c_ptr1, #1, MUL VL]\n"
+ "fmin z26.h, p7/m, z26.h, z15.h\n"
+ "fmax z28.h, p7/m, z28.h, z14.h\n"
+ "fmax z29.h, p7/m, z29.h, z14.h\n"
"st1h z22.h, p2, [c_ptr1, #2, MUL VL]\n"
+ "fmin z27.h, p7/m, z27.h, z15.h\n"
+ "fmax z30.h, p7/m, z30.h, z14.h\n"
+ "fmin z28.h, p7/m, z28.h, z15.h\n"
"st1h z23.h, p3, [c_ptr1, #3, MUL VL]\n"
+ "fmin z29.h, p7/m, z29.h, z15.h\n"
+ "fmax z31.h, p7/m, z31.h, z14.h\n"
+ "fmin z30.h, p7/m, z30.h, z15.h\n"
"st1h z24.h, p0, [c_ptr2]\n"
+ "fmin z31.h, p7/m, z31.h, z15.h\n"
"st1h z25.h, p1, [c_ptr2, #1, MUL VL]\n"
"st1h z26.h, p2, [c_ptr2, #2, MUL VL]\n"
"st1h z27.h, p3, [c_ptr2, #3, MUL VL]\n"
@@ -3807,11 +3784,12 @@ void sve_native_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, int ld
".unreq c_ptr2\n"
".unreq c_ptr3\n"
: [a_ptr0] "+r" (a_ptr0), [b_ptr0] "+r" (b_ptr0), [c_ptr0] "+r" (c_ptr0), [loops] "+r" (loops), [regs] "+r" (regs), [temp] "+r" (temp), [blocks] "+r" (blocks)
- : [betaptr] "r" (betaptr), [width] "r" (width), [beta0] "r" (beta0), [lda] "r" (ldab), [ldc] "r" (ldcb), [leftovers] "r" (leftovers), [ldb] "r" (ldbb)
+ : [width] "r" (width), [append] "r" (static_cast<uint64_t>(append)), [lda] "r" (ldab), [ldc] "r" (ldcb), [biasptr] "r" (biasptr), [minptr] "r" (minptr), [maxptr] "r" (maxptr), [leftovers] "r" (leftovers), [ldb] "r" (ldbb)
: "z0", "z1", "z2", "z3", "z4", "z5", "z6", "z7", "z8", "z9", "z10", "z11", "z12", "z13", "z14", "z15", "z16", "z17", "z18", "z19", "z20", "z21", "z22", "z23", "z24", "z25", "z26", "z27", "z28", "z29", "z30", "z31", "x0", "x1", "x2", "x3", "x4", "x5", "cc", "memory"
);
break;
}
+
}
}
}