diff options
Diffstat (limited to 'src/core/NEON/kernels/arm_gemm/kernels/sve_hybrid_fp16_mla_4VLx4')
-rw-r--r-- | src/core/NEON/kernels/arm_gemm/kernels/sve_hybrid_fp16_mla_4VLx4/generic.cpp | 858 |
1 files changed, 472 insertions, 386 deletions
diff --git a/src/core/NEON/kernels/arm_gemm/kernels/sve_hybrid_fp16_mla_4VLx4/generic.cpp b/src/core/NEON/kernels/arm_gemm/kernels/sve_hybrid_fp16_mla_4VLx4/generic.cpp index ab41fb3743..2998f33d87 100644 --- a/src/core/NEON/kernels/arm_gemm/kernels/sve_hybrid_fp16_mla_4VLx4/generic.cpp +++ b/src/core/NEON/kernels/arm_gemm/kernels/sve_hybrid_fp16_mla_4VLx4/generic.cpp @@ -1,5 +1,5 @@ /* - * Copyright (c) 2019 Arm Limited. + * Copyright (c) 2018-2019 Arm Limited. * * SPDX-License-Identifier: MIT * @@ -25,37 +25,58 @@ #include <algorithm> +#include "arm_gemm.hpp" #include "../../asmlib.hpp" #include "../../utils.hpp" namespace arm_gemm { -void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 *C, int ldc, __fp16 beta, int M, int N, int K) { - const long beta0 = (beta == 0.0f); +void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 *C, int ldc, int M, int N, int K, const __fp16 *bias, Activation act, bool append) { const int K_stride = K; const long loops_count = ((K + 8) / 16) - 1; K -= loops_count * 16; const long regs_count = (K / 8) - 1; K -= (regs_count + 1) * 8; const long leftovers = K; + __fp16 nullbias[512]; + if (!append && !bias) { + memset(nullbias, 0, (4 * get_vector_length<__fp16>() * sizeof(__fp16))); + } + __fp16 minval = - static_cast<__fp16>(std::numeric_limits<float>::infinity()); + __fp16 maxval = static_cast<__fp16>(std::numeric_limits<float>::infinity()); + const __fp16 * const minptr = &minval; + const __fp16 * const maxptr = &maxval; + + switch(act.type) + { + default: + case Activation::Type::None: + break; + case Activation::Type::BoundedReLU: + maxval = static_cast<__fp16>(act.param1); + /* fall through */ + case Activation::Type::ReLU: + minval = 0.0f; + break; + } for (int y=0; y<M; y+=4) { const __fp16 * const a_ptr0_base = A + (y * lda); const unsigned long ldab = lda * sizeof(__fp16); __fp16 *c_ptr0 = C + (y * ldc); - const unsigned long ldcb = ldc * sizeof(__fp16); for (int x0=0; x0<N; x0+=(4 * get_vector_length<__fp16>())) { const long width = std::min((unsigned long)N-x0, (4 * get_vector_length<__fp16>())); - const __fp16 *betaptr = β long loops = loops_count; long regs = regs_count; long temp = 0; long blocks = leftovers; const __fp16 *a_ptr0 = a_ptr0_base; const __fp16 *b_ptr0 = B + (K_stride * x0); + const unsigned long ldcb = ldc * sizeof(__fp16); + const __fp16 *biasptr = bias ? bias+x0 : nullbias; switch(M-y) { case 1: @@ -69,44 +90,37 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "whilelt p2.h, %[temp], %[width]\n" "inch %[temp], all, mul #1\n" "whilelt p3.h, %[temp], %[width]\n" - "cbz %[beta0], 1f\n" - "mov z16.h, #0\n" + "cbnz %[append], 1f\n" + "ld1h z16.h, p0/z, [%[biasptr]]\n" + "ld1h z17.h, p1/z, [%[biasptr], #1, MUL VL]\n" + "ld1h z18.h, p2/z, [%[biasptr], #2, MUL VL]\n" + "ld1h z19.h, p3/z, [%[biasptr], #3, MUL VL]\n" "ld1rqh z0.h, p7/z, [%[a_ptr0]]\n" - "mov z17.h, #0\n" + "add %[a_ptr0], %[a_ptr0], #0x10\n" "ld1h z8.h, p7/z, [%[b_ptr0]]\n" - "mov z18.h, #0\n" "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "mov z19.h, #0\n" "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" - "add %[a_ptr0], %[a_ptr0], #0x10\n" "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" "addvl %[b_ptr0], %[b_ptr0], #8\n" "cbz %[loops], 2f\n" "b 3f\n" "1:\n" - "ld1rh z15.h, p7/z, [%[betaptr]]\n" "ld1h z16.h, p0/z, [%[c_ptr0]]\n" "ld1h z17.h, p1/z, [%[c_ptr0], #1, MUL VL]\n" "ld1h z18.h, p2/z, [%[c_ptr0], #2, MUL VL]\n" "ld1h z19.h, p3/z, [%[c_ptr0], #3, MUL VL]\n" - "fmul z16.h, p7/m, z16.h, z15.h\n" "ld1rqh z0.h, p7/z, [%[a_ptr0]]\n" - "fmul z17.h, p7/m, z17.h, z15.h\n" + "add %[a_ptr0], %[a_ptr0], #0x10\n" "ld1h z8.h, p7/z, [%[b_ptr0]]\n" - "fmul z18.h, p7/m, z18.h, z15.h\n" "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "fmul z19.h, p7/m, z19.h, z15.h\n" "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" - "add %[a_ptr0], %[a_ptr0], #0x10\n" "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" "addvl %[b_ptr0], %[b_ptr0], #8\n" "cbz %[loops], 2f\n" "3:\n" @@ -322,13 +336,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z11.h, z4.h[0]\n" "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" "fmla z16.h, z12.h, z4.h[1]\n" - "ld1rqh z0.h, p6/z, [%[a_ptr0], #0x10]\n" - "fmla z17.h, z13.h, z4.h[1]\n" "ld1h z8.h, p7/z, [%[b_ptr0]]\n" - "fmla z18.h, z14.h, z4.h[1]\n" + "fmla z17.h, z13.h, z4.h[1]\n" "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "fmla z19.h, z15.h, z4.h[1]\n" + "fmla z18.h, z14.h, z4.h[1]\n" "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" + "fmla z19.h, z15.h, z4.h[1]\n" "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z16.h, z8.h, z4.h[2]\n" "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" @@ -339,9 +352,11 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z11.h, z4.h[2]\n" "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z16.h, z12.h, z4.h[3]\n" - "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1rqh z0.h, p6/z, [%[a_ptr0], #0x10]\n" "fmla z17.h, z13.h, z4.h[3]\n" + "addvl %[b_ptr0], %[b_ptr0], #16\n" "fmla z18.h, z14.h, z4.h[3]\n" + "addvl %[a_ptr0], %[a_ptr0], #2\n" "fmla z19.h, z15.h, z4.h[3]\n" "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" @@ -372,76 +387,77 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z11.h, z4.h[6]\n" "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z16.h, z12.h, z4.h[7]\n" + "addvl %[b_ptr0], %[b_ptr0], #8\n" "fmla z17.h, z13.h, z4.h[7]\n" "fmla z18.h, z14.h, z4.h[7]\n" "fmla z19.h, z15.h, z4.h[7]\n" "cbz %[blocks], 5f\n" - "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z16.h, z8.h, z0.h[0]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z17.h, z9.h, z0.h[0]\n" "fmla z18.h, z10.h, z0.h[0]\n" "fmla z19.h, z11.h, z0.h[0]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" "fmla z16.h, z12.h, z0.h[1]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z17.h, z13.h, z0.h[1]\n" "fmla z18.h, z14.h, z0.h[1]\n" "fmla z19.h, z15.h, z0.h[1]\n" "b.eq 5f\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" + "addvl %[b_ptr0], %[b_ptr0], #16\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" + "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" "fmla z16.h, z8.h, z0.h[2]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z17.h, z9.h, z0.h[2]\n" "fmla z18.h, z10.h, z0.h[2]\n" "fmla z19.h, z11.h, z0.h[2]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" "fmla z16.h, z12.h, z0.h[3]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" "fmla z17.h, z13.h, z0.h[3]\n" "fmla z18.h, z14.h, z0.h[3]\n" "fmla z19.h, z15.h, z0.h[3]\n" "b.eq 5f\n" - "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z16.h, z8.h, z0.h[4]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z17.h, z9.h, z0.h[4]\n" "fmla z18.h, z10.h, z0.h[4]\n" "fmla z19.h, z11.h, z0.h[4]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" "fmla z16.h, z12.h, z0.h[5]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z17.h, z13.h, z0.h[5]\n" "fmla z18.h, z14.h, z0.h[5]\n" "fmla z19.h, z15.h, z0.h[5]\n" "b.eq 5f\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" + "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" "fmla z16.h, z8.h, z0.h[6]\n" "fmla z17.h, z9.h, z0.h[6]\n" "fmla z18.h, z10.h, z0.h[6]\n" @@ -451,33 +467,34 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z16.h, z8.h, z0.h[0]\n" "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" "fmla z17.h, z9.h, z0.h[0]\n" - "ld1rqh z4.h, p6/z, [%[a_ptr0]]\n" - "fmla z18.h, z10.h, z0.h[0]\n" "ld1h z8.h, p7/z, [%[b_ptr0]]\n" - "fmla z19.h, z11.h, z0.h[0]\n" + "fmla z18.h, z10.h, z0.h[0]\n" "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "fmla z16.h, z12.h, z0.h[1]\n" + "fmla z19.h, z11.h, z0.h[0]\n" "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" - "fmla z17.h, z13.h, z0.h[1]\n" + "fmla z16.h, z12.h, z0.h[1]\n" "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" - "fmla z18.h, z14.h, z0.h[1]\n" + "fmla z17.h, z13.h, z0.h[1]\n" "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" - "fmla z19.h, z15.h, z0.h[1]\n" + "fmla z18.h, z14.h, z0.h[1]\n" "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" - "fmla z16.h, z8.h, z0.h[2]\n" + "fmla z19.h, z15.h, z0.h[1]\n" "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" - "fmla z17.h, z9.h, z0.h[2]\n" + "fmla z16.h, z8.h, z0.h[2]\n" "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" + "fmla z17.h, z9.h, z0.h[2]\n" + "ld1rqh z4.h, p6/z, [%[a_ptr0]]\n" "fmla z18.h, z10.h, z0.h[2]\n" "addvl %[b_ptr0], %[b_ptr0], #16\n" "fmla z19.h, z11.h, z0.h[2]\n" + "addvl %[a_ptr0], %[a_ptr0], #1\n" "fmla z16.h, z12.h, z0.h[3]\n" - "fmla z17.h, z13.h, z0.h[3]\n" "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" - "fmla z18.h, z14.h, z0.h[3]\n" + "fmla z17.h, z13.h, z0.h[3]\n" "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" - "fmla z19.h, z15.h, z0.h[3]\n" + "fmla z18.h, z14.h, z0.h[3]\n" "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" + "fmla z19.h, z15.h, z0.h[3]\n" "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" "fmla z16.h, z8.h, z0.h[4]\n" "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" @@ -504,88 +521,99 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z11.h, z0.h[6]\n" "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z16.h, z12.h, z0.h[7]\n" + "addvl %[b_ptr0], %[b_ptr0], #8\n" "fmla z17.h, z13.h, z0.h[7]\n" "fmla z18.h, z14.h, z0.h[7]\n" "fmla z19.h, z15.h, z0.h[7]\n" "cbz %[blocks], 5f\n" - "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z16.h, z8.h, z4.h[0]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z17.h, z9.h, z4.h[0]\n" "fmla z18.h, z10.h, z4.h[0]\n" "fmla z19.h, z11.h, z4.h[0]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" "fmla z16.h, z12.h, z4.h[1]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z17.h, z13.h, z4.h[1]\n" "fmla z18.h, z14.h, z4.h[1]\n" "fmla z19.h, z15.h, z4.h[1]\n" "b.eq 5f\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" + "addvl %[b_ptr0], %[b_ptr0], #16\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" + "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" "fmla z16.h, z8.h, z4.h[2]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z17.h, z9.h, z4.h[2]\n" "fmla z18.h, z10.h, z4.h[2]\n" "fmla z19.h, z11.h, z4.h[2]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" "fmla z16.h, z12.h, z4.h[3]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" "fmla z17.h, z13.h, z4.h[3]\n" "fmla z18.h, z14.h, z4.h[3]\n" "fmla z19.h, z15.h, z4.h[3]\n" "b.eq 5f\n" - "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z16.h, z8.h, z4.h[4]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z17.h, z9.h, z4.h[4]\n" "fmla z18.h, z10.h, z4.h[4]\n" "fmla z19.h, z11.h, z4.h[4]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" "fmla z16.h, z12.h, z4.h[5]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z17.h, z13.h, z4.h[5]\n" "fmla z18.h, z14.h, z4.h[5]\n" "fmla z19.h, z15.h, z4.h[5]\n" "b.eq 5f\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" + "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" "fmla z16.h, z8.h, z4.h[6]\n" "fmla z17.h, z9.h, z4.h[6]\n" "fmla z18.h, z10.h, z4.h[6]\n" "fmla z19.h, z11.h, z4.h[6]\n" "5:\n" + "ld1rh z14.h, p7/z, [%[minptr]]\n" + "ld1rh z15.h, p7/z, [%[maxptr]]\n" + "fmax z16.h, p7/m, z16.h, z14.h\n" + "fmax z17.h, p7/m, z17.h, z14.h\n" + "fmax z18.h, p7/m, z18.h, z14.h\n" + "fmax z19.h, p7/m, z19.h, z14.h\n" + "fmin z16.h, p7/m, z16.h, z15.h\n" + "fmin z17.h, p7/m, z17.h, z15.h\n" + "fmin z18.h, p7/m, z18.h, z15.h\n" + "fmin z19.h, p7/m, z19.h, z15.h\n" "st1h z16.h, p0, [%[c_ptr0]]\n" "st1h z17.h, p1, [%[c_ptr0], #1, MUL VL]\n" "st1h z18.h, p2, [%[c_ptr0], #2, MUL VL]\n" "st1h z19.h, p3, [%[c_ptr0], #3, MUL VL]\n" "addvl %[c_ptr0], %[c_ptr0], #4\n" : [a_ptr0] "+r" (a_ptr0), [b_ptr0] "+r" (b_ptr0), [c_ptr0] "+r" (c_ptr0), [loops] "+r" (loops), [regs] "+r" (regs), [temp] "+r" (temp), [blocks] "+r" (blocks) - : [betaptr] "r" (betaptr), [width] "r" (width), [beta0] "r" (beta0), [lda] "r" (ldab), [ldc] "r" (ldcb), [leftovers] "r" (leftovers) + : [width] "r" (width), [append] "r" (static_cast<uint64_t>(append)), [lda] "r" (ldab), [ldc] "r" (ldcb), [biasptr] "r" (biasptr), [minptr] "r" (minptr), [maxptr] "r" (maxptr), [leftovers] "r" (leftovers) : "z0", "z1", "z2", "z3", "z4", "z5", "z6", "z7", "z8", "z9", "z10", "z11", "z12", "z13", "z14", "z15", "z16", "z17", "z18", "z19", "z20", "z21", "z22", "z23", "z24", "z25", "z26", "z27", "z28", "z29", "z30", "z31", "cc", "memory" ); break; @@ -604,60 +632,49 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "whilelt p2.h, %[temp], %[width]\n" "inch %[temp], all, mul #1\n" "whilelt p3.h, %[temp], %[width]\n" - "cbz %[beta0], 1f\n" - "mov z16.h, #0\n" + "cbnz %[append], 1f\n" + "ld1h z16.h, p0/z, [%[biasptr]]\n" + "ld1h z17.h, p1/z, [%[biasptr], #1, MUL VL]\n" + "ld1h z18.h, p2/z, [%[biasptr], #2, MUL VL]\n" + "ld1h z19.h, p3/z, [%[biasptr], #3, MUL VL]\n" + "mov z20.d, z16.d\n" "ld1rqh z0.h, p7/z, [%[a_ptr0]]\n" - "mov z17.h, #0\n" + "mov z21.d, z17.d\n" "ld1rqh z1.h, p7/z, [a_ptr1]\n" - "mov z18.h, #0\n" + "mov z22.d, z18.d\n" "ld1h z8.h, p7/z, [%[b_ptr0]]\n" - "mov z19.h, #0\n" + "mov z23.d, z19.d\n" "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "mov z20.h, #0\n" "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" - "mov z21.h, #0\n" + "add %[a_ptr0], %[a_ptr0], #0x10\n" "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" - "mov z22.h, #0\n" + "add a_ptr1, a_ptr1, #0x10\n" "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" - "mov z23.h, #0\n" "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" - "add %[a_ptr0], %[a_ptr0], #0x10\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" - "add a_ptr1, a_ptr1, #0x10\n" "addvl %[b_ptr0], %[b_ptr0], #8\n" "cbz %[loops], 2f\n" "b 3f\n" "1:\n" - "ld1rh z15.h, p7/z, [%[betaptr]]\n" "ld1h z16.h, p0/z, [%[c_ptr0]]\n" "ld1h z17.h, p1/z, [%[c_ptr0], #1, MUL VL]\n" "ld1h z18.h, p2/z, [%[c_ptr0], #2, MUL VL]\n" "ld1h z19.h, p3/z, [%[c_ptr0], #3, MUL VL]\n" - "fmul z16.h, p7/m, z16.h, z15.h\n" "ld1h z20.h, p0/z, [c_ptr1]\n" - "fmul z17.h, p7/m, z17.h, z15.h\n" "ld1h z21.h, p1/z, [c_ptr1, #1, MUL VL]\n" - "fmul z18.h, p7/m, z18.h, z15.h\n" "ld1h z22.h, p2/z, [c_ptr1, #2, MUL VL]\n" - "fmul z19.h, p7/m, z19.h, z15.h\n" "ld1h z23.h, p3/z, [c_ptr1, #3, MUL VL]\n" - "fmul z20.h, p7/m, z20.h, z15.h\n" "ld1rqh z0.h, p7/z, [%[a_ptr0]]\n" - "fmul z21.h, p7/m, z21.h, z15.h\n" + "add %[a_ptr0], %[a_ptr0], #0x10\n" "ld1rqh z1.h, p7/z, [a_ptr1]\n" - "fmul z22.h, p7/m, z22.h, z15.h\n" + "add a_ptr1, a_ptr1, #0x10\n" "ld1h z8.h, p7/z, [%[b_ptr0]]\n" - "fmul z23.h, p7/m, z23.h, z15.h\n" "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" - "add %[a_ptr0], %[a_ptr0], #0x10\n" "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" - "add a_ptr1, a_ptr1, #0x10\n" "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" "addvl %[b_ptr0], %[b_ptr0], #8\n" "cbz %[loops], 2f\n" "3:\n" @@ -974,9 +991,11 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z20.h, z8.h, z5.h[0]\n" "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "fmla z17.h, z9.h, z4.h[0]\n" + "addvl %[a_ptr0], %[a_ptr0], #2\n" "fmla z21.h, z9.h, z5.h[0]\n" "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" "fmla z18.h, z10.h, z4.h[0]\n" + "addvl a_ptr1, a_ptr1, #2\n" "fmla z22.h, z10.h, z5.h[0]\n" "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z19.h, z11.h, z4.h[0]\n" @@ -1044,6 +1063,7 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z23.h, z15.h, z5.h[5]\n" "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z16.h, z8.h, z4.h[6]\n" + "addvl %[b_ptr0], %[b_ptr0], #8\n" "fmla z20.h, z8.h, z5.h[6]\n" "fmla z17.h, z9.h, z4.h[6]\n" "fmla z21.h, z9.h, z5.h[6]\n" @@ -1060,13 +1080,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z15.h, z4.h[7]\n" "fmla z23.h, z15.h, z5.h[7]\n" "cbz %[blocks], 5f\n" - "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z16.h, z8.h, z0.h[0]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z20.h, z8.h, z1.h[0]\n" "fmla z17.h, z9.h, z0.h[0]\n" "fmla z21.h, z9.h, z1.h[0]\n" @@ -1075,12 +1094,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z11.h, z0.h[0]\n" "fmla z23.h, z11.h, z1.h[0]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" "fmla z16.h, z12.h, z0.h[1]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z20.h, z12.h, z1.h[1]\n" "fmla z17.h, z13.h, z0.h[1]\n" "fmla z21.h, z13.h, z1.h[1]\n" @@ -1089,12 +1108,13 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z15.h, z0.h[1]\n" "fmla z23.h, z15.h, z1.h[1]\n" "b.eq 5f\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" + "addvl %[b_ptr0], %[b_ptr0], #16\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" + "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" "fmla z16.h, z8.h, z0.h[2]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z20.h, z8.h, z1.h[2]\n" "fmla z17.h, z9.h, z0.h[2]\n" "fmla z21.h, z9.h, z1.h[2]\n" @@ -1103,12 +1123,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z11.h, z0.h[2]\n" "fmla z23.h, z11.h, z1.h[2]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" "fmla z16.h, z12.h, z0.h[3]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" "fmla z20.h, z12.h, z1.h[3]\n" "fmla z17.h, z13.h, z0.h[3]\n" "fmla z21.h, z13.h, z1.h[3]\n" @@ -1117,13 +1137,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z15.h, z0.h[3]\n" "fmla z23.h, z15.h, z1.h[3]\n" "b.eq 5f\n" - "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z16.h, z8.h, z0.h[4]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z20.h, z8.h, z1.h[4]\n" "fmla z17.h, z9.h, z0.h[4]\n" "fmla z21.h, z9.h, z1.h[4]\n" @@ -1132,12 +1151,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z11.h, z0.h[4]\n" "fmla z23.h, z11.h, z1.h[4]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" "fmla z16.h, z12.h, z0.h[5]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z20.h, z12.h, z1.h[5]\n" "fmla z17.h, z13.h, z0.h[5]\n" "fmla z21.h, z13.h, z1.h[5]\n" @@ -1146,10 +1165,11 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z15.h, z0.h[5]\n" "fmla z23.h, z15.h, z1.h[5]\n" "b.eq 5f\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" + "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" "fmla z16.h, z8.h, z0.h[6]\n" "fmla z20.h, z8.h, z1.h[6]\n" "fmla z17.h, z9.h, z0.h[6]\n" @@ -1163,19 +1183,21 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z16.h, z8.h, z0.h[0]\n" "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" "fmla z20.h, z8.h, z1.h[0]\n" - "ld1rqh z4.h, p6/z, [%[a_ptr0]]\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "fmla z17.h, z9.h, z0.h[0]\n" - "ld1rqh z5.h, p6/z, [a_ptr1]\n" + "ld1rqh z4.h, p6/z, [%[a_ptr0]]\n" "fmla z21.h, z9.h, z1.h[0]\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" - "fmla z18.h, z10.h, z0.h[0]\n" "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" + "fmla z18.h, z10.h, z0.h[0]\n" + "ld1rqh z5.h, p6/z, [a_ptr1]\n" "fmla z22.h, z10.h, z1.h[0]\n" "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z19.h, z11.h, z0.h[0]\n" + "addvl %[a_ptr0], %[a_ptr0], #1\n" "fmla z23.h, z11.h, z1.h[0]\n" "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z16.h, z12.h, z0.h[1]\n" + "addvl a_ptr1, a_ptr1, #1\n" "fmla z20.h, z12.h, z1.h[1]\n" "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "fmla z17.h, z13.h, z0.h[1]\n" @@ -1237,6 +1259,7 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z23.h, z15.h, z1.h[5]\n" "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z16.h, z8.h, z0.h[6]\n" + "addvl %[b_ptr0], %[b_ptr0], #8\n" "fmla z20.h, z8.h, z1.h[6]\n" "fmla z17.h, z9.h, z0.h[6]\n" "fmla z21.h, z9.h, z1.h[6]\n" @@ -1253,13 +1276,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z15.h, z0.h[7]\n" "fmla z23.h, z15.h, z1.h[7]\n" "cbz %[blocks], 5f\n" - "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z16.h, z8.h, z4.h[0]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z20.h, z8.h, z5.h[0]\n" "fmla z17.h, z9.h, z4.h[0]\n" "fmla z21.h, z9.h, z5.h[0]\n" @@ -1268,12 +1290,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z11.h, z4.h[0]\n" "fmla z23.h, z11.h, z5.h[0]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" "fmla z16.h, z12.h, z4.h[1]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z20.h, z12.h, z5.h[1]\n" "fmla z17.h, z13.h, z4.h[1]\n" "fmla z21.h, z13.h, z5.h[1]\n" @@ -1282,12 +1304,13 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z15.h, z4.h[1]\n" "fmla z23.h, z15.h, z5.h[1]\n" "b.eq 5f\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" + "addvl %[b_ptr0], %[b_ptr0], #16\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" + "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" "fmla z16.h, z8.h, z4.h[2]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z20.h, z8.h, z5.h[2]\n" "fmla z17.h, z9.h, z4.h[2]\n" "fmla z21.h, z9.h, z5.h[2]\n" @@ -1296,12 +1319,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z11.h, z4.h[2]\n" "fmla z23.h, z11.h, z5.h[2]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" "fmla z16.h, z12.h, z4.h[3]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" "fmla z20.h, z12.h, z5.h[3]\n" "fmla z17.h, z13.h, z4.h[3]\n" "fmla z21.h, z13.h, z5.h[3]\n" @@ -1310,13 +1333,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z15.h, z4.h[3]\n" "fmla z23.h, z15.h, z5.h[3]\n" "b.eq 5f\n" - "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z16.h, z8.h, z4.h[4]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z20.h, z8.h, z5.h[4]\n" "fmla z17.h, z9.h, z4.h[4]\n" "fmla z21.h, z9.h, z5.h[4]\n" @@ -1325,12 +1347,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z11.h, z4.h[4]\n" "fmla z23.h, z11.h, z5.h[4]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" "fmla z16.h, z12.h, z4.h[5]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z20.h, z12.h, z5.h[5]\n" "fmla z17.h, z13.h, z4.h[5]\n" "fmla z21.h, z13.h, z5.h[5]\n" @@ -1339,10 +1361,11 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z15.h, z4.h[5]\n" "fmla z23.h, z15.h, z5.h[5]\n" "b.eq 5f\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" + "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" "fmla z16.h, z8.h, z4.h[6]\n" "fmla z20.h, z8.h, z5.h[6]\n" "fmla z17.h, z9.h, z4.h[6]\n" @@ -1352,9 +1375,27 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z19.h, z11.h, z4.h[6]\n" "fmla z23.h, z11.h, z5.h[6]\n" "5:\n" + "ld1rh z14.h, p7/z, [%[minptr]]\n" + "ld1rh z15.h, p7/z, [%[maxptr]]\n" + "fmax z16.h, p7/m, z16.h, z14.h\n" + "fmax z17.h, p7/m, z17.h, z14.h\n" + "fmax z18.h, p7/m, z18.h, z14.h\n" + "fmax z19.h, p7/m, z19.h, z14.h\n" + "fmin z16.h, p7/m, z16.h, z15.h\n" + "fmin z17.h, p7/m, z17.h, z15.h\n" + "fmin z18.h, p7/m, z18.h, z15.h\n" + "fmin z19.h, p7/m, z19.h, z15.h\n" "st1h z16.h, p0, [%[c_ptr0]]\n" + "fmax z20.h, p7/m, z20.h, z14.h\n" + "fmax z21.h, p7/m, z21.h, z14.h\n" + "fmax z22.h, p7/m, z22.h, z14.h\n" "st1h z17.h, p1, [%[c_ptr0], #1, MUL VL]\n" + "fmax z23.h, p7/m, z23.h, z14.h\n" + "fmin z20.h, p7/m, z20.h, z15.h\n" + "fmin z21.h, p7/m, z21.h, z15.h\n" "st1h z18.h, p2, [%[c_ptr0], #2, MUL VL]\n" + "fmin z22.h, p7/m, z22.h, z15.h\n" + "fmin z23.h, p7/m, z23.h, z15.h\n" "st1h z19.h, p3, [%[c_ptr0], #3, MUL VL]\n" "addvl %[c_ptr0], %[c_ptr0], #4\n" "st1h z20.h, p0, [c_ptr1]\n" @@ -1364,7 +1405,7 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 ".unreq a_ptr1\n" ".unreq c_ptr1\n" : [a_ptr0] "+r" (a_ptr0), [b_ptr0] "+r" (b_ptr0), [c_ptr0] "+r" (c_ptr0), [loops] "+r" (loops), [regs] "+r" (regs), [temp] "+r" (temp), [blocks] "+r" (blocks) - : [betaptr] "r" (betaptr), [width] "r" (width), [beta0] "r" (beta0), [lda] "r" (ldab), [ldc] "r" (ldcb), [leftovers] "r" (leftovers) + : [width] "r" (width), [append] "r" (static_cast<uint64_t>(append)), [lda] "r" (ldab), [ldc] "r" (ldcb), [biasptr] "r" (biasptr), [minptr] "r" (minptr), [maxptr] "r" (maxptr), [leftovers] "r" (leftovers) : "z0", "z1", "z2", "z3", "z4", "z5", "z6", "z7", "z8", "z9", "z10", "z11", "z12", "z13", "z14", "z15", "z16", "z17", "z18", "z19", "z20", "z21", "z22", "z23", "z24", "z25", "z26", "z27", "z28", "z29", "z30", "z31", "x0", "x1", "cc", "memory" ); break; @@ -1387,76 +1428,61 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "whilelt p2.h, %[temp], %[width]\n" "inch %[temp], all, mul #1\n" "whilelt p3.h, %[temp], %[width]\n" - "cbz %[beta0], 1f\n" - "mov z16.h, #0\n" + "cbnz %[append], 1f\n" + "ld1h z16.h, p0/z, [%[biasptr]]\n" + "ld1h z17.h, p1/z, [%[biasptr], #1, MUL VL]\n" + "ld1h z18.h, p2/z, [%[biasptr], #2, MUL VL]\n" + "ld1h z19.h, p3/z, [%[biasptr], #3, MUL VL]\n" + "mov z20.d, z16.d\n" "ld1rqh z0.h, p7/z, [%[a_ptr0]]\n" - "mov z17.h, #0\n" + "mov z21.d, z17.d\n" "ld1rqh z1.h, p7/z, [a_ptr1]\n" - "mov z18.h, #0\n" + "mov z22.d, z18.d\n" "ld1rqh z2.h, p7/z, [a_ptr2]\n" - "mov z19.h, #0\n" + "mov z23.d, z19.d\n" "ld1h z8.h, p7/z, [%[b_ptr0]]\n" - "mov z20.h, #0\n" + "mov z24.d, z16.d\n" "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "mov z21.h, #0\n" + "mov z25.d, z17.d\n" "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" - "mov z22.h, #0\n" + "mov z26.d, z18.d\n" "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" - "mov z23.h, #0\n" + "mov z27.d, z19.d\n" "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" - "mov z24.h, #0\n" "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" - "mov z25.h, #0\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" - "mov z26.h, #0\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" - "mov z27.h, #0\n" "add %[a_ptr0], %[a_ptr0], #0x10\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" "add a_ptr1, a_ptr1, #0x10\n" "add a_ptr2, a_ptr2, #0x10\n" "addvl %[b_ptr0], %[b_ptr0], #8\n" "cbz %[loops], 2f\n" "b 3f\n" "1:\n" - "ld1rh z15.h, p7/z, [%[betaptr]]\n" "ld1h z16.h, p0/z, [%[c_ptr0]]\n" "ld1h z17.h, p1/z, [%[c_ptr0], #1, MUL VL]\n" "ld1h z18.h, p2/z, [%[c_ptr0], #2, MUL VL]\n" "ld1h z19.h, p3/z, [%[c_ptr0], #3, MUL VL]\n" - "fmul z16.h, p7/m, z16.h, z15.h\n" "ld1h z20.h, p0/z, [c_ptr1]\n" - "fmul z17.h, p7/m, z17.h, z15.h\n" "ld1h z21.h, p1/z, [c_ptr1, #1, MUL VL]\n" - "fmul z18.h, p7/m, z18.h, z15.h\n" "ld1h z22.h, p2/z, [c_ptr1, #2, MUL VL]\n" - "fmul z19.h, p7/m, z19.h, z15.h\n" "ld1h z23.h, p3/z, [c_ptr1, #3, MUL VL]\n" - "fmul z20.h, p7/m, z20.h, z15.h\n" "ld1h z24.h, p0/z, [c_ptr2]\n" - "fmul z21.h, p7/m, z21.h, z15.h\n" "ld1h z25.h, p1/z, [c_ptr2, #1, MUL VL]\n" - "fmul z22.h, p7/m, z22.h, z15.h\n" "ld1h z26.h, p2/z, [c_ptr2, #2, MUL VL]\n" - "fmul z23.h, p7/m, z23.h, z15.h\n" "ld1h z27.h, p3/z, [c_ptr2, #3, MUL VL]\n" - "fmul z24.h, p7/m, z24.h, z15.h\n" "ld1rqh z0.h, p7/z, [%[a_ptr0]]\n" - "fmul z25.h, p7/m, z25.h, z15.h\n" + "add %[a_ptr0], %[a_ptr0], #0x10\n" "ld1rqh z1.h, p7/z, [a_ptr1]\n" - "fmul z26.h, p7/m, z26.h, z15.h\n" + "add a_ptr1, a_ptr1, #0x10\n" "ld1rqh z2.h, p7/z, [a_ptr2]\n" - "fmul z27.h, p7/m, z27.h, z15.h\n" + "add a_ptr2, a_ptr2, #0x10\n" "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "add %[a_ptr0], %[a_ptr0], #0x10\n" "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" - "add a_ptr1, a_ptr1, #0x10\n" "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" - "add a_ptr2, a_ptr2, #0x10\n" "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" "addvl %[b_ptr0], %[b_ptr0], #8\n" "cbz %[loops], 2f\n" "3:\n" @@ -1872,10 +1898,13 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z16.h, z8.h, z4.h[0]\n" "ld1rqh z2.h, p6/z, [a_ptr2, #0x10]\n" "fmla z20.h, z8.h, z5.h[0]\n" + "addvl %[a_ptr0], %[a_ptr0], #2\n" "fmla z24.h, z8.h, z6.h[0]\n" "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "fmla z17.h, z9.h, z4.h[0]\n" + "addvl a_ptr1, a_ptr1, #2\n" "fmla z21.h, z9.h, z5.h[0]\n" + "addvl a_ptr2, a_ptr2, #2\n" "fmla z25.h, z9.h, z6.h[0]\n" "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" "fmla z18.h, z10.h, z4.h[0]\n" @@ -1968,6 +1997,7 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z27.h, z15.h, z6.h[5]\n" "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z16.h, z8.h, z4.h[6]\n" + "addvl %[b_ptr0], %[b_ptr0], #8\n" "fmla z20.h, z8.h, z5.h[6]\n" "fmla z24.h, z8.h, z6.h[6]\n" "fmla z17.h, z9.h, z4.h[6]\n" @@ -1992,13 +2022,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z23.h, z15.h, z5.h[7]\n" "fmla z27.h, z15.h, z6.h[7]\n" "cbz %[blocks], 5f\n" - "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z16.h, z8.h, z0.h[0]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z20.h, z8.h, z1.h[0]\n" "fmla z24.h, z8.h, z2.h[0]\n" "fmla z17.h, z9.h, z0.h[0]\n" @@ -2011,12 +2040,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z23.h, z11.h, z1.h[0]\n" "fmla z27.h, z11.h, z2.h[0]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" "fmla z16.h, z12.h, z0.h[1]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z20.h, z12.h, z1.h[1]\n" "fmla z24.h, z12.h, z2.h[1]\n" "fmla z17.h, z13.h, z0.h[1]\n" @@ -2029,12 +2058,13 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z23.h, z15.h, z1.h[1]\n" "fmla z27.h, z15.h, z2.h[1]\n" "b.eq 5f\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" + "addvl %[b_ptr0], %[b_ptr0], #16\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" + "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" "fmla z16.h, z8.h, z0.h[2]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z20.h, z8.h, z1.h[2]\n" "fmla z24.h, z8.h, z2.h[2]\n" "fmla z17.h, z9.h, z0.h[2]\n" @@ -2047,12 +2077,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z23.h, z11.h, z1.h[2]\n" "fmla z27.h, z11.h, z2.h[2]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" "fmla z16.h, z12.h, z0.h[3]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" "fmla z20.h, z12.h, z1.h[3]\n" "fmla z24.h, z12.h, z2.h[3]\n" "fmla z17.h, z13.h, z0.h[3]\n" @@ -2065,13 +2095,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z23.h, z15.h, z1.h[3]\n" "fmla z27.h, z15.h, z2.h[3]\n" "b.eq 5f\n" - "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z16.h, z8.h, z0.h[4]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z20.h, z8.h, z1.h[4]\n" "fmla z24.h, z8.h, z2.h[4]\n" "fmla z17.h, z9.h, z0.h[4]\n" @@ -2084,12 +2113,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z23.h, z11.h, z1.h[4]\n" "fmla z27.h, z11.h, z2.h[4]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" "fmla z16.h, z12.h, z0.h[5]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z20.h, z12.h, z1.h[5]\n" "fmla z24.h, z12.h, z2.h[5]\n" "fmla z17.h, z13.h, z0.h[5]\n" @@ -2102,10 +2131,11 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z23.h, z15.h, z1.h[5]\n" "fmla z27.h, z15.h, z2.h[5]\n" "b.eq 5f\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" + "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" "fmla z16.h, z8.h, z0.h[6]\n" "fmla z20.h, z8.h, z1.h[6]\n" "fmla z24.h, z8.h, z2.h[6]\n" @@ -2125,18 +2155,21 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z20.h, z8.h, z1.h[0]\n" "ld1rqh z4.h, p6/z, [%[a_ptr0]]\n" "fmla z24.h, z8.h, z2.h[0]\n" - "ld1rqh z5.h, p6/z, [a_ptr1]\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "fmla z17.h, z9.h, z0.h[0]\n" - "ld1rqh z6.h, p6/z, [a_ptr2]\n" + "ld1rqh z5.h, p6/z, [a_ptr1]\n" "fmla z21.h, z9.h, z1.h[0]\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" + "ld1rqh z6.h, p6/z, [a_ptr2]\n" "fmla z25.h, z9.h, z2.h[0]\n" "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" "fmla z18.h, z10.h, z0.h[0]\n" + "addvl %[a_ptr0], %[a_ptr0], #1\n" "fmla z22.h, z10.h, z1.h[0]\n" + "addvl a_ptr1, a_ptr1, #1\n" "fmla z26.h, z10.h, z2.h[0]\n" "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z19.h, z11.h, z0.h[0]\n" + "addvl a_ptr2, a_ptr2, #1\n" "fmla z23.h, z11.h, z1.h[0]\n" "fmla z27.h, z11.h, z2.h[0]\n" "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" @@ -2222,6 +2255,7 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z27.h, z15.h, z2.h[5]\n" "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z16.h, z8.h, z0.h[6]\n" + "addvl %[b_ptr0], %[b_ptr0], #8\n" "fmla z20.h, z8.h, z1.h[6]\n" "fmla z24.h, z8.h, z2.h[6]\n" "fmla z17.h, z9.h, z0.h[6]\n" @@ -2246,13 +2280,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z23.h, z15.h, z1.h[7]\n" "fmla z27.h, z15.h, z2.h[7]\n" "cbz %[blocks], 5f\n" - "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z16.h, z8.h, z4.h[0]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z20.h, z8.h, z5.h[0]\n" "fmla z24.h, z8.h, z6.h[0]\n" "fmla z17.h, z9.h, z4.h[0]\n" @@ -2265,12 +2298,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z23.h, z11.h, z5.h[0]\n" "fmla z27.h, z11.h, z6.h[0]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" "fmla z16.h, z12.h, z4.h[1]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z20.h, z12.h, z5.h[1]\n" "fmla z24.h, z12.h, z6.h[1]\n" "fmla z17.h, z13.h, z4.h[1]\n" @@ -2283,12 +2316,13 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z23.h, z15.h, z5.h[1]\n" "fmla z27.h, z15.h, z6.h[1]\n" "b.eq 5f\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" + "addvl %[b_ptr0], %[b_ptr0], #16\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" + "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" "fmla z16.h, z8.h, z4.h[2]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z20.h, z8.h, z5.h[2]\n" "fmla z24.h, z8.h, z6.h[2]\n" "fmla z17.h, z9.h, z4.h[2]\n" @@ -2301,12 +2335,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z23.h, z11.h, z5.h[2]\n" "fmla z27.h, z11.h, z6.h[2]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" "fmla z16.h, z12.h, z4.h[3]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" "fmla z20.h, z12.h, z5.h[3]\n" "fmla z24.h, z12.h, z6.h[3]\n" "fmla z17.h, z13.h, z4.h[3]\n" @@ -2319,13 +2353,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z23.h, z15.h, z5.h[3]\n" "fmla z27.h, z15.h, z6.h[3]\n" "b.eq 5f\n" - "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z16.h, z8.h, z4.h[4]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z20.h, z8.h, z5.h[4]\n" "fmla z24.h, z8.h, z6.h[4]\n" "fmla z17.h, z9.h, z4.h[4]\n" @@ -2338,12 +2371,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z23.h, z11.h, z5.h[4]\n" "fmla z27.h, z11.h, z6.h[4]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" "fmla z16.h, z12.h, z4.h[5]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z20.h, z12.h, z5.h[5]\n" "fmla z24.h, z12.h, z6.h[5]\n" "fmla z17.h, z13.h, z4.h[5]\n" @@ -2356,10 +2389,11 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z23.h, z15.h, z5.h[5]\n" "fmla z27.h, z15.h, z6.h[5]\n" "b.eq 5f\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" + "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" "fmla z16.h, z8.h, z4.h[6]\n" "fmla z20.h, z8.h, z5.h[6]\n" "fmla z24.h, z8.h, z6.h[6]\n" @@ -2373,13 +2407,39 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z23.h, z11.h, z5.h[6]\n" "fmla z27.h, z11.h, z6.h[6]\n" "5:\n" + "ld1rh z14.h, p7/z, [%[minptr]]\n" + "ld1rh z15.h, p7/z, [%[maxptr]]\n" + "fmax z16.h, p7/m, z16.h, z14.h\n" + "fmax z17.h, p7/m, z17.h, z14.h\n" + "fmax z18.h, p7/m, z18.h, z14.h\n" + "fmax z19.h, p7/m, z19.h, z14.h\n" + "fmin z16.h, p7/m, z16.h, z15.h\n" + "fmin z17.h, p7/m, z17.h, z15.h\n" + "fmin z18.h, p7/m, z18.h, z15.h\n" + "fmin z19.h, p7/m, z19.h, z15.h\n" "st1h z16.h, p0, [%[c_ptr0]]\n" + "fmax z20.h, p7/m, z20.h, z14.h\n" + "fmax z21.h, p7/m, z21.h, z14.h\n" + "fmax z22.h, p7/m, z22.h, z14.h\n" "st1h z17.h, p1, [%[c_ptr0], #1, MUL VL]\n" + "fmax z23.h, p7/m, z23.h, z14.h\n" + "fmin z20.h, p7/m, z20.h, z15.h\n" + "fmin z21.h, p7/m, z21.h, z15.h\n" "st1h z18.h, p2, [%[c_ptr0], #2, MUL VL]\n" + "fmin z22.h, p7/m, z22.h, z15.h\n" + "fmin z23.h, p7/m, z23.h, z15.h\n" + "fmax z24.h, p7/m, z24.h, z14.h\n" "st1h z19.h, p3, [%[c_ptr0], #3, MUL VL]\n" + "fmax z25.h, p7/m, z25.h, z14.h\n" "addvl %[c_ptr0], %[c_ptr0], #4\n" + "fmax z26.h, p7/m, z26.h, z14.h\n" "st1h z20.h, p0, [c_ptr1]\n" + "fmin z24.h, p7/m, z24.h, z15.h\n" + "fmin z25.h, p7/m, z25.h, z15.h\n" + "fmax z27.h, p7/m, z27.h, z14.h\n" "st1h z21.h, p1, [c_ptr1, #1, MUL VL]\n" + "fmin z26.h, p7/m, z26.h, z15.h\n" + "fmin z27.h, p7/m, z27.h, z15.h\n" "st1h z22.h, p2, [c_ptr1, #2, MUL VL]\n" "st1h z23.h, p3, [c_ptr1, #3, MUL VL]\n" "st1h z24.h, p0, [c_ptr2]\n" @@ -2391,7 +2451,7 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 ".unreq c_ptr1\n" ".unreq c_ptr2\n" : [a_ptr0] "+r" (a_ptr0), [b_ptr0] "+r" (b_ptr0), [c_ptr0] "+r" (c_ptr0), [loops] "+r" (loops), [regs] "+r" (regs), [temp] "+r" (temp), [blocks] "+r" (blocks) - : [betaptr] "r" (betaptr), [width] "r" (width), [beta0] "r" (beta0), [lda] "r" (ldab), [ldc] "r" (ldcb), [leftovers] "r" (leftovers) + : [width] "r" (width), [append] "r" (static_cast<uint64_t>(append)), [lda] "r" (ldab), [ldc] "r" (ldcb), [biasptr] "r" (biasptr), [minptr] "r" (minptr), [maxptr] "r" (maxptr), [leftovers] "r" (leftovers) : "z0", "z1", "z2", "z3", "z4", "z5", "z6", "z7", "z8", "z9", "z10", "z11", "z12", "z13", "z14", "z15", "z16", "z17", "z18", "z19", "z20", "z21", "z22", "z23", "z24", "z25", "z26", "z27", "z28", "z29", "z30", "z31", "x0", "x1", "x2", "x3", "cc", "memory" ); break; @@ -2419,92 +2479,73 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "whilelt p2.h, %[temp], %[width]\n" "inch %[temp], all, mul #1\n" "whilelt p3.h, %[temp], %[width]\n" - "cbz %[beta0], 1f\n" - "mov z16.h, #0\n" + "cbnz %[append], 1f\n" + "ld1h z16.h, p0/z, [%[biasptr]]\n" + "ld1h z17.h, p1/z, [%[biasptr], #1, MUL VL]\n" + "ld1h z18.h, p2/z, [%[biasptr], #2, MUL VL]\n" + "ld1h z19.h, p3/z, [%[biasptr], #3, MUL VL]\n" + "mov z20.d, z16.d\n" "ld1rqh z0.h, p7/z, [%[a_ptr0]]\n" - "mov z17.h, #0\n" + "mov z21.d, z17.d\n" "ld1rqh z1.h, p7/z, [a_ptr1]\n" - "mov z18.h, #0\n" + "mov z22.d, z18.d\n" "ld1rqh z2.h, p7/z, [a_ptr2]\n" - "mov z19.h, #0\n" + "mov z23.d, z19.d\n" "ld1rqh z3.h, p7/z, [a_ptr3]\n" - "mov z20.h, #0\n" + "mov z24.d, z16.d\n" "ld1h z8.h, p7/z, [%[b_ptr0]]\n" - "mov z21.h, #0\n" + "mov z25.d, z17.d\n" "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "mov z22.h, #0\n" + "mov z26.d, z18.d\n" "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" - "mov z23.h, #0\n" + "mov z27.d, z19.d\n" "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" - "mov z24.h, #0\n" + "mov z28.d, z16.d\n" "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" - "mov z25.h, #0\n" + "mov z29.d, z17.d\n" "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" - "mov z26.h, #0\n" + "mov z30.d, z18.d\n" "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" - "mov z27.h, #0\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" - "mov z28.h, #0\n" + "mov z31.d, z19.d\n" "add %[a_ptr0], %[a_ptr0], #0x10\n" - "mov z29.h, #0\n" "add a_ptr1, a_ptr1, #0x10\n" - "mov z30.h, #0\n" "add a_ptr2, a_ptr2, #0x10\n" - "mov z31.h, #0\n" "add a_ptr3, a_ptr3, #0x10\n" "addvl %[b_ptr0], %[b_ptr0], #8\n" "cbz %[loops], 2f\n" "b 3f\n" "1:\n" - "ld1rh z15.h, p7/z, [%[betaptr]]\n" "ld1h z16.h, p0/z, [%[c_ptr0]]\n" "ld1h z17.h, p1/z, [%[c_ptr0], #1, MUL VL]\n" "ld1h z18.h, p2/z, [%[c_ptr0], #2, MUL VL]\n" "ld1h z19.h, p3/z, [%[c_ptr0], #3, MUL VL]\n" - "fmul z16.h, p7/m, z16.h, z15.h\n" "ld1h z20.h, p0/z, [c_ptr1]\n" - "fmul z17.h, p7/m, z17.h, z15.h\n" "ld1h z21.h, p1/z, [c_ptr1, #1, MUL VL]\n" - "fmul z18.h, p7/m, z18.h, z15.h\n" "ld1h z22.h, p2/z, [c_ptr1, #2, MUL VL]\n" - "fmul z19.h, p7/m, z19.h, z15.h\n" "ld1h z23.h, p3/z, [c_ptr1, #3, MUL VL]\n" - "fmul z20.h, p7/m, z20.h, z15.h\n" "ld1h z24.h, p0/z, [c_ptr2]\n" - "fmul z21.h, p7/m, z21.h, z15.h\n" "ld1h z25.h, p1/z, [c_ptr2, #1, MUL VL]\n" - "fmul z22.h, p7/m, z22.h, z15.h\n" "ld1h z26.h, p2/z, [c_ptr2, #2, MUL VL]\n" - "fmul z23.h, p7/m, z23.h, z15.h\n" "ld1h z27.h, p3/z, [c_ptr2, #3, MUL VL]\n" - "fmul z24.h, p7/m, z24.h, z15.h\n" "ld1h z28.h, p0/z, [c_ptr3]\n" - "fmul z25.h, p7/m, z25.h, z15.h\n" "ld1h z29.h, p1/z, [c_ptr3, #1, MUL VL]\n" - "fmul z26.h, p7/m, z26.h, z15.h\n" "ld1h z30.h, p2/z, [c_ptr3, #2, MUL VL]\n" - "fmul z27.h, p7/m, z27.h, z15.h\n" "ld1h z31.h, p3/z, [c_ptr3, #3, MUL VL]\n" - "fmul z28.h, p7/m, z28.h, z15.h\n" "ld1rqh z0.h, p7/z, [%[a_ptr0]]\n" - "fmul z29.h, p7/m, z29.h, z15.h\n" + "add %[a_ptr0], %[a_ptr0], #0x10\n" "ld1rqh z1.h, p7/z, [a_ptr1]\n" - "fmul z30.h, p7/m, z30.h, z15.h\n" + "add a_ptr1, a_ptr1, #0x10\n" "ld1rqh z2.h, p7/z, [a_ptr2]\n" - "fmul z31.h, p7/m, z31.h, z15.h\n" + "add a_ptr2, a_ptr2, #0x10\n" "ld1rqh z3.h, p7/z, [a_ptr3]\n" + "add a_ptr3, a_ptr3, #0x10\n" "ld1h z8.h, p7/z, [%[b_ptr0]]\n" - "add %[a_ptr0], %[a_ptr0], #0x10\n" "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "add a_ptr1, a_ptr1, #0x10\n" "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" - "add a_ptr2, a_ptr2, #0x10\n" "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" - "add a_ptr3, a_ptr3, #0x10\n" "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" "addvl %[b_ptr0], %[b_ptr0], #8\n" "cbz %[loops], 2f\n" "3:\n" @@ -3021,11 +3062,15 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z16.h, z8.h, z4.h[0]\n" "ld1rqh z3.h, p6/z, [a_ptr3, #0x10]\n" "fmla z20.h, z8.h, z5.h[0]\n" + "addvl %[a_ptr0], %[a_ptr0], #2\n" "fmla z24.h, z8.h, z6.h[0]\n" + "addvl a_ptr1, a_ptr1, #2\n" "fmla z28.h, z8.h, z7.h[0]\n" "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "fmla z17.h, z9.h, z4.h[0]\n" + "addvl a_ptr2, a_ptr2, #2\n" "fmla z21.h, z9.h, z5.h[0]\n" + "addvl a_ptr3, a_ptr3, #2\n" "fmla z25.h, z9.h, z6.h[0]\n" "fmla z29.h, z9.h, z7.h[0]\n" "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" @@ -3141,6 +3186,7 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z31.h, z15.h, z7.h[5]\n" "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z16.h, z8.h, z4.h[6]\n" + "addvl %[b_ptr0], %[b_ptr0], #8\n" "fmla z20.h, z8.h, z5.h[6]\n" "fmla z24.h, z8.h, z6.h[6]\n" "fmla z28.h, z8.h, z7.h[6]\n" @@ -3173,13 +3219,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z27.h, z15.h, z6.h[7]\n" "fmla z31.h, z15.h, z7.h[7]\n" "cbz %[blocks], 5f\n" - "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z16.h, z8.h, z0.h[0]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z20.h, z8.h, z1.h[0]\n" "fmla z24.h, z8.h, z2.h[0]\n" "fmla z28.h, z8.h, z3.h[0]\n" @@ -3196,12 +3241,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z27.h, z11.h, z2.h[0]\n" "fmla z31.h, z11.h, z3.h[0]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" "fmla z16.h, z12.h, z0.h[1]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z20.h, z12.h, z1.h[1]\n" "fmla z24.h, z12.h, z2.h[1]\n" "fmla z28.h, z12.h, z3.h[1]\n" @@ -3218,12 +3263,13 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z27.h, z15.h, z2.h[1]\n" "fmla z31.h, z15.h, z3.h[1]\n" "b.eq 5f\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" + "addvl %[b_ptr0], %[b_ptr0], #16\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" + "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" "fmla z16.h, z8.h, z0.h[2]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z20.h, z8.h, z1.h[2]\n" "fmla z24.h, z8.h, z2.h[2]\n" "fmla z28.h, z8.h, z3.h[2]\n" @@ -3240,12 +3286,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z27.h, z11.h, z2.h[2]\n" "fmla z31.h, z11.h, z3.h[2]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" "fmla z16.h, z12.h, z0.h[3]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" "fmla z20.h, z12.h, z1.h[3]\n" "fmla z24.h, z12.h, z2.h[3]\n" "fmla z28.h, z12.h, z3.h[3]\n" @@ -3262,13 +3308,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z27.h, z15.h, z2.h[3]\n" "fmla z31.h, z15.h, z3.h[3]\n" "b.eq 5f\n" - "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z16.h, z8.h, z0.h[4]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z20.h, z8.h, z1.h[4]\n" "fmla z24.h, z8.h, z2.h[4]\n" "fmla z28.h, z8.h, z3.h[4]\n" @@ -3285,12 +3330,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z27.h, z11.h, z2.h[4]\n" "fmla z31.h, z11.h, z3.h[4]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" "fmla z16.h, z12.h, z0.h[5]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z20.h, z12.h, z1.h[5]\n" "fmla z24.h, z12.h, z2.h[5]\n" "fmla z28.h, z12.h, z3.h[5]\n" @@ -3307,10 +3352,11 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z27.h, z15.h, z2.h[5]\n" "fmla z31.h, z15.h, z3.h[5]\n" "b.eq 5f\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" + "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" "fmla z16.h, z8.h, z0.h[6]\n" "fmla z20.h, z8.h, z1.h[6]\n" "fmla z24.h, z8.h, z2.h[6]\n" @@ -3336,17 +3382,21 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z24.h, z8.h, z2.h[0]\n" "ld1rqh z5.h, p6/z, [a_ptr1]\n" "fmla z28.h, z8.h, z3.h[0]\n" - "ld1rqh z6.h, p6/z, [a_ptr2]\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "fmla z17.h, z9.h, z0.h[0]\n" - "ld1rqh z7.h, p6/z, [a_ptr3]\n" + "ld1rqh z6.h, p6/z, [a_ptr2]\n" "fmla z21.h, z9.h, z1.h[0]\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" + "ld1rqh z7.h, p6/z, [a_ptr3]\n" "fmla z25.h, z9.h, z2.h[0]\n" + "addvl %[a_ptr0], %[a_ptr0], #1\n" "fmla z29.h, z9.h, z3.h[0]\n" "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" "fmla z18.h, z10.h, z0.h[0]\n" + "addvl a_ptr1, a_ptr1, #1\n" "fmla z22.h, z10.h, z1.h[0]\n" + "addvl a_ptr2, a_ptr2, #1\n" "fmla z26.h, z10.h, z2.h[0]\n" + "addvl a_ptr3, a_ptr3, #1\n" "fmla z30.h, z10.h, z3.h[0]\n" "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z19.h, z11.h, z0.h[0]\n" @@ -3456,6 +3506,7 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z31.h, z15.h, z3.h[5]\n" "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z16.h, z8.h, z0.h[6]\n" + "addvl %[b_ptr0], %[b_ptr0], #8\n" "fmla z20.h, z8.h, z1.h[6]\n" "fmla z24.h, z8.h, z2.h[6]\n" "fmla z28.h, z8.h, z3.h[6]\n" @@ -3488,13 +3539,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z27.h, z15.h, z2.h[7]\n" "fmla z31.h, z15.h, z3.h[7]\n" "cbz %[blocks], 5f\n" - "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z16.h, z8.h, z4.h[0]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z20.h, z8.h, z5.h[0]\n" "fmla z24.h, z8.h, z6.h[0]\n" "fmla z28.h, z8.h, z7.h[0]\n" @@ -3511,12 +3561,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z27.h, z11.h, z6.h[0]\n" "fmla z31.h, z11.h, z7.h[0]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" "fmla z16.h, z12.h, z4.h[1]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z20.h, z12.h, z5.h[1]\n" "fmla z24.h, z12.h, z6.h[1]\n" "fmla z28.h, z12.h, z7.h[1]\n" @@ -3533,12 +3583,13 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z27.h, z15.h, z6.h[1]\n" "fmla z31.h, z15.h, z7.h[1]\n" "b.eq 5f\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" + "addvl %[b_ptr0], %[b_ptr0], #16\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" + "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" "fmla z16.h, z8.h, z4.h[2]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z20.h, z8.h, z5.h[2]\n" "fmla z24.h, z8.h, z6.h[2]\n" "fmla z28.h, z8.h, z7.h[2]\n" @@ -3555,12 +3606,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z27.h, z11.h, z6.h[2]\n" "fmla z31.h, z11.h, z7.h[2]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" "fmla z16.h, z12.h, z4.h[3]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" "fmla z20.h, z12.h, z5.h[3]\n" "fmla z24.h, z12.h, z6.h[3]\n" "fmla z28.h, z12.h, z7.h[3]\n" @@ -3577,13 +3628,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z27.h, z15.h, z6.h[3]\n" "fmla z31.h, z15.h, z7.h[3]\n" "b.eq 5f\n" - "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0]]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" "fmla z16.h, z8.h, z4.h[4]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" "fmla z20.h, z8.h, z5.h[4]\n" "fmla z24.h, z8.h, z6.h[4]\n" "fmla z28.h, z8.h, z7.h[4]\n" @@ -3600,12 +3650,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z27.h, z11.h, z6.h[4]\n" "fmla z31.h, z11.h, z7.h[4]\n" "b.eq 5f\n" - "ld1h z12.h, p7/z, [%[b_ptr0], #-4, MUL VL]\n" + "ld1h z12.h, p7/z, [%[b_ptr0], #4, MUL VL]\n" "subs %[blocks], %[blocks], #0x1\n" - "ld1h z13.h, p7/z, [%[b_ptr0], #-3, MUL VL]\n" - "ld1h z14.h, p7/z, [%[b_ptr0], #-2, MUL VL]\n" + "ld1h z13.h, p7/z, [%[b_ptr0], #5, MUL VL]\n" + "ld1h z14.h, p7/z, [%[b_ptr0], #6, MUL VL]\n" "fmla z16.h, z12.h, z4.h[5]\n" - "ld1h z15.h, p7/z, [%[b_ptr0], #-1, MUL VL]\n" + "ld1h z15.h, p7/z, [%[b_ptr0], #7, MUL VL]\n" "fmla z20.h, z12.h, z5.h[5]\n" "fmla z24.h, z12.h, z6.h[5]\n" "fmla z28.h, z12.h, z7.h[5]\n" @@ -3622,10 +3672,11 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z27.h, z15.h, z6.h[5]\n" "fmla z31.h, z15.h, z7.h[5]\n" "b.eq 5f\n" - "ld1h z8.h, p7/z, [%[b_ptr0]]\n" - "ld1h z9.h, p7/z, [%[b_ptr0], #1, MUL VL]\n" - "ld1h z10.h, p7/z, [%[b_ptr0], #2, MUL VL]\n" - "ld1h z11.h, p7/z, [%[b_ptr0], #3, MUL VL]\n" + "addvl %[b_ptr0], %[b_ptr0], #16\n" + "ld1h z8.h, p7/z, [%[b_ptr0], #-8, MUL VL]\n" + "ld1h z9.h, p7/z, [%[b_ptr0], #-7, MUL VL]\n" + "ld1h z10.h, p7/z, [%[b_ptr0], #-6, MUL VL]\n" + "ld1h z11.h, p7/z, [%[b_ptr0], #-5, MUL VL]\n" "fmla z16.h, z8.h, z4.h[6]\n" "fmla z20.h, z8.h, z5.h[6]\n" "fmla z24.h, z8.h, z6.h[6]\n" @@ -3643,16 +3694,50 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 "fmla z27.h, z11.h, z6.h[6]\n" "fmla z31.h, z11.h, z7.h[6]\n" "5:\n" + "ld1rh z14.h, p7/z, [%[minptr]]\n" + "ld1rh z15.h, p7/z, [%[maxptr]]\n" + "fmax z16.h, p7/m, z16.h, z14.h\n" + "fmax z17.h, p7/m, z17.h, z14.h\n" + "fmax z18.h, p7/m, z18.h, z14.h\n" + "fmax z19.h, p7/m, z19.h, z14.h\n" + "fmin z16.h, p7/m, z16.h, z15.h\n" + "fmin z17.h, p7/m, z17.h, z15.h\n" + "fmin z18.h, p7/m, z18.h, z15.h\n" + "fmin z19.h, p7/m, z19.h, z15.h\n" "st1h z16.h, p0, [%[c_ptr0]]\n" + "fmax z20.h, p7/m, z20.h, z14.h\n" + "fmax z21.h, p7/m, z21.h, z14.h\n" + "fmax z22.h, p7/m, z22.h, z14.h\n" "st1h z17.h, p1, [%[c_ptr0], #1, MUL VL]\n" + "fmax z23.h, p7/m, z23.h, z14.h\n" + "fmin z20.h, p7/m, z20.h, z15.h\n" + "fmin z21.h, p7/m, z21.h, z15.h\n" "st1h z18.h, p2, [%[c_ptr0], #2, MUL VL]\n" + "fmin z22.h, p7/m, z22.h, z15.h\n" + "fmin z23.h, p7/m, z23.h, z15.h\n" + "fmax z24.h, p7/m, z24.h, z14.h\n" "st1h z19.h, p3, [%[c_ptr0], #3, MUL VL]\n" + "fmax z25.h, p7/m, z25.h, z14.h\n" "addvl %[c_ptr0], %[c_ptr0], #4\n" + "fmax z26.h, p7/m, z26.h, z14.h\n" "st1h z20.h, p0, [c_ptr1]\n" + "fmin z24.h, p7/m, z24.h, z15.h\n" + "fmin z25.h, p7/m, z25.h, z15.h\n" + "fmax z27.h, p7/m, z27.h, z14.h\n" "st1h z21.h, p1, [c_ptr1, #1, MUL VL]\n" + "fmin z26.h, p7/m, z26.h, z15.h\n" + "fmax z28.h, p7/m, z28.h, z14.h\n" + "fmax z29.h, p7/m, z29.h, z14.h\n" "st1h z22.h, p2, [c_ptr1, #2, MUL VL]\n" + "fmin z27.h, p7/m, z27.h, z15.h\n" + "fmax z30.h, p7/m, z30.h, z14.h\n" + "fmin z28.h, p7/m, z28.h, z15.h\n" "st1h z23.h, p3, [c_ptr1, #3, MUL VL]\n" + "fmin z29.h, p7/m, z29.h, z15.h\n" + "fmax z31.h, p7/m, z31.h, z14.h\n" + "fmin z30.h, p7/m, z30.h, z15.h\n" "st1h z24.h, p0, [c_ptr2]\n" + "fmin z31.h, p7/m, z31.h, z15.h\n" "st1h z25.h, p1, [c_ptr2, #1, MUL VL]\n" "st1h z26.h, p2, [c_ptr2, #2, MUL VL]\n" "st1h z27.h, p3, [c_ptr2, #3, MUL VL]\n" @@ -3667,11 +3752,12 @@ void sve_hybrid_fp16_mla_4VLx4(const __fp16 *A, int lda, const __fp16 *B, __fp16 ".unreq c_ptr2\n" ".unreq c_ptr3\n" : [a_ptr0] "+r" (a_ptr0), [b_ptr0] "+r" (b_ptr0), [c_ptr0] "+r" (c_ptr0), [loops] "+r" (loops), [regs] "+r" (regs), [temp] "+r" (temp), [blocks] "+r" (blocks) - : [betaptr] "r" (betaptr), [width] "r" (width), [beta0] "r" (beta0), [lda] "r" (ldab), [ldc] "r" (ldcb), [leftovers] "r" (leftovers) + : [width] "r" (width), [append] "r" (static_cast<uint64_t>(append)), [lda] "r" (ldab), [ldc] "r" (ldcb), [biasptr] "r" (biasptr), [minptr] "r" (minptr), [maxptr] "r" (maxptr), [leftovers] "r" (leftovers) : "z0", "z1", "z2", "z3", "z4", "z5", "z6", "z7", "z8", "z9", "z10", "z11", "z12", "z13", "z14", "z15", "z16", "z17", "z18", "z19", "z20", "z21", "z22", "z23", "z24", "z25", "z26", "z27", "z28", "z29", "z30", "z31", "x0", "x1", "x2", "x3", "x4", "x5", "cc", "memory" ); break; } + } } } |