Source-Changes-HG archive
[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index][Old Index]
[src/trunk]: src/sys/crypto/aes/arch/arm aes neon: Write vtbl with {qN} rathe...
details: https://anonhg.NetBSD.org/src/rev/8f84a9a7bdaf
branches: trunk
changeset: 938523:8f84a9a7bdaf
user: riastradh <riastradh%NetBSD.org@localhost>
date: Thu Sep 10 11:29:43 2020 +0000
description:
aes neon: Write vtbl with {qN} rather than {d(2N)-d(2N+1)}.
Cosmetic; no functional change.
diffstat:
sys/crypto/aes/arch/arm/aes_neon_32.S | 156 +++++++++++++++++-----------------
1 files changed, 78 insertions(+), 78 deletions(-)
diffs (truncated from 304 to 300 lines):
diff -r f631de7d6d70 -r 8f84a9a7bdaf sys/crypto/aes/arch/arm/aes_neon_32.S
--- a/sys/crypto/aes/arch/arm/aes_neon_32.S Thu Sep 10 11:29:02 2020 +0000
+++ b/sys/crypto/aes/arch/arm/aes_neon_32.S Thu Sep 10 11:29:43 2020 +0000
@@ -1,4 +1,4 @@
-/* $NetBSD: aes_neon_32.S,v 1.7 2020/09/10 11:29:02 riastradh Exp $ */
+/* $NetBSD: aes_neon_32.S,v 1.8 2020/09/10 11:29:43 riastradh Exp $ */
/*-
* Copyright (c) 2020 The NetBSD Foundation, Inc.
@@ -28,7 +28,7 @@
#include <arm/asm.h>
-RCSID("$NetBSD: aes_neon_32.S,v 1.7 2020/09/10 11:29:02 riastradh Exp $")
+RCSID("$NetBSD: aes_neon_32.S,v 1.8 2020/09/10 11:29:43 riastradh Exp $")
.fpu neon
@@ -264,10 +264,10 @@
vand q3, q3, q1 /* q3 := (x >> 4) & 0x0f0f... */
/* (q2, q3) := (iptlo(lo), ipthi(hi)) */
- vtbl.8 d4, {d8-d9}, d4
- vtbl.8 d5, {d8-d9}, d5
- vtbl.8 d6, {d10-d11}, d6
- vtbl.8 d7, {d10-d11}, d7
+ vtbl.8 d4, {q4}, d4
+ vtbl.8 d5, {q4}, d5
+ vtbl.8 d6, {q5}, d6
+ vtbl.8 d7, {q5}, d7
/* q0 := rk[0] + iptlo(lo) + ipthi(hi) */
veor q0, q14, q2
@@ -279,18 +279,18 @@
1: vld1.8 {q14}, [r0 :128]! /* q14 = *rk++ */
/* q0 := A = rk[i] + sb1_0(io) + sb1_1(jo) */
- vtbl.8 d24, {d12-d13}, d4
- vtbl.8 d25, {d12-d13}, d5
- vtbl.8 d26, {d14-d15}, d6
- vtbl.8 d27, {d14-d15}, d7
+ vtbl.8 d24, {q6}, d4
+ vtbl.8 d25, {q6}, d5
+ vtbl.8 d26, {q7}, d6
+ vtbl.8 d27, {q7}, d7
veor q0, q14, q12
veor q0, q0, q13
/* q14 := A2 = sb2_0[io] + sb2_1[jo] */
- vtbl.8 d24, {d16-d17}, d4
- vtbl.8 d25, {d16-d17}, d5
- vtbl.8 d26, {d18-d19}, d6
- vtbl.8 d27, {d18-d19}, d7
+ vtbl.8 d24, {q8}, d4
+ vtbl.8 d25, {q8}, d5
+ vtbl.8 d26, {q9}, d6
+ vtbl.8 d27, {q9}, d7
veor q14, q12, q13
/* (q12, q13) := (mc_forward[rmod4], mc_backward[rmod4]) */
@@ -300,18 +300,18 @@
vld1.8 {q13}, [r7 :128]
/* q15 := A2_B = A2 + A(mcf) */
- vtbl.8 d30, {d0-d1}, d24
- vtbl.8 d31, {d0-d1}, d25
+ vtbl.8 d30, {q0}, d24
+ vtbl.8 d31, {q0}, d25
veor q15, q15, q14
/* q14 := A2_B_D = A2_B + A(mcb) */
- vtbl.8 d28, {d0-d1}, d26
- vtbl.8 d29, {d0-d1}, d27
+ vtbl.8 d28, {q0}, d26
+ vtbl.8 d29, {q0}, d27
veor q14, q14, q15
/* q0 := x = A2_B_D + A2_B(mcf) */
- vtbl.8 d0, {d30-d31}, d24
- vtbl.8 d1, {d30-d31}, d25
+ vtbl.8 d0, {q15}, d24
+ vtbl.8 d1, {q15}, d25
veor q0, q0, q14
2: /*
@@ -324,19 +324,19 @@
vand q3, q3, q1 /* q3 := (x >> 4) & 0x0f0f... */
/* q0 := a/k */
- vtbl.8 d0, {d22-d23}, d4
- vtbl.8 d1, {d22-d23}, d5
+ vtbl.8 d0, {q11}, d4
+ vtbl.8 d1, {q11}, d5
/* q2 := j = i + k */
veor q2, q3, q2
/* q12 := ir = 1/i */
- vtbl.8 d24, {d20-d21}, d6
- vtbl.8 d25, {d20-d21}, d7
+ vtbl.8 d24, {q10}, d6
+ vtbl.8 d25, {q10}, d7
/* q13 := jr = 1/j */
- vtbl.8 d26, {d20-d21}, d4
- vtbl.8 d27, {d20-d21}, d5
+ vtbl.8 d26, {q10}, d4
+ vtbl.8 d27, {q10}, d5
/* q12 := iak = 1/i + a/k */
veor q12, q12, q0
@@ -345,12 +345,12 @@
veor q13, q13, q0
/* q12 := iakr = 1/(1/i + a/k) */
- vtbl.8 d24, {d20-d21}, d24
- vtbl.8 d25, {d20-d21}, d25
+ vtbl.8 d24, {q10}, d24
+ vtbl.8 d25, {q10}, d25
/* q13 := jakr = 1/(1/j + a/k) */
- vtbl.8 d26, {d20-d21}, d26
- vtbl.8 d27, {d20-d21}, d27
+ vtbl.8 d26, {q10}, d26
+ vtbl.8 d27, {q10}, d27
/* q2 := io = j + 1/(1/i + a/k) */
veor q2, q2, q12
@@ -374,18 +374,18 @@
vld1.8 {q14}, [r0 :128]! /* q14 = *rk++ */
/* (q2, q3) := (sbo_0(io), sbo_1(jo)) */
- vtbl.8 d4, {d12-d13}, d4
- vtbl.8 d5, {d12-d13}, d5
- vtbl.8 d6, {d14-d15}, d6
- vtbl.8 d7, {d14-d15}, d7
+ vtbl.8 d4, {q6}, d4
+ vtbl.8 d5, {q6}, d5
+ vtbl.8 d6, {q7}, d6
+ vtbl.8 d7, {q7}, d7
/* q2 := x = rk[nr] + sbo_0(io) + sbo_1(jo) */
veor q2, q2, q14
veor q2, q2, q3
/* q0 := x(sr[rmod4]) */
- vtbl.8 d0, {d4-d5}, d30
- vtbl.8 d1, {d4-d5}, d31
+ vtbl.8 d0, {q2}, d30
+ vtbl.8 d1, {q2}, d31
vpop {d8-d15}
pop {r4, r5, r6, r7, r8, r10, r11, lr}
@@ -479,10 +479,10 @@
vand q3, q3, q1 /* q3 := (x >> 4) & 0x0f0f... */
/* (q2, q3) := (diptlo(lo), dipthi(hi)) */
- vtbl.8 d4, {d8-d9}, d4
- vtbl.8 d5, {d8-d9}, d5
- vtbl.8 d6, {d10-d11}, d6
- vtbl.8 d7, {d10-d11}, d7
+ vtbl.8 d4, {q4}, d4
+ vtbl.8 d5, {q4}, d5
+ vtbl.8 d6, {q5}, d6
+ vtbl.8 d7, {q5}, d7
/* load dsb9 */
add r4, r12, #(dsb9 - .Lconstants)
@@ -502,22 +502,22 @@
vld1.8 {q14}, [r0 :128]! /* q14 = *rk++ */
/* q0 := rk[i] + dsb9_0(io) + dsb9_1(jo) */
- vtbl.8 d24, {d8-d9}, d4
- vtbl.8 d25, {d8-d9}, d5
- vtbl.8 d26, {d10-d11}, d6
- vtbl.8 d27, {d10-d11}, d7
+ vtbl.8 d24, {q4}, d4
+ vtbl.8 d25, {q4}, d5
+ vtbl.8 d26, {q5}, d6
+ vtbl.8 d27, {q5}, d7
veor q0, q14, q12
veor q0, q0, q13
/* q14 := x(mc) */
- vtbl.8 d28, {d0-d1}, d30
- vtbl.8 d29, {d0-d1}, d31
+ vtbl.8 d28, {q0}, d30
+ vtbl.8 d29, {q0}, d31
/* q0 := x(mc) + dsbd_0(io) + dsbd_1(jo) */
- vtbl.8 d24, {d16-d17}, d4
- vtbl.8 d25, {d16-d17}, d5
- vtbl.8 d26, {d18-d19}, d6
- vtbl.8 d27, {d18-d19}, d7
+ vtbl.8 d24, {q8}, d4
+ vtbl.8 d25, {q8}, d5
+ vtbl.8 d26, {q9}, d6
+ vtbl.8 d27, {q9}, d7
veor q0, q14, q12
veor q0, q0, q13
@@ -526,22 +526,22 @@
vld1.8 {q8-q9}, [r4 :256]! /* q8 := dsbe[0], q9 := dsbe[1] */
/* q0 := x(mc) + dsbb_0(io) + dsbb_1(jo) */
- vtbl.8 d28, {d0-d1}, d30
- vtbl.8 d29, {d0-d1}, d31
- vtbl.8 d24, {d12-d13}, d4
- vtbl.8 d25, {d12-d13}, d5
- vtbl.8 d26, {d14-d15}, d6
- vtbl.8 d27, {d14-d15}, d7
+ vtbl.8 d28, {q0}, d30
+ vtbl.8 d29, {q0}, d31
+ vtbl.8 d24, {q6}, d4
+ vtbl.8 d25, {q6}, d5
+ vtbl.8 d26, {q7}, d6
+ vtbl.8 d27, {q7}, d7
veor q0, q14, q12
veor q0, q0, q13
/* q0 := x(mc) + dsbe_0(io) + dsbe_1(jo) */
- vtbl.8 d28, {d0-d1}, d30
- vtbl.8 d29, {d0-d1}, d31
- vtbl.8 d24, {d16-d17}, d4
- vtbl.8 d25, {d16-d17}, d5
- vtbl.8 d26, {d18-d19}, d6
- vtbl.8 d27, {d18-d19}, d7
+ vtbl.8 d28, {q0}, d30
+ vtbl.8 d29, {q0}, d31
+ vtbl.8 d24, {q8}, d4
+ vtbl.8 d25, {q8}, d5
+ vtbl.8 d26, {q9}, d6
+ vtbl.8 d27, {q9}, d7
veor q0, q14, q12
veor q0, q0, q13
@@ -558,19 +558,19 @@
vand q3, q3, q1 /* q3 := (x >> 4) & 0x0f0f... */
/* q0 := a/k */
- vtbl.8 d0, {d22-d23}, d4
- vtbl.8 d1, {d22-d23}, d5
+ vtbl.8 d0, {q11}, d4
+ vtbl.8 d1, {q11}, d5
/* q2 := j = i + k */
veor q2, q3, q2
/* q12 := ir = 1/i */
- vtbl.8 d24, {d20-d21}, d6
- vtbl.8 d25, {d20-d21}, d7
+ vtbl.8 d24, {q10}, d6
+ vtbl.8 d25, {q10}, d7
/* q13 := jr = 1/j */
- vtbl.8 d26, {d20-d21}, d4
- vtbl.8 d27, {d20-d21}, d5
+ vtbl.8 d26, {q10}, d4
+ vtbl.8 d27, {q10}, d5
/* q12 := iak = 1/i + a/k */
veor q12, q12, q0
@@ -579,12 +579,12 @@
veor q13, q13, q0
/* q12 := iakr = 1/(1/i + a/k) */
- vtbl.8 d24, {d20-d21}, d24
- vtbl.8 d25, {d20-d21}, d25
+ vtbl.8 d24, {q10}, d24
+ vtbl.8 d25, {q10}, d25
/* q13 := jakr = 1/(1/j + a/k) */
- vtbl.8 d26, {d20-d21}, d26
- vtbl.8 d27, {d20-d21}, d27
+ vtbl.8 d26, {q10}, d26
+ vtbl.8 d27, {q10}, d27
/* q2 := io = j + 1/(1/i + a/k) */
veor q2, q2, q12
@@ -606,18 +606,18 @@
vld1.8 {q14}, [r0 :128]! /* q14 = *rk++ */
/* (q2, q3) := (dsbo_0(io), dsbo_1(jo)) */
- vtbl.8 d4, {d12-d13}, d4
- vtbl.8 d5, {d12-d13}, d5
- vtbl.8 d6, {d14-d15}, d6
- vtbl.8 d7, {d14-d15}, d7
+ vtbl.8 d4, {q6}, d4
+ vtbl.8 d5, {q6}, d5
+ vtbl.8 d6, {q7}, d6
+ vtbl.8 d7, {q7}, d7
/* q2 := x = rk[nr] + dsbo_0(io) + dsbo_1(jo) */
veor q2, q2, q14
veor q2, q2, q3
/* q0 := x(sr[i]) */
- vtbl.8 d0, {d4-d5}, d30
- vtbl.8 d1, {d4-d5}, d31
+ vtbl.8 d0, {q2}, d30
Home |
Main Index |
Thread Index |
Old Index