mirror of
https://github.com/ClickHouse/ClickHouse.git
synced 2024-12-15 10:52:30 +00:00
1537 lines
32 KiB
ArmAsm
1537 lines
32 KiB
ArmAsm
// This file is generated from a similarly-named Perl script in the BoringSSL
|
|
// source tree. Do not edit by hand.
|
|
|
|
#if !defined(__has_feature)
|
|
#define __has_feature(x) 0
|
|
#endif
|
|
#if __has_feature(memory_sanitizer) && !defined(OPENSSL_NO_ASM)
|
|
#define OPENSSL_NO_ASM
|
|
#endif
|
|
|
|
#if !defined(OPENSSL_NO_ASM)
|
|
#if defined(BORINGSSL_PREFIX)
|
|
#include <boringssl_prefix_symbols_asm.h>
|
|
#endif
|
|
@ Copyright 2012-2016 The OpenSSL Project Authors. All Rights Reserved.
|
|
@
|
|
@ Licensed under the OpenSSL license (the "License"). You may not use
|
|
@ this file except in compliance with the License. You can obtain a copy
|
|
@ in the file LICENSE in the source distribution or at
|
|
@ https://www.openssl.org/source/license.html
|
|
|
|
|
|
@ ====================================================================
|
|
@ Written by Andy Polyakov <appro@openssl.org> for the OpenSSL
|
|
@ project. The module is, however, dual licensed under OpenSSL and
|
|
@ CRYPTOGAMS licenses depending on where you obtain it. For further
|
|
@ details see http://www.openssl.org/~appro/cryptogams/.
|
|
@
|
|
@ Specific modes and adaptation for Linux kernel by Ard Biesheuvel
|
|
@ of Linaro. Permission to use under GPL terms is granted.
|
|
@ ====================================================================
|
|
|
|
@ Bit-sliced AES for ARM NEON
|
|
@
|
|
@ February 2012.
|
|
@
|
|
@ This implementation is direct adaptation of bsaes-x86_64 module for
|
|
@ ARM NEON. Except that this module is endian-neutral [in sense that
|
|
@ it can be compiled for either endianness] by courtesy of vld1.8's
|
|
@ neutrality. Initial version doesn't implement interface to OpenSSL,
|
|
@ only low-level primitives and unsupported entry points, just enough
|
|
@ to collect performance results, which for Cortex-A8 core are:
|
|
@
|
|
@ encrypt 19.5 cycles per byte processed with 128-bit key
|
|
@ decrypt 22.1 cycles per byte processed with 128-bit key
|
|
@ key conv. 440 cycles per 128-bit key/0.18 of 8x block
|
|
@
|
|
@ Snapdragon S4 encrypts byte in 17.6 cycles and decrypts in 19.7,
|
|
@ which is [much] worse than anticipated (for further details see
|
|
@ http://www.openssl.org/~appro/Snapdragon-S4.html).
|
|
@
|
|
@ Cortex-A15 manages in 14.2/16.1 cycles [when integer-only code
|
|
@ manages in 20.0 cycles].
|
|
@
|
|
@ When comparing to x86_64 results keep in mind that NEON unit is
|
|
@ [mostly] single-issue and thus can't [fully] benefit from
|
|
@ instruction-level parallelism. And when comparing to aes-armv4
|
|
@ results keep in mind key schedule conversion overhead (see
|
|
@ bsaes-x86_64.pl for further details)...
|
|
@
|
|
@ <appro@openssl.org>
|
|
|
|
@ April-August 2013
|
|
@ Add CBC, CTR and XTS subroutines and adapt for kernel use; courtesy of Ard.
|
|
|
|
#ifndef __KERNEL__
|
|
# include <openssl/arm_arch.h>
|
|
|
|
# define VFP_ABI_PUSH vstmdb sp!,{d8-d15}
|
|
# define VFP_ABI_POP vldmia sp!,{d8-d15}
|
|
# define VFP_ABI_FRAME 0x40
|
|
#else
|
|
# define VFP_ABI_PUSH
|
|
# define VFP_ABI_POP
|
|
# define VFP_ABI_FRAME 0
|
|
# define BSAES_ASM_EXTENDED_KEY
|
|
# define XTS_CHAIN_TWEAK
|
|
# define __ARM_ARCH__ __LINUX_ARM_ARCH__
|
|
# define __ARM_MAX_ARCH__ 7
|
|
#endif
|
|
|
|
#ifdef __thumb__
|
|
# define adrl adr
|
|
#endif
|
|
|
|
#if __ARM_MAX_ARCH__>=7
|
|
|
|
|
|
|
|
.text
|
|
.syntax unified @ ARMv7-capable assembler is expected to handle this
|
|
#if defined(__thumb2__) && !defined(__APPLE__)
|
|
.thumb
|
|
#else
|
|
.code 32
|
|
# undef __thumb2__
|
|
#endif
|
|
|
|
#ifdef __thumb2__
|
|
.thumb_func _bsaes_decrypt8
|
|
#endif
|
|
.align 4
|
|
_bsaes_decrypt8:
|
|
adr r6,.
|
|
vldmia r4!, {q9} @ round 0 key
|
|
#if defined(__thumb2__) || defined(__APPLE__)
|
|
adr r6,LM0ISR
|
|
#else
|
|
add r6,r6,#LM0ISR-_bsaes_decrypt8
|
|
#endif
|
|
|
|
vldmia r6!, {q8} @ LM0ISR
|
|
veor q10, q0, q9 @ xor with round0 key
|
|
veor q11, q1, q9
|
|
vtbl.8 d0, {q10}, d16
|
|
vtbl.8 d1, {q10}, d17
|
|
veor q12, q2, q9
|
|
vtbl.8 d2, {q11}, d16
|
|
vtbl.8 d3, {q11}, d17
|
|
veor q13, q3, q9
|
|
vtbl.8 d4, {q12}, d16
|
|
vtbl.8 d5, {q12}, d17
|
|
veor q14, q4, q9
|
|
vtbl.8 d6, {q13}, d16
|
|
vtbl.8 d7, {q13}, d17
|
|
veor q15, q5, q9
|
|
vtbl.8 d8, {q14}, d16
|
|
vtbl.8 d9, {q14}, d17
|
|
veor q10, q6, q9
|
|
vtbl.8 d10, {q15}, d16
|
|
vtbl.8 d11, {q15}, d17
|
|
veor q11, q7, q9
|
|
vtbl.8 d12, {q10}, d16
|
|
vtbl.8 d13, {q10}, d17
|
|
vtbl.8 d14, {q11}, d16
|
|
vtbl.8 d15, {q11}, d17
|
|
vmov.i8 q8,#0x55 @ compose LBS0
|
|
vmov.i8 q9,#0x33 @ compose LBS1
|
|
vshr.u64 q10, q6, #1
|
|
vshr.u64 q11, q4, #1
|
|
veor q10, q10, q7
|
|
veor q11, q11, q5
|
|
vand q10, q10, q8
|
|
vand q11, q11, q8
|
|
veor q7, q7, q10
|
|
vshl.u64 q10, q10, #1
|
|
veor q5, q5, q11
|
|
vshl.u64 q11, q11, #1
|
|
veor q6, q6, q10
|
|
veor q4, q4, q11
|
|
vshr.u64 q10, q2, #1
|
|
vshr.u64 q11, q0, #1
|
|
veor q10, q10, q3
|
|
veor q11, q11, q1
|
|
vand q10, q10, q8
|
|
vand q11, q11, q8
|
|
veor q3, q3, q10
|
|
vshl.u64 q10, q10, #1
|
|
veor q1, q1, q11
|
|
vshl.u64 q11, q11, #1
|
|
veor q2, q2, q10
|
|
veor q0, q0, q11
|
|
vmov.i8 q8,#0x0f @ compose LBS2
|
|
vshr.u64 q10, q5, #2
|
|
vshr.u64 q11, q4, #2
|
|
veor q10, q10, q7
|
|
veor q11, q11, q6
|
|
vand q10, q10, q9
|
|
vand q11, q11, q9
|
|
veor q7, q7, q10
|
|
vshl.u64 q10, q10, #2
|
|
veor q6, q6, q11
|
|
vshl.u64 q11, q11, #2
|
|
veor q5, q5, q10
|
|
veor q4, q4, q11
|
|
vshr.u64 q10, q1, #2
|
|
vshr.u64 q11, q0, #2
|
|
veor q10, q10, q3
|
|
veor q11, q11, q2
|
|
vand q10, q10, q9
|
|
vand q11, q11, q9
|
|
veor q3, q3, q10
|
|
vshl.u64 q10, q10, #2
|
|
veor q2, q2, q11
|
|
vshl.u64 q11, q11, #2
|
|
veor q1, q1, q10
|
|
veor q0, q0, q11
|
|
vshr.u64 q10, q3, #4
|
|
vshr.u64 q11, q2, #4
|
|
veor q10, q10, q7
|
|
veor q11, q11, q6
|
|
vand q10, q10, q8
|
|
vand q11, q11, q8
|
|
veor q7, q7, q10
|
|
vshl.u64 q10, q10, #4
|
|
veor q6, q6, q11
|
|
vshl.u64 q11, q11, #4
|
|
veor q3, q3, q10
|
|
veor q2, q2, q11
|
|
vshr.u64 q10, q1, #4
|
|
vshr.u64 q11, q0, #4
|
|
veor q10, q10, q5
|
|
veor q11, q11, q4
|
|
vand q10, q10, q8
|
|
vand q11, q11, q8
|
|
veor q5, q5, q10
|
|
vshl.u64 q10, q10, #4
|
|
veor q4, q4, q11
|
|
vshl.u64 q11, q11, #4
|
|
veor q1, q1, q10
|
|
veor q0, q0, q11
|
|
sub r5,r5,#1
|
|
b Ldec_sbox
|
|
.align 4
|
|
Ldec_loop:
|
|
vldmia r4!, {q8,q9,q10,q11}
|
|
veor q8, q8, q0
|
|
veor q9, q9, q1
|
|
vtbl.8 d0, {q8}, d24
|
|
vtbl.8 d1, {q8}, d25
|
|
vldmia r4!, {q8}
|
|
veor q10, q10, q2
|
|
vtbl.8 d2, {q9}, d24
|
|
vtbl.8 d3, {q9}, d25
|
|
vldmia r4!, {q9}
|
|
veor q11, q11, q3
|
|
vtbl.8 d4, {q10}, d24
|
|
vtbl.8 d5, {q10}, d25
|
|
vldmia r4!, {q10}
|
|
vtbl.8 d6, {q11}, d24
|
|
vtbl.8 d7, {q11}, d25
|
|
vldmia r4!, {q11}
|
|
veor q8, q8, q4
|
|
veor q9, q9, q5
|
|
vtbl.8 d8, {q8}, d24
|
|
vtbl.8 d9, {q8}, d25
|
|
veor q10, q10, q6
|
|
vtbl.8 d10, {q9}, d24
|
|
vtbl.8 d11, {q9}, d25
|
|
veor q11, q11, q7
|
|
vtbl.8 d12, {q10}, d24
|
|
vtbl.8 d13, {q10}, d25
|
|
vtbl.8 d14, {q11}, d24
|
|
vtbl.8 d15, {q11}, d25
|
|
Ldec_sbox:
|
|
veor q1, q1, q4
|
|
veor q3, q3, q4
|
|
|
|
veor q4, q4, q7
|
|
veor q1, q1, q6
|
|
veor q2, q2, q7
|
|
veor q6, q6, q4
|
|
|
|
veor q0, q0, q1
|
|
veor q2, q2, q5
|
|
veor q7, q7, q6
|
|
veor q3, q3, q0
|
|
veor q5, q5, q0
|
|
veor q1, q1, q3
|
|
veor q11, q3, q0
|
|
veor q10, q7, q4
|
|
veor q9, q1, q6
|
|
veor q13, q4, q0
|
|
vmov q8, q10
|
|
veor q12, q5, q2
|
|
|
|
vorr q10, q10, q9
|
|
veor q15, q11, q8
|
|
vand q14, q11, q12
|
|
vorr q11, q11, q12
|
|
veor q12, q12, q9
|
|
vand q8, q8, q9
|
|
veor q9, q6, q2
|
|
vand q15, q15, q12
|
|
vand q13, q13, q9
|
|
veor q9, q3, q7
|
|
veor q12, q1, q5
|
|
veor q11, q11, q13
|
|
veor q10, q10, q13
|
|
vand q13, q9, q12
|
|
vorr q9, q9, q12
|
|
veor q11, q11, q15
|
|
veor q8, q8, q13
|
|
veor q10, q10, q14
|
|
veor q9, q9, q15
|
|
veor q8, q8, q14
|
|
vand q12, q4, q6
|
|
veor q9, q9, q14
|
|
vand q13, q0, q2
|
|
vand q14, q7, q1
|
|
vorr q15, q3, q5
|
|
veor q11, q11, q12
|
|
veor q9, q9, q14
|
|
veor q8, q8, q15
|
|
veor q10, q10, q13
|
|
|
|
@ Inv_GF16 0, 1, 2, 3, s0, s1, s2, s3
|
|
|
|
@ new smaller inversion
|
|
|
|
vand q14, q11, q9
|
|
vmov q12, q8
|
|
|
|
veor q13, q10, q14
|
|
veor q15, q8, q14
|
|
veor q14, q8, q14 @ q14=q15
|
|
|
|
vbsl q13, q9, q8
|
|
vbsl q15, q11, q10
|
|
veor q11, q11, q10
|
|
|
|
vbsl q12, q13, q14
|
|
vbsl q8, q14, q13
|
|
|
|
vand q14, q12, q15
|
|
veor q9, q9, q8
|
|
|
|
veor q14, q14, q11
|
|
veor q12, q5, q2
|
|
veor q8, q1, q6
|
|
veor q10, q15, q14
|
|
vand q10, q10, q5
|
|
veor q5, q5, q1
|
|
vand q11, q1, q15
|
|
vand q5, q5, q14
|
|
veor q1, q11, q10
|
|
veor q5, q5, q11
|
|
veor q15, q15, q13
|
|
veor q14, q14, q9
|
|
veor q11, q15, q14
|
|
veor q10, q13, q9
|
|
vand q11, q11, q12
|
|
vand q10, q10, q2
|
|
veor q12, q12, q8
|
|
veor q2, q2, q6
|
|
vand q8, q8, q15
|
|
vand q6, q6, q13
|
|
vand q12, q12, q14
|
|
vand q2, q2, q9
|
|
veor q8, q8, q12
|
|
veor q2, q2, q6
|
|
veor q12, q12, q11
|
|
veor q6, q6, q10
|
|
veor q5, q5, q12
|
|
veor q2, q2, q12
|
|
veor q1, q1, q8
|
|
veor q6, q6, q8
|
|
|
|
veor q12, q3, q0
|
|
veor q8, q7, q4
|
|
veor q11, q15, q14
|
|
veor q10, q13, q9
|
|
vand q11, q11, q12
|
|
vand q10, q10, q0
|
|
veor q12, q12, q8
|
|
veor q0, q0, q4
|
|
vand q8, q8, q15
|
|
vand q4, q4, q13
|
|
vand q12, q12, q14
|
|
vand q0, q0, q9
|
|
veor q8, q8, q12
|
|
veor q0, q0, q4
|
|
veor q12, q12, q11
|
|
veor q4, q4, q10
|
|
veor q15, q15, q13
|
|
veor q14, q14, q9
|
|
veor q10, q15, q14
|
|
vand q10, q10, q3
|
|
veor q3, q3, q7
|
|
vand q11, q7, q15
|
|
vand q3, q3, q14
|
|
veor q7, q11, q10
|
|
veor q3, q3, q11
|
|
veor q3, q3, q12
|
|
veor q0, q0, q12
|
|
veor q7, q7, q8
|
|
veor q4, q4, q8
|
|
veor q1, q1, q7
|
|
veor q6, q6, q5
|
|
|
|
veor q4, q4, q1
|
|
veor q2, q2, q7
|
|
veor q5, q5, q7
|
|
veor q4, q4, q2
|
|
veor q7, q7, q0
|
|
veor q4, q4, q5
|
|
veor q3, q3, q6
|
|
veor q6, q6, q1
|
|
veor q3, q3, q4
|
|
|
|
veor q4, q4, q0
|
|
veor q7, q7, q3
|
|
subs r5,r5,#1
|
|
bcc Ldec_done
|
|
@ multiplication by 0x05-0x00-0x04-0x00
|
|
vext.8 q8, q0, q0, #8
|
|
vext.8 q14, q3, q3, #8
|
|
vext.8 q15, q5, q5, #8
|
|
veor q8, q8, q0
|
|
vext.8 q9, q1, q1, #8
|
|
veor q14, q14, q3
|
|
vext.8 q10, q6, q6, #8
|
|
veor q15, q15, q5
|
|
vext.8 q11, q4, q4, #8
|
|
veor q9, q9, q1
|
|
vext.8 q12, q2, q2, #8
|
|
veor q10, q10, q6
|
|
vext.8 q13, q7, q7, #8
|
|
veor q11, q11, q4
|
|
veor q12, q12, q2
|
|
veor q13, q13, q7
|
|
|
|
veor q0, q0, q14
|
|
veor q1, q1, q14
|
|
veor q6, q6, q8
|
|
veor q2, q2, q10
|
|
veor q4, q4, q9
|
|
veor q1, q1, q15
|
|
veor q6, q6, q15
|
|
veor q2, q2, q14
|
|
veor q7, q7, q11
|
|
veor q4, q4, q14
|
|
veor q3, q3, q12
|
|
veor q2, q2, q15
|
|
veor q7, q7, q15
|
|
veor q5, q5, q13
|
|
vext.8 q8, q0, q0, #12 @ x0 <<< 32
|
|
vext.8 q9, q1, q1, #12
|
|
veor q0, q0, q8 @ x0 ^ (x0 <<< 32)
|
|
vext.8 q10, q6, q6, #12
|
|
veor q1, q1, q9
|
|
vext.8 q11, q4, q4, #12
|
|
veor q6, q6, q10
|
|
vext.8 q12, q2, q2, #12
|
|
veor q4, q4, q11
|
|
vext.8 q13, q7, q7, #12
|
|
veor q2, q2, q12
|
|
vext.8 q14, q3, q3, #12
|
|
veor q7, q7, q13
|
|
vext.8 q15, q5, q5, #12
|
|
veor q3, q3, q14
|
|
|
|
veor q9, q9, q0
|
|
veor q5, q5, q15
|
|
vext.8 q0, q0, q0, #8 @ (x0 ^ (x0 <<< 32)) <<< 64)
|
|
veor q10, q10, q1
|
|
veor q8, q8, q5
|
|
veor q9, q9, q5
|
|
vext.8 q1, q1, q1, #8
|
|
veor q13, q13, q2
|
|
veor q0, q0, q8
|
|
veor q14, q14, q7
|
|
veor q1, q1, q9
|
|
vext.8 q8, q2, q2, #8
|
|
veor q12, q12, q4
|
|
vext.8 q9, q7, q7, #8
|
|
veor q15, q15, q3
|
|
vext.8 q2, q4, q4, #8
|
|
veor q11, q11, q6
|
|
vext.8 q7, q5, q5, #8
|
|
veor q12, q12, q5
|
|
vext.8 q4, q3, q3, #8
|
|
veor q11, q11, q5
|
|
vext.8 q3, q6, q6, #8
|
|
veor q5, q9, q13
|
|
veor q11, q11, q2
|
|
veor q7, q7, q15
|
|
veor q6, q4, q14
|
|
veor q4, q8, q12
|
|
veor q2, q3, q10
|
|
vmov q3, q11
|
|
@ vmov q5, q9
|
|
vldmia r6, {q12} @ LISR
|
|
ite eq @ Thumb2 thing, sanity check in ARM
|
|
addeq r6,r6,#0x10
|
|
bne Ldec_loop
|
|
vldmia r6, {q12} @ LISRM0
|
|
b Ldec_loop
|
|
.align 4
|
|
Ldec_done:
|
|
vmov.i8 q8,#0x55 @ compose LBS0
|
|
vmov.i8 q9,#0x33 @ compose LBS1
|
|
vshr.u64 q10, q3, #1
|
|
vshr.u64 q11, q2, #1
|
|
veor q10, q10, q5
|
|
veor q11, q11, q7
|
|
vand q10, q10, q8
|
|
vand q11, q11, q8
|
|
veor q5, q5, q10
|
|
vshl.u64 q10, q10, #1
|
|
veor q7, q7, q11
|
|
vshl.u64 q11, q11, #1
|
|
veor q3, q3, q10
|
|
veor q2, q2, q11
|
|
vshr.u64 q10, q6, #1
|
|
vshr.u64 q11, q0, #1
|
|
veor q10, q10, q4
|
|
veor q11, q11, q1
|
|
vand q10, q10, q8
|
|
vand q11, q11, q8
|
|
veor q4, q4, q10
|
|
vshl.u64 q10, q10, #1
|
|
veor q1, q1, q11
|
|
vshl.u64 q11, q11, #1
|
|
veor q6, q6, q10
|
|
veor q0, q0, q11
|
|
vmov.i8 q8,#0x0f @ compose LBS2
|
|
vshr.u64 q10, q7, #2
|
|
vshr.u64 q11, q2, #2
|
|
veor q10, q10, q5
|
|
veor q11, q11, q3
|
|
vand q10, q10, q9
|
|
vand q11, q11, q9
|
|
veor q5, q5, q10
|
|
vshl.u64 q10, q10, #2
|
|
veor q3, q3, q11
|
|
vshl.u64 q11, q11, #2
|
|
veor q7, q7, q10
|
|
veor q2, q2, q11
|
|
vshr.u64 q10, q1, #2
|
|
vshr.u64 q11, q0, #2
|
|
veor q10, q10, q4
|
|
veor q11, q11, q6
|
|
vand q10, q10, q9
|
|
vand q11, q11, q9
|
|
veor q4, q4, q10
|
|
vshl.u64 q10, q10, #2
|
|
veor q6, q6, q11
|
|
vshl.u64 q11, q11, #2
|
|
veor q1, q1, q10
|
|
veor q0, q0, q11
|
|
vshr.u64 q10, q4, #4
|
|
vshr.u64 q11, q6, #4
|
|
veor q10, q10, q5
|
|
veor q11, q11, q3
|
|
vand q10, q10, q8
|
|
vand q11, q11, q8
|
|
veor q5, q5, q10
|
|
vshl.u64 q10, q10, #4
|
|
veor q3, q3, q11
|
|
vshl.u64 q11, q11, #4
|
|
veor q4, q4, q10
|
|
veor q6, q6, q11
|
|
vshr.u64 q10, q1, #4
|
|
vshr.u64 q11, q0, #4
|
|
veor q10, q10, q7
|
|
veor q11, q11, q2
|
|
vand q10, q10, q8
|
|
vand q11, q11, q8
|
|
veor q7, q7, q10
|
|
vshl.u64 q10, q10, #4
|
|
veor q2, q2, q11
|
|
vshl.u64 q11, q11, #4
|
|
veor q1, q1, q10
|
|
veor q0, q0, q11
|
|
vldmia r4, {q8} @ last round key
|
|
veor q6, q6, q8
|
|
veor q4, q4, q8
|
|
veor q2, q2, q8
|
|
veor q7, q7, q8
|
|
veor q3, q3, q8
|
|
veor q5, q5, q8
|
|
veor q0, q0, q8
|
|
veor q1, q1, q8
|
|
bx lr
|
|
|
|
|
|
|
|
.align 6
|
|
_bsaes_const:
|
|
LM0ISR:@ InvShiftRows constants
|
|
.quad 0x0a0e0206070b0f03, 0x0004080c0d010509
|
|
LISR:
|
|
.quad 0x0504070602010003, 0x0f0e0d0c080b0a09
|
|
LISRM0:
|
|
.quad 0x01040b0e0205080f, 0x0306090c00070a0d
|
|
LM0SR:@ ShiftRows constants
|
|
.quad 0x0a0e02060f03070b, 0x0004080c05090d01
|
|
LSR:
|
|
.quad 0x0504070600030201, 0x0f0e0d0c0a09080b
|
|
LSRM0:
|
|
.quad 0x0304090e00050a0f, 0x01060b0c0207080d
|
|
LM0:
|
|
.quad 0x02060a0e03070b0f, 0x0004080c0105090d
|
|
LREVM0SR:
|
|
.quad 0x090d01050c000408, 0x03070b0f060a0e02
|
|
.byte 66,105,116,45,115,108,105,99,101,100,32,65,69,83,32,102,111,114,32,78,69,79,78,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0
|
|
.align 2
|
|
.align 6
|
|
|
|
|
|
#ifdef __thumb2__
|
|
.thumb_func _bsaes_encrypt8
|
|
#endif
|
|
.align 4
|
|
_bsaes_encrypt8:
|
|
adr r6,.
|
|
vldmia r4!, {q9} @ round 0 key
|
|
#if defined(__thumb2__) || defined(__APPLE__)
|
|
adr r6,LM0SR
|
|
#else
|
|
sub r6,r6,#_bsaes_encrypt8-LM0SR
|
|
#endif
|
|
|
|
vldmia r6!, {q8} @ LM0SR
|
|
_bsaes_encrypt8_alt:
|
|
veor q10, q0, q9 @ xor with round0 key
|
|
veor q11, q1, q9
|
|
vtbl.8 d0, {q10}, d16
|
|
vtbl.8 d1, {q10}, d17
|
|
veor q12, q2, q9
|
|
vtbl.8 d2, {q11}, d16
|
|
vtbl.8 d3, {q11}, d17
|
|
veor q13, q3, q9
|
|
vtbl.8 d4, {q12}, d16
|
|
vtbl.8 d5, {q12}, d17
|
|
veor q14, q4, q9
|
|
vtbl.8 d6, {q13}, d16
|
|
vtbl.8 d7, {q13}, d17
|
|
veor q15, q5, q9
|
|
vtbl.8 d8, {q14}, d16
|
|
vtbl.8 d9, {q14}, d17
|
|
veor q10, q6, q9
|
|
vtbl.8 d10, {q15}, d16
|
|
vtbl.8 d11, {q15}, d17
|
|
veor q11, q7, q9
|
|
vtbl.8 d12, {q10}, d16
|
|
vtbl.8 d13, {q10}, d17
|
|
vtbl.8 d14, {q11}, d16
|
|
vtbl.8 d15, {q11}, d17
|
|
_bsaes_encrypt8_bitslice:
|
|
vmov.i8 q8,#0x55 @ compose LBS0
|
|
vmov.i8 q9,#0x33 @ compose LBS1
|
|
vshr.u64 q10, q6, #1
|
|
vshr.u64 q11, q4, #1
|
|
veor q10, q10, q7
|
|
veor q11, q11, q5
|
|
vand q10, q10, q8
|
|
vand q11, q11, q8
|
|
veor q7, q7, q10
|
|
vshl.u64 q10, q10, #1
|
|
veor q5, q5, q11
|
|
vshl.u64 q11, q11, #1
|
|
veor q6, q6, q10
|
|
veor q4, q4, q11
|
|
vshr.u64 q10, q2, #1
|
|
vshr.u64 q11, q0, #1
|
|
veor q10, q10, q3
|
|
veor q11, q11, q1
|
|
vand q10, q10, q8
|
|
vand q11, q11, q8
|
|
veor q3, q3, q10
|
|
vshl.u64 q10, q10, #1
|
|
veor q1, q1, q11
|
|
vshl.u64 q11, q11, #1
|
|
veor q2, q2, q10
|
|
veor q0, q0, q11
|
|
vmov.i8 q8,#0x0f @ compose LBS2
|
|
vshr.u64 q10, q5, #2
|
|
vshr.u64 q11, q4, #2
|
|
veor q10, q10, q7
|
|
veor q11, q11, q6
|
|
vand q10, q10, q9
|
|
vand q11, q11, q9
|
|
veor q7, q7, q10
|
|
vshl.u64 q10, q10, #2
|
|
veor q6, q6, q11
|
|
vshl.u64 q11, q11, #2
|
|
veor q5, q5, q10
|
|
veor q4, q4, q11
|
|
vshr.u64 q10, q1, #2
|
|
vshr.u64 q11, q0, #2
|
|
veor q10, q10, q3
|
|
veor q11, q11, q2
|
|
vand q10, q10, q9
|
|
vand q11, q11, q9
|
|
veor q3, q3, q10
|
|
vshl.u64 q10, q10, #2
|
|
veor q2, q2, q11
|
|
vshl.u64 q11, q11, #2
|
|
veor q1, q1, q10
|
|
veor q0, q0, q11
|
|
vshr.u64 q10, q3, #4
|
|
vshr.u64 q11, q2, #4
|
|
veor q10, q10, q7
|
|
veor q11, q11, q6
|
|
vand q10, q10, q8
|
|
vand q11, q11, q8
|
|
veor q7, q7, q10
|
|
vshl.u64 q10, q10, #4
|
|
veor q6, q6, q11
|
|
vshl.u64 q11, q11, #4
|
|
veor q3, q3, q10
|
|
veor q2, q2, q11
|
|
vshr.u64 q10, q1, #4
|
|
vshr.u64 q11, q0, #4
|
|
veor q10, q10, q5
|
|
veor q11, q11, q4
|
|
vand q10, q10, q8
|
|
vand q11, q11, q8
|
|
veor q5, q5, q10
|
|
vshl.u64 q10, q10, #4
|
|
veor q4, q4, q11
|
|
vshl.u64 q11, q11, #4
|
|
veor q1, q1, q10
|
|
veor q0, q0, q11
|
|
sub r5,r5,#1
|
|
b Lenc_sbox
|
|
.align 4
|
|
Lenc_loop:
|
|
vldmia r4!, {q8,q9,q10,q11}
|
|
veor q8, q8, q0
|
|
veor q9, q9, q1
|
|
vtbl.8 d0, {q8}, d24
|
|
vtbl.8 d1, {q8}, d25
|
|
vldmia r4!, {q8}
|
|
veor q10, q10, q2
|
|
vtbl.8 d2, {q9}, d24
|
|
vtbl.8 d3, {q9}, d25
|
|
vldmia r4!, {q9}
|
|
veor q11, q11, q3
|
|
vtbl.8 d4, {q10}, d24
|
|
vtbl.8 d5, {q10}, d25
|
|
vldmia r4!, {q10}
|
|
vtbl.8 d6, {q11}, d24
|
|
vtbl.8 d7, {q11}, d25
|
|
vldmia r4!, {q11}
|
|
veor q8, q8, q4
|
|
veor q9, q9, q5
|
|
vtbl.8 d8, {q8}, d24
|
|
vtbl.8 d9, {q8}, d25
|
|
veor q10, q10, q6
|
|
vtbl.8 d10, {q9}, d24
|
|
vtbl.8 d11, {q9}, d25
|
|
veor q11, q11, q7
|
|
vtbl.8 d12, {q10}, d24
|
|
vtbl.8 d13, {q10}, d25
|
|
vtbl.8 d14, {q11}, d24
|
|
vtbl.8 d15, {q11}, d25
|
|
Lenc_sbox:
|
|
veor q2, q2, q1
|
|
veor q5, q5, q6
|
|
veor q3, q3, q0
|
|
veor q6, q6, q2
|
|
veor q5, q5, q0
|
|
|
|
veor q6, q6, q3
|
|
veor q3, q3, q7
|
|
veor q7, q7, q5
|
|
veor q3, q3, q4
|
|
veor q4, q4, q5
|
|
|
|
veor q2, q2, q7
|
|
veor q3, q3, q1
|
|
veor q1, q1, q5
|
|
veor q11, q7, q4
|
|
veor q10, q1, q2
|
|
veor q9, q5, q3
|
|
veor q13, q2, q4
|
|
vmov q8, q10
|
|
veor q12, q6, q0
|
|
|
|
vorr q10, q10, q9
|
|
veor q15, q11, q8
|
|
vand q14, q11, q12
|
|
vorr q11, q11, q12
|
|
veor q12, q12, q9
|
|
vand q8, q8, q9
|
|
veor q9, q3, q0
|
|
vand q15, q15, q12
|
|
vand q13, q13, q9
|
|
veor q9, q7, q1
|
|
veor q12, q5, q6
|
|
veor q11, q11, q13
|
|
veor q10, q10, q13
|
|
vand q13, q9, q12
|
|
vorr q9, q9, q12
|
|
veor q11, q11, q15
|
|
veor q8, q8, q13
|
|
veor q10, q10, q14
|
|
veor q9, q9, q15
|
|
veor q8, q8, q14
|
|
vand q12, q2, q3
|
|
veor q9, q9, q14
|
|
vand q13, q4, q0
|
|
vand q14, q1, q5
|
|
vorr q15, q7, q6
|
|
veor q11, q11, q12
|
|
veor q9, q9, q14
|
|
veor q8, q8, q15
|
|
veor q10, q10, q13
|
|
|
|
@ Inv_GF16 0, 1, 2, 3, s0, s1, s2, s3
|
|
|
|
@ new smaller inversion
|
|
|
|
vand q14, q11, q9
|
|
vmov q12, q8
|
|
|
|
veor q13, q10, q14
|
|
veor q15, q8, q14
|
|
veor q14, q8, q14 @ q14=q15
|
|
|
|
vbsl q13, q9, q8
|
|
vbsl q15, q11, q10
|
|
veor q11, q11, q10
|
|
|
|
vbsl q12, q13, q14
|
|
vbsl q8, q14, q13
|
|
|
|
vand q14, q12, q15
|
|
veor q9, q9, q8
|
|
|
|
veor q14, q14, q11
|
|
veor q12, q6, q0
|
|
veor q8, q5, q3
|
|
veor q10, q15, q14
|
|
vand q10, q10, q6
|
|
veor q6, q6, q5
|
|
vand q11, q5, q15
|
|
vand q6, q6, q14
|
|
veor q5, q11, q10
|
|
veor q6, q6, q11
|
|
veor q15, q15, q13
|
|
veor q14, q14, q9
|
|
veor q11, q15, q14
|
|
veor q10, q13, q9
|
|
vand q11, q11, q12
|
|
vand q10, q10, q0
|
|
veor q12, q12, q8
|
|
veor q0, q0, q3
|
|
vand q8, q8, q15
|
|
vand q3, q3, q13
|
|
vand q12, q12, q14
|
|
vand q0, q0, q9
|
|
veor q8, q8, q12
|
|
veor q0, q0, q3
|
|
veor q12, q12, q11
|
|
veor q3, q3, q10
|
|
veor q6, q6, q12
|
|
veor q0, q0, q12
|
|
veor q5, q5, q8
|
|
veor q3, q3, q8
|
|
|
|
veor q12, q7, q4
|
|
veor q8, q1, q2
|
|
veor q11, q15, q14
|
|
veor q10, q13, q9
|
|
vand q11, q11, q12
|
|
vand q10, q10, q4
|
|
veor q12, q12, q8
|
|
veor q4, q4, q2
|
|
vand q8, q8, q15
|
|
vand q2, q2, q13
|
|
vand q12, q12, q14
|
|
vand q4, q4, q9
|
|
veor q8, q8, q12
|
|
veor q4, q4, q2
|
|
veor q12, q12, q11
|
|
veor q2, q2, q10
|
|
veor q15, q15, q13
|
|
veor q14, q14, q9
|
|
veor q10, q15, q14
|
|
vand q10, q10, q7
|
|
veor q7, q7, q1
|
|
vand q11, q1, q15
|
|
vand q7, q7, q14
|
|
veor q1, q11, q10
|
|
veor q7, q7, q11
|
|
veor q7, q7, q12
|
|
veor q4, q4, q12
|
|
veor q1, q1, q8
|
|
veor q2, q2, q8
|
|
veor q7, q7, q0
|
|
veor q1, q1, q6
|
|
veor q6, q6, q0
|
|
veor q4, q4, q7
|
|
veor q0, q0, q1
|
|
|
|
veor q1, q1, q5
|
|
veor q5, q5, q2
|
|
veor q2, q2, q3
|
|
veor q3, q3, q5
|
|
veor q4, q4, q5
|
|
|
|
veor q6, q6, q3
|
|
subs r5,r5,#1
|
|
bcc Lenc_done
|
|
vext.8 q8, q0, q0, #12 @ x0 <<< 32
|
|
vext.8 q9, q1, q1, #12
|
|
veor q0, q0, q8 @ x0 ^ (x0 <<< 32)
|
|
vext.8 q10, q4, q4, #12
|
|
veor q1, q1, q9
|
|
vext.8 q11, q6, q6, #12
|
|
veor q4, q4, q10
|
|
vext.8 q12, q3, q3, #12
|
|
veor q6, q6, q11
|
|
vext.8 q13, q7, q7, #12
|
|
veor q3, q3, q12
|
|
vext.8 q14, q2, q2, #12
|
|
veor q7, q7, q13
|
|
vext.8 q15, q5, q5, #12
|
|
veor q2, q2, q14
|
|
|
|
veor q9, q9, q0
|
|
veor q5, q5, q15
|
|
vext.8 q0, q0, q0, #8 @ (x0 ^ (x0 <<< 32)) <<< 64)
|
|
veor q10, q10, q1
|
|
veor q8, q8, q5
|
|
veor q9, q9, q5
|
|
vext.8 q1, q1, q1, #8
|
|
veor q13, q13, q3
|
|
veor q0, q0, q8
|
|
veor q14, q14, q7
|
|
veor q1, q1, q9
|
|
vext.8 q8, q3, q3, #8
|
|
veor q12, q12, q6
|
|
vext.8 q9, q7, q7, #8
|
|
veor q15, q15, q2
|
|
vext.8 q3, q6, q6, #8
|
|
veor q11, q11, q4
|
|
vext.8 q7, q5, q5, #8
|
|
veor q12, q12, q5
|
|
vext.8 q6, q2, q2, #8
|
|
veor q11, q11, q5
|
|
vext.8 q2, q4, q4, #8
|
|
veor q5, q9, q13
|
|
veor q4, q8, q12
|
|
veor q3, q3, q11
|
|
veor q7, q7, q15
|
|
veor q6, q6, q14
|
|
@ vmov q4, q8
|
|
veor q2, q2, q10
|
|
@ vmov q5, q9
|
|
vldmia r6, {q12} @ LSR
|
|
ite eq @ Thumb2 thing, samity check in ARM
|
|
addeq r6,r6,#0x10
|
|
bne Lenc_loop
|
|
vldmia r6, {q12} @ LSRM0
|
|
b Lenc_loop
|
|
.align 4
|
|
Lenc_done:
|
|
vmov.i8 q8,#0x55 @ compose LBS0
|
|
vmov.i8 q9,#0x33 @ compose LBS1
|
|
vshr.u64 q10, q2, #1
|
|
vshr.u64 q11, q3, #1
|
|
veor q10, q10, q5
|
|
veor q11, q11, q7
|
|
vand q10, q10, q8
|
|
vand q11, q11, q8
|
|
veor q5, q5, q10
|
|
vshl.u64 q10, q10, #1
|
|
veor q7, q7, q11
|
|
vshl.u64 q11, q11, #1
|
|
veor q2, q2, q10
|
|
veor q3, q3, q11
|
|
vshr.u64 q10, q4, #1
|
|
vshr.u64 q11, q0, #1
|
|
veor q10, q10, q6
|
|
veor q11, q11, q1
|
|
vand q10, q10, q8
|
|
vand q11, q11, q8
|
|
veor q6, q6, q10
|
|
vshl.u64 q10, q10, #1
|
|
veor q1, q1, q11
|
|
vshl.u64 q11, q11, #1
|
|
veor q4, q4, q10
|
|
veor q0, q0, q11
|
|
vmov.i8 q8,#0x0f @ compose LBS2
|
|
vshr.u64 q10, q7, #2
|
|
vshr.u64 q11, q3, #2
|
|
veor q10, q10, q5
|
|
veor q11, q11, q2
|
|
vand q10, q10, q9
|
|
vand q11, q11, q9
|
|
veor q5, q5, q10
|
|
vshl.u64 q10, q10, #2
|
|
veor q2, q2, q11
|
|
vshl.u64 q11, q11, #2
|
|
veor q7, q7, q10
|
|
veor q3, q3, q11
|
|
vshr.u64 q10, q1, #2
|
|
vshr.u64 q11, q0, #2
|
|
veor q10, q10, q6
|
|
veor q11, q11, q4
|
|
vand q10, q10, q9
|
|
vand q11, q11, q9
|
|
veor q6, q6, q10
|
|
vshl.u64 q10, q10, #2
|
|
veor q4, q4, q11
|
|
vshl.u64 q11, q11, #2
|
|
veor q1, q1, q10
|
|
veor q0, q0, q11
|
|
vshr.u64 q10, q6, #4
|
|
vshr.u64 q11, q4, #4
|
|
veor q10, q10, q5
|
|
veor q11, q11, q2
|
|
vand q10, q10, q8
|
|
vand q11, q11, q8
|
|
veor q5, q5, q10
|
|
vshl.u64 q10, q10, #4
|
|
veor q2, q2, q11
|
|
vshl.u64 q11, q11, #4
|
|
veor q6, q6, q10
|
|
veor q4, q4, q11
|
|
vshr.u64 q10, q1, #4
|
|
vshr.u64 q11, q0, #4
|
|
veor q10, q10, q7
|
|
veor q11, q11, q3
|
|
vand q10, q10, q8
|
|
vand q11, q11, q8
|
|
veor q7, q7, q10
|
|
vshl.u64 q10, q10, #4
|
|
veor q3, q3, q11
|
|
vshl.u64 q11, q11, #4
|
|
veor q1, q1, q10
|
|
veor q0, q0, q11
|
|
vldmia r4, {q8} @ last round key
|
|
veor q4, q4, q8
|
|
veor q6, q6, q8
|
|
veor q3, q3, q8
|
|
veor q7, q7, q8
|
|
veor q2, q2, q8
|
|
veor q5, q5, q8
|
|
veor q0, q0, q8
|
|
veor q1, q1, q8
|
|
bx lr
|
|
|
|
#ifdef __thumb2__
|
|
.thumb_func _bsaes_key_convert
|
|
#endif
|
|
.align 4
|
|
_bsaes_key_convert:
|
|
adr r6,.
|
|
vld1.8 {q7}, [r4]! @ load round 0 key
|
|
#if defined(__thumb2__) || defined(__APPLE__)
|
|
adr r6,LM0
|
|
#else
|
|
sub r6,r6,#_bsaes_key_convert-LM0
|
|
#endif
|
|
vld1.8 {q15}, [r4]! @ load round 1 key
|
|
|
|
vmov.i8 q8, #0x01 @ bit masks
|
|
vmov.i8 q9, #0x02
|
|
vmov.i8 q10, #0x04
|
|
vmov.i8 q11, #0x08
|
|
vmov.i8 q12, #0x10
|
|
vmov.i8 q13, #0x20
|
|
vldmia r6, {q14} @ LM0
|
|
|
|
#ifdef __ARMEL__
|
|
vrev32.8 q7, q7
|
|
vrev32.8 q15, q15
|
|
#endif
|
|
sub r5,r5,#1
|
|
vstmia r12!, {q7} @ save round 0 key
|
|
b Lkey_loop
|
|
|
|
.align 4
|
|
Lkey_loop:
|
|
vtbl.8 d14,{q15},d28
|
|
vtbl.8 d15,{q15},d29
|
|
vmov.i8 q6, #0x40
|
|
vmov.i8 q15, #0x80
|
|
|
|
vtst.8 q0, q7, q8
|
|
vtst.8 q1, q7, q9
|
|
vtst.8 q2, q7, q10
|
|
vtst.8 q3, q7, q11
|
|
vtst.8 q4, q7, q12
|
|
vtst.8 q5, q7, q13
|
|
vtst.8 q6, q7, q6
|
|
vtst.8 q7, q7, q15
|
|
vld1.8 {q15}, [r4]! @ load next round key
|
|
vmvn q0, q0 @ "pnot"
|
|
vmvn q1, q1
|
|
vmvn q5, q5
|
|
vmvn q6, q6
|
|
#ifdef __ARMEL__
|
|
vrev32.8 q15, q15
|
|
#endif
|
|
subs r5,r5,#1
|
|
vstmia r12!,{q0,q1,q2,q3,q4,q5,q6,q7} @ write bit-sliced round key
|
|
bne Lkey_loop
|
|
|
|
vmov.i8 q7,#0x63 @ compose L63
|
|
@ don't save last round key
|
|
bx lr
|
|
|
|
.globl _bsaes_cbc_encrypt
|
|
.private_extern _bsaes_cbc_encrypt
|
|
#ifdef __thumb2__
|
|
.thumb_func _bsaes_cbc_encrypt
|
|
#endif
|
|
.align 5
|
|
_bsaes_cbc_encrypt:
|
|
@ In OpenSSL, this function had a fallback to aes_nohw_cbc_encrypt for
|
|
@ short inputs. We patch this out, using bsaes for all input sizes.
|
|
|
|
@ it is up to the caller to make sure we are called with enc == 0
|
|
|
|
mov ip, sp
|
|
stmdb sp!, {r4,r5,r6,r7,r8,r9,r10, lr}
|
|
VFP_ABI_PUSH
|
|
ldr r8, [ip] @ IV is 1st arg on the stack
|
|
mov r2, r2, lsr#4 @ len in 16 byte blocks
|
|
sub sp, #0x10 @ scratch space to carry over the IV
|
|
mov r9, sp @ save sp
|
|
|
|
ldr r10, [r3, #240] @ get # of rounds
|
|
#ifndef BSAES_ASM_EXTENDED_KEY
|
|
@ allocate the key schedule on the stack
|
|
sub r12, sp, r10, lsl#7 @ 128 bytes per inner round key
|
|
add r12, #96 @ sifze of bit-slices key schedule
|
|
|
|
@ populate the key schedule
|
|
mov r4, r3 @ pass key
|
|
mov r5, r10 @ pass # of rounds
|
|
mov sp, r12 @ sp is sp
|
|
bl _bsaes_key_convert
|
|
vldmia sp, {q6}
|
|
vstmia r12, {q15} @ save last round key
|
|
veor q7, q7, q6 @ fix up round 0 key
|
|
vstmia sp, {q7}
|
|
#else
|
|
ldr r12, [r3, #244]
|
|
eors r12, #1
|
|
beq 0f
|
|
|
|
@ populate the key schedule
|
|
str r12, [r3, #244]
|
|
mov r4, r3 @ pass key
|
|
mov r5, r10 @ pass # of rounds
|
|
add r12, r3, #248 @ pass key schedule
|
|
bl _bsaes_key_convert
|
|
add r4, r3, #248
|
|
vldmia r4, {q6}
|
|
vstmia r12, {q15} @ save last round key
|
|
veor q7, q7, q6 @ fix up round 0 key
|
|
vstmia r4, {q7}
|
|
|
|
.align 2
|
|
|
|
#endif
|
|
|
|
vld1.8 {q15}, [r8] @ load IV
|
|
b Lcbc_dec_loop
|
|
|
|
.align 4
|
|
Lcbc_dec_loop:
|
|
subs r2, r2, #0x8
|
|
bmi Lcbc_dec_loop_finish
|
|
|
|
vld1.8 {q0,q1}, [r0]! @ load input
|
|
vld1.8 {q2,q3}, [r0]!
|
|
#ifndef BSAES_ASM_EXTENDED_KEY
|
|
mov r4, sp @ pass the key
|
|
#else
|
|
add r4, r3, #248
|
|
#endif
|
|
vld1.8 {q4,q5}, [r0]!
|
|
mov r5, r10
|
|
vld1.8 {q6,q7}, [r0]
|
|
sub r0, r0, #0x60
|
|
vstmia r9, {q15} @ put aside IV
|
|
|
|
bl _bsaes_decrypt8
|
|
|
|
vldmia r9, {q14} @ reload IV
|
|
vld1.8 {q8,q9}, [r0]! @ reload input
|
|
veor q0, q0, q14 @ ^= IV
|
|
vld1.8 {q10,q11}, [r0]!
|
|
veor q1, q1, q8
|
|
veor q6, q6, q9
|
|
vld1.8 {q12,q13}, [r0]!
|
|
veor q4, q4, q10
|
|
veor q2, q2, q11
|
|
vld1.8 {q14,q15}, [r0]!
|
|
veor q7, q7, q12
|
|
vst1.8 {q0,q1}, [r1]! @ write output
|
|
veor q3, q3, q13
|
|
vst1.8 {q6}, [r1]!
|
|
veor q5, q5, q14
|
|
vst1.8 {q4}, [r1]!
|
|
vst1.8 {q2}, [r1]!
|
|
vst1.8 {q7}, [r1]!
|
|
vst1.8 {q3}, [r1]!
|
|
vst1.8 {q5}, [r1]!
|
|
|
|
b Lcbc_dec_loop
|
|
|
|
Lcbc_dec_loop_finish:
|
|
adds r2, r2, #8
|
|
beq Lcbc_dec_done
|
|
|
|
@ Set up most parameters for the _bsaes_decrypt8 call.
|
|
#ifndef BSAES_ASM_EXTENDED_KEY
|
|
mov r4, sp @ pass the key
|
|
#else
|
|
add r4, r3, #248
|
|
#endif
|
|
mov r5, r10
|
|
vstmia r9, {q15} @ put aside IV
|
|
|
|
vld1.8 {q0}, [r0]! @ load input
|
|
cmp r2, #2
|
|
blo Lcbc_dec_one
|
|
vld1.8 {q1}, [r0]!
|
|
beq Lcbc_dec_two
|
|
vld1.8 {q2}, [r0]!
|
|
cmp r2, #4
|
|
blo Lcbc_dec_three
|
|
vld1.8 {q3}, [r0]!
|
|
beq Lcbc_dec_four
|
|
vld1.8 {q4}, [r0]!
|
|
cmp r2, #6
|
|
blo Lcbc_dec_five
|
|
vld1.8 {q5}, [r0]!
|
|
beq Lcbc_dec_six
|
|
vld1.8 {q6}, [r0]!
|
|
sub r0, r0, #0x70
|
|
|
|
bl _bsaes_decrypt8
|
|
|
|
vldmia r9, {q14} @ reload IV
|
|
vld1.8 {q8,q9}, [r0]! @ reload input
|
|
veor q0, q0, q14 @ ^= IV
|
|
vld1.8 {q10,q11}, [r0]!
|
|
veor q1, q1, q8
|
|
veor q6, q6, q9
|
|
vld1.8 {q12,q13}, [r0]!
|
|
veor q4, q4, q10
|
|
veor q2, q2, q11
|
|
vld1.8 {q15}, [r0]!
|
|
veor q7, q7, q12
|
|
vst1.8 {q0,q1}, [r1]! @ write output
|
|
veor q3, q3, q13
|
|
vst1.8 {q6}, [r1]!
|
|
vst1.8 {q4}, [r1]!
|
|
vst1.8 {q2}, [r1]!
|
|
vst1.8 {q7}, [r1]!
|
|
vst1.8 {q3}, [r1]!
|
|
b Lcbc_dec_done
|
|
.align 4
|
|
Lcbc_dec_six:
|
|
sub r0, r0, #0x60
|
|
bl _bsaes_decrypt8
|
|
vldmia r9,{q14} @ reload IV
|
|
vld1.8 {q8,q9}, [r0]! @ reload input
|
|
veor q0, q0, q14 @ ^= IV
|
|
vld1.8 {q10,q11}, [r0]!
|
|
veor q1, q1, q8
|
|
veor q6, q6, q9
|
|
vld1.8 {q12}, [r0]!
|
|
veor q4, q4, q10
|
|
veor q2, q2, q11
|
|
vld1.8 {q15}, [r0]!
|
|
veor q7, q7, q12
|
|
vst1.8 {q0,q1}, [r1]! @ write output
|
|
vst1.8 {q6}, [r1]!
|
|
vst1.8 {q4}, [r1]!
|
|
vst1.8 {q2}, [r1]!
|
|
vst1.8 {q7}, [r1]!
|
|
b Lcbc_dec_done
|
|
.align 4
|
|
Lcbc_dec_five:
|
|
sub r0, r0, #0x50
|
|
bl _bsaes_decrypt8
|
|
vldmia r9, {q14} @ reload IV
|
|
vld1.8 {q8,q9}, [r0]! @ reload input
|
|
veor q0, q0, q14 @ ^= IV
|
|
vld1.8 {q10,q11}, [r0]!
|
|
veor q1, q1, q8
|
|
veor q6, q6, q9
|
|
vld1.8 {q15}, [r0]!
|
|
veor q4, q4, q10
|
|
vst1.8 {q0,q1}, [r1]! @ write output
|
|
veor q2, q2, q11
|
|
vst1.8 {q6}, [r1]!
|
|
vst1.8 {q4}, [r1]!
|
|
vst1.8 {q2}, [r1]!
|
|
b Lcbc_dec_done
|
|
.align 4
|
|
Lcbc_dec_four:
|
|
sub r0, r0, #0x40
|
|
bl _bsaes_decrypt8
|
|
vldmia r9, {q14} @ reload IV
|
|
vld1.8 {q8,q9}, [r0]! @ reload input
|
|
veor q0, q0, q14 @ ^= IV
|
|
vld1.8 {q10}, [r0]!
|
|
veor q1, q1, q8
|
|
veor q6, q6, q9
|
|
vld1.8 {q15}, [r0]!
|
|
veor q4, q4, q10
|
|
vst1.8 {q0,q1}, [r1]! @ write output
|
|
vst1.8 {q6}, [r1]!
|
|
vst1.8 {q4}, [r1]!
|
|
b Lcbc_dec_done
|
|
.align 4
|
|
Lcbc_dec_three:
|
|
sub r0, r0, #0x30
|
|
bl _bsaes_decrypt8
|
|
vldmia r9, {q14} @ reload IV
|
|
vld1.8 {q8,q9}, [r0]! @ reload input
|
|
veor q0, q0, q14 @ ^= IV
|
|
vld1.8 {q15}, [r0]!
|
|
veor q1, q1, q8
|
|
veor q6, q6, q9
|
|
vst1.8 {q0,q1}, [r1]! @ write output
|
|
vst1.8 {q6}, [r1]!
|
|
b Lcbc_dec_done
|
|
.align 4
|
|
Lcbc_dec_two:
|
|
sub r0, r0, #0x20
|
|
bl _bsaes_decrypt8
|
|
vldmia r9, {q14} @ reload IV
|
|
vld1.8 {q8}, [r0]! @ reload input
|
|
veor q0, q0, q14 @ ^= IV
|
|
vld1.8 {q15}, [r0]! @ reload input
|
|
veor q1, q1, q8
|
|
vst1.8 {q0,q1}, [r1]! @ write output
|
|
b Lcbc_dec_done
|
|
.align 4
|
|
Lcbc_dec_one:
|
|
sub r0, r0, #0x10
|
|
bl _bsaes_decrypt8
|
|
vldmia r9, {q14} @ reload IV
|
|
vld1.8 {q15}, [r0]! @ reload input
|
|
veor q0, q0, q14 @ ^= IV
|
|
vst1.8 {q0}, [r1]! @ write output
|
|
|
|
Lcbc_dec_done:
|
|
#ifndef BSAES_ASM_EXTENDED_KEY
|
|
vmov.i32 q0, #0
|
|
vmov.i32 q1, #0
|
|
Lcbc_dec_bzero:@ wipe key schedule [if any]
|
|
vstmia sp!, {q0,q1}
|
|
cmp sp, r9
|
|
bne Lcbc_dec_bzero
|
|
#endif
|
|
|
|
mov sp, r9
|
|
add sp, #0x10 @ add sp,r9,#0x10 is no good for thumb
|
|
vst1.8 {q15}, [r8] @ return IV
|
|
VFP_ABI_POP
|
|
ldmia sp!, {r4,r5,r6,r7,r8,r9,r10, pc}
|
|
|
|
.globl _bsaes_ctr32_encrypt_blocks
|
|
.private_extern _bsaes_ctr32_encrypt_blocks
|
|
#ifdef __thumb2__
|
|
.thumb_func _bsaes_ctr32_encrypt_blocks
|
|
#endif
|
|
.align 5
|
|
_bsaes_ctr32_encrypt_blocks:
|
|
@ In OpenSSL, short inputs fall back to aes_nohw_* here. We patch this
|
|
@ out to retain a constant-time implementation.
|
|
mov ip, sp
|
|
stmdb sp!, {r4,r5,r6,r7,r8,r9,r10, lr}
|
|
VFP_ABI_PUSH
|
|
ldr r8, [ip] @ ctr is 1st arg on the stack
|
|
sub sp, sp, #0x10 @ scratch space to carry over the ctr
|
|
mov r9, sp @ save sp
|
|
|
|
ldr r10, [r3, #240] @ get # of rounds
|
|
#ifndef BSAES_ASM_EXTENDED_KEY
|
|
@ allocate the key schedule on the stack
|
|
sub r12, sp, r10, lsl#7 @ 128 bytes per inner round key
|
|
add r12, #96 @ size of bit-sliced key schedule
|
|
|
|
@ populate the key schedule
|
|
mov r4, r3 @ pass key
|
|
mov r5, r10 @ pass # of rounds
|
|
mov sp, r12 @ sp is sp
|
|
bl _bsaes_key_convert
|
|
veor q7,q7,q15 @ fix up last round key
|
|
vstmia r12, {q7} @ save last round key
|
|
|
|
vld1.8 {q0}, [r8] @ load counter
|
|
#ifdef __APPLE__
|
|
mov r8, #:lower16:(LREVM0SR-LM0)
|
|
add r8, r6, r8
|
|
#else
|
|
add r8, r6, #LREVM0SR-LM0 @ borrow r8
|
|
#endif
|
|
vldmia sp, {q4} @ load round0 key
|
|
#else
|
|
ldr r12, [r3, #244]
|
|
eors r12, #1
|
|
beq 0f
|
|
|
|
@ populate the key schedule
|
|
str r12, [r3, #244]
|
|
mov r4, r3 @ pass key
|
|
mov r5, r10 @ pass # of rounds
|
|
add r12, r3, #248 @ pass key schedule
|
|
bl _bsaes_key_convert
|
|
veor q7,q7,q15 @ fix up last round key
|
|
vstmia r12, {q7} @ save last round key
|
|
|
|
.align 2
|
|
add r12, r3, #248
|
|
vld1.8 {q0}, [r8] @ load counter
|
|
adrl r8, LREVM0SR @ borrow r8
|
|
vldmia r12, {q4} @ load round0 key
|
|
sub sp, #0x10 @ place for adjusted round0 key
|
|
#endif
|
|
|
|
vmov.i32 q8,#1 @ compose 1<<96
|
|
veor q9,q9,q9
|
|
vrev32.8 q0,q0
|
|
vext.8 q8,q9,q8,#4
|
|
vrev32.8 q4,q4
|
|
vadd.u32 q9,q8,q8 @ compose 2<<96
|
|
vstmia sp, {q4} @ save adjusted round0 key
|
|
b Lctr_enc_loop
|
|
|
|
.align 4
|
|
Lctr_enc_loop:
|
|
vadd.u32 q10, q8, q9 @ compose 3<<96
|
|
vadd.u32 q1, q0, q8 @ +1
|
|
vadd.u32 q2, q0, q9 @ +2
|
|
vadd.u32 q3, q0, q10 @ +3
|
|
vadd.u32 q4, q1, q10
|
|
vadd.u32 q5, q2, q10
|
|
vadd.u32 q6, q3, q10
|
|
vadd.u32 q7, q4, q10
|
|
vadd.u32 q10, q5, q10 @ next counter
|
|
|
|
@ Borrow prologue from _bsaes_encrypt8 to use the opportunity
|
|
@ to flip byte order in 32-bit counter
|
|
|
|
vldmia sp, {q9} @ load round0 key
|
|
#ifndef BSAES_ASM_EXTENDED_KEY
|
|
add r4, sp, #0x10 @ pass next round key
|
|
#else
|
|
add r4, r3, #264
|
|
#endif
|
|
vldmia r8, {q8} @ LREVM0SR
|
|
mov r5, r10 @ pass rounds
|
|
vstmia r9, {q10} @ save next counter
|
|
#ifdef __APPLE__
|
|
mov r6, #:lower16:(LREVM0SR-LSR)
|
|
sub r6, r8, r6
|
|
#else
|
|
sub r6, r8, #LREVM0SR-LSR @ pass constants
|
|
#endif
|
|
|
|
bl _bsaes_encrypt8_alt
|
|
|
|
subs r2, r2, #8
|
|
blo Lctr_enc_loop_done
|
|
|
|
vld1.8 {q8,q9}, [r0]! @ load input
|
|
vld1.8 {q10,q11}, [r0]!
|
|
veor q0, q8
|
|
veor q1, q9
|
|
vld1.8 {q12,q13}, [r0]!
|
|
veor q4, q10
|
|
veor q6, q11
|
|
vld1.8 {q14,q15}, [r0]!
|
|
veor q3, q12
|
|
vst1.8 {q0,q1}, [r1]! @ write output
|
|
veor q7, q13
|
|
veor q2, q14
|
|
vst1.8 {q4}, [r1]!
|
|
veor q5, q15
|
|
vst1.8 {q6}, [r1]!
|
|
vmov.i32 q8, #1 @ compose 1<<96
|
|
vst1.8 {q3}, [r1]!
|
|
veor q9, q9, q9
|
|
vst1.8 {q7}, [r1]!
|
|
vext.8 q8, q9, q8, #4
|
|
vst1.8 {q2}, [r1]!
|
|
vadd.u32 q9,q8,q8 @ compose 2<<96
|
|
vst1.8 {q5}, [r1]!
|
|
vldmia r9, {q0} @ load counter
|
|
|
|
bne Lctr_enc_loop
|
|
b Lctr_enc_done
|
|
|
|
.align 4
|
|
Lctr_enc_loop_done:
|
|
add r2, r2, #8
|
|
vld1.8 {q8}, [r0]! @ load input
|
|
veor q0, q8
|
|
vst1.8 {q0}, [r1]! @ write output
|
|
cmp r2, #2
|
|
blo Lctr_enc_done
|
|
vld1.8 {q9}, [r0]!
|
|
veor q1, q9
|
|
vst1.8 {q1}, [r1]!
|
|
beq Lctr_enc_done
|
|
vld1.8 {q10}, [r0]!
|
|
veor q4, q10
|
|
vst1.8 {q4}, [r1]!
|
|
cmp r2, #4
|
|
blo Lctr_enc_done
|
|
vld1.8 {q11}, [r0]!
|
|
veor q6, q11
|
|
vst1.8 {q6}, [r1]!
|
|
beq Lctr_enc_done
|
|
vld1.8 {q12}, [r0]!
|
|
veor q3, q12
|
|
vst1.8 {q3}, [r1]!
|
|
cmp r2, #6
|
|
blo Lctr_enc_done
|
|
vld1.8 {q13}, [r0]!
|
|
veor q7, q13
|
|
vst1.8 {q7}, [r1]!
|
|
beq Lctr_enc_done
|
|
vld1.8 {q14}, [r0]
|
|
veor q2, q14
|
|
vst1.8 {q2}, [r1]!
|
|
|
|
Lctr_enc_done:
|
|
vmov.i32 q0, #0
|
|
vmov.i32 q1, #0
|
|
#ifndef BSAES_ASM_EXTENDED_KEY
|
|
Lctr_enc_bzero:@ wipe key schedule [if any]
|
|
vstmia sp!, {q0,q1}
|
|
cmp sp, r9
|
|
bne Lctr_enc_bzero
|
|
#else
|
|
vstmia sp, {q0,q1}
|
|
#endif
|
|
|
|
mov sp, r9
|
|
add sp, #0x10 @ add sp,r9,#0x10 is no good for thumb
|
|
VFP_ABI_POP
|
|
ldmia sp!, {r4,r5,r6,r7,r8,r9,r10, pc} @ return
|
|
|
|
@ OpenSSL contains aes_nohw_* fallback code here. We patch this
|
|
@ out to retain a constant-time implementation.
|
|
|
|
#endif
|
|
#endif // !OPENSSL_NO_ASM
|