mirror of
https://github.com/ClickHouse/ClickHouse.git
synced 2024-11-15 12:14:18 +00:00
1215 lines
33 KiB
ArmAsm
1215 lines
33 KiB
ArmAsm
// This file is generated from a similarly-named Perl script in the BoringSSL
|
|
// source tree. Do not edit by hand.
|
|
|
|
#if !defined(__has_feature)
|
|
#define __has_feature(x) 0
|
|
#endif
|
|
#if __has_feature(memory_sanitizer) && !defined(OPENSSL_NO_ASM)
|
|
#define OPENSSL_NO_ASM
|
|
#endif
|
|
|
|
#if !defined(OPENSSL_NO_ASM)
|
|
#if defined(BORINGSSL_PREFIX)
|
|
#include <boringssl_prefix_symbols_asm.h>
|
|
#endif
|
|
// Copyright 2014-2016 The OpenSSL Project Authors. All Rights Reserved.
|
|
//
|
|
// Licensed under the OpenSSL license (the "License"). You may not use
|
|
// this file except in compliance with the License. You can obtain a copy
|
|
// in the file LICENSE in the source distribution or at
|
|
// https://www.openssl.org/source/license.html
|
|
|
|
// ====================================================================
|
|
// Written by Andy Polyakov <appro@openssl.org> for the OpenSSL
|
|
// project. The module is, however, dual licensed under OpenSSL and
|
|
// CRYPTOGAMS licenses depending on where you obtain it. For further
|
|
// details see http://www.openssl.org/~appro/cryptogams/.
|
|
//
|
|
// Permission to use under GPLv2 terms is granted.
|
|
// ====================================================================
|
|
//
|
|
// SHA256/512 for ARMv8.
|
|
//
|
|
// Performance in cycles per processed byte and improvement coefficient
|
|
// over code generated with "default" compiler:
|
|
//
|
|
// SHA256-hw SHA256(*) SHA512
|
|
// Apple A7 1.97 10.5 (+33%) 6.73 (-1%(**))
|
|
// Cortex-A53 2.38 15.5 (+115%) 10.0 (+150%(***))
|
|
// Cortex-A57 2.31 11.6 (+86%) 7.51 (+260%(***))
|
|
// Denver 2.01 10.5 (+26%) 6.70 (+8%)
|
|
// X-Gene 20.0 (+100%) 12.8 (+300%(***))
|
|
// Mongoose 2.36 13.0 (+50%) 8.36 (+33%)
|
|
//
|
|
// (*) Software SHA256 results are of lesser relevance, presented
|
|
// mostly for informational purposes.
|
|
// (**) The result is a trade-off: it's possible to improve it by
|
|
// 10% (or by 1 cycle per round), but at the cost of 20% loss
|
|
// on Cortex-A53 (or by 4 cycles per round).
|
|
// (***) Super-impressive coefficients over gcc-generated code are
|
|
// indication of some compiler "pathology", most notably code
|
|
// generated with -mgeneral-regs-only is significanty faster
|
|
// and the gap is only 40-90%.
|
|
|
|
#ifndef __KERNEL__
|
|
# include <openssl/arm_arch.h>
|
|
#endif
|
|
|
|
.text
|
|
|
|
|
|
.globl _sha256_block_data_order
|
|
.private_extern _sha256_block_data_order
|
|
|
|
.align 6
|
|
_sha256_block_data_order:
|
|
AARCH64_VALID_CALL_TARGET
|
|
#ifndef __KERNEL__
|
|
#if __has_feature(hwaddress_sanitizer) && __clang_major__ >= 10
|
|
adrp x16,:pg_hi21_nc:_OPENSSL_armcap_P
|
|
#else
|
|
adrp x16,_OPENSSL_armcap_P@PAGE
|
|
#endif
|
|
ldr w16,[x16,_OPENSSL_armcap_P@PAGEOFF]
|
|
tst w16,#ARMV8_SHA256
|
|
b.ne Lv8_entry
|
|
#endif
|
|
AARCH64_SIGN_LINK_REGISTER
|
|
stp x29,x30,[sp,#-128]!
|
|
add x29,sp,#0
|
|
|
|
stp x19,x20,[sp,#16]
|
|
stp x21,x22,[sp,#32]
|
|
stp x23,x24,[sp,#48]
|
|
stp x25,x26,[sp,#64]
|
|
stp x27,x28,[sp,#80]
|
|
sub sp,sp,#4*4
|
|
|
|
ldp w20,w21,[x0] // load context
|
|
ldp w22,w23,[x0,#2*4]
|
|
ldp w24,w25,[x0,#4*4]
|
|
add x2,x1,x2,lsl#6 // end of input
|
|
ldp w26,w27,[x0,#6*4]
|
|
adrp x30,LK256@PAGE
|
|
add x30,x30,LK256@PAGEOFF
|
|
stp x0,x2,[x29,#96]
|
|
|
|
Loop:
|
|
ldp w3,w4,[x1],#2*4
|
|
ldr w19,[x30],#4 // *K++
|
|
eor w28,w21,w22 // magic seed
|
|
str x1,[x29,#112]
|
|
#ifndef __ARMEB__
|
|
rev w3,w3 // 0
|
|
#endif
|
|
ror w16,w24,#6
|
|
add w27,w27,w19 // h+=K[i]
|
|
eor w6,w24,w24,ror#14
|
|
and w17,w25,w24
|
|
bic w19,w26,w24
|
|
add w27,w27,w3 // h+=X[i]
|
|
orr w17,w17,w19 // Ch(e,f,g)
|
|
eor w19,w20,w21 // a^b, b^c in next round
|
|
eor w16,w16,w6,ror#11 // Sigma1(e)
|
|
ror w6,w20,#2
|
|
add w27,w27,w17 // h+=Ch(e,f,g)
|
|
eor w17,w20,w20,ror#9
|
|
add w27,w27,w16 // h+=Sigma1(e)
|
|
and w28,w28,w19 // (b^c)&=(a^b)
|
|
add w23,w23,w27 // d+=h
|
|
eor w28,w28,w21 // Maj(a,b,c)
|
|
eor w17,w6,w17,ror#13 // Sigma0(a)
|
|
add w27,w27,w28 // h+=Maj(a,b,c)
|
|
ldr w28,[x30],#4 // *K++, w19 in next round
|
|
//add w27,w27,w17 // h+=Sigma0(a)
|
|
#ifndef __ARMEB__
|
|
rev w4,w4 // 1
|
|
#endif
|
|
ldp w5,w6,[x1],#2*4
|
|
add w27,w27,w17 // h+=Sigma0(a)
|
|
ror w16,w23,#6
|
|
add w26,w26,w28 // h+=K[i]
|
|
eor w7,w23,w23,ror#14
|
|
and w17,w24,w23
|
|
bic w28,w25,w23
|
|
add w26,w26,w4 // h+=X[i]
|
|
orr w17,w17,w28 // Ch(e,f,g)
|
|
eor w28,w27,w20 // a^b, b^c in next round
|
|
eor w16,w16,w7,ror#11 // Sigma1(e)
|
|
ror w7,w27,#2
|
|
add w26,w26,w17 // h+=Ch(e,f,g)
|
|
eor w17,w27,w27,ror#9
|
|
add w26,w26,w16 // h+=Sigma1(e)
|
|
and w19,w19,w28 // (b^c)&=(a^b)
|
|
add w22,w22,w26 // d+=h
|
|
eor w19,w19,w20 // Maj(a,b,c)
|
|
eor w17,w7,w17,ror#13 // Sigma0(a)
|
|
add w26,w26,w19 // h+=Maj(a,b,c)
|
|
ldr w19,[x30],#4 // *K++, w28 in next round
|
|
//add w26,w26,w17 // h+=Sigma0(a)
|
|
#ifndef __ARMEB__
|
|
rev w5,w5 // 2
|
|
#endif
|
|
add w26,w26,w17 // h+=Sigma0(a)
|
|
ror w16,w22,#6
|
|
add w25,w25,w19 // h+=K[i]
|
|
eor w8,w22,w22,ror#14
|
|
and w17,w23,w22
|
|
bic w19,w24,w22
|
|
add w25,w25,w5 // h+=X[i]
|
|
orr w17,w17,w19 // Ch(e,f,g)
|
|
eor w19,w26,w27 // a^b, b^c in next round
|
|
eor w16,w16,w8,ror#11 // Sigma1(e)
|
|
ror w8,w26,#2
|
|
add w25,w25,w17 // h+=Ch(e,f,g)
|
|
eor w17,w26,w26,ror#9
|
|
add w25,w25,w16 // h+=Sigma1(e)
|
|
and w28,w28,w19 // (b^c)&=(a^b)
|
|
add w21,w21,w25 // d+=h
|
|
eor w28,w28,w27 // Maj(a,b,c)
|
|
eor w17,w8,w17,ror#13 // Sigma0(a)
|
|
add w25,w25,w28 // h+=Maj(a,b,c)
|
|
ldr w28,[x30],#4 // *K++, w19 in next round
|
|
//add w25,w25,w17 // h+=Sigma0(a)
|
|
#ifndef __ARMEB__
|
|
rev w6,w6 // 3
|
|
#endif
|
|
ldp w7,w8,[x1],#2*4
|
|
add w25,w25,w17 // h+=Sigma0(a)
|
|
ror w16,w21,#6
|
|
add w24,w24,w28 // h+=K[i]
|
|
eor w9,w21,w21,ror#14
|
|
and w17,w22,w21
|
|
bic w28,w23,w21
|
|
add w24,w24,w6 // h+=X[i]
|
|
orr w17,w17,w28 // Ch(e,f,g)
|
|
eor w28,w25,w26 // a^b, b^c in next round
|
|
eor w16,w16,w9,ror#11 // Sigma1(e)
|
|
ror w9,w25,#2
|
|
add w24,w24,w17 // h+=Ch(e,f,g)
|
|
eor w17,w25,w25,ror#9
|
|
add w24,w24,w16 // h+=Sigma1(e)
|
|
and w19,w19,w28 // (b^c)&=(a^b)
|
|
add w20,w20,w24 // d+=h
|
|
eor w19,w19,w26 // Maj(a,b,c)
|
|
eor w17,w9,w17,ror#13 // Sigma0(a)
|
|
add w24,w24,w19 // h+=Maj(a,b,c)
|
|
ldr w19,[x30],#4 // *K++, w28 in next round
|
|
//add w24,w24,w17 // h+=Sigma0(a)
|
|
#ifndef __ARMEB__
|
|
rev w7,w7 // 4
|
|
#endif
|
|
add w24,w24,w17 // h+=Sigma0(a)
|
|
ror w16,w20,#6
|
|
add w23,w23,w19 // h+=K[i]
|
|
eor w10,w20,w20,ror#14
|
|
and w17,w21,w20
|
|
bic w19,w22,w20
|
|
add w23,w23,w7 // h+=X[i]
|
|
orr w17,w17,w19 // Ch(e,f,g)
|
|
eor w19,w24,w25 // a^b, b^c in next round
|
|
eor w16,w16,w10,ror#11 // Sigma1(e)
|
|
ror w10,w24,#2
|
|
add w23,w23,w17 // h+=Ch(e,f,g)
|
|
eor w17,w24,w24,ror#9
|
|
add w23,w23,w16 // h+=Sigma1(e)
|
|
and w28,w28,w19 // (b^c)&=(a^b)
|
|
add w27,w27,w23 // d+=h
|
|
eor w28,w28,w25 // Maj(a,b,c)
|
|
eor w17,w10,w17,ror#13 // Sigma0(a)
|
|
add w23,w23,w28 // h+=Maj(a,b,c)
|
|
ldr w28,[x30],#4 // *K++, w19 in next round
|
|
//add w23,w23,w17 // h+=Sigma0(a)
|
|
#ifndef __ARMEB__
|
|
rev w8,w8 // 5
|
|
#endif
|
|
ldp w9,w10,[x1],#2*4
|
|
add w23,w23,w17 // h+=Sigma0(a)
|
|
ror w16,w27,#6
|
|
add w22,w22,w28 // h+=K[i]
|
|
eor w11,w27,w27,ror#14
|
|
and w17,w20,w27
|
|
bic w28,w21,w27
|
|
add w22,w22,w8 // h+=X[i]
|
|
orr w17,w17,w28 // Ch(e,f,g)
|
|
eor w28,w23,w24 // a^b, b^c in next round
|
|
eor w16,w16,w11,ror#11 // Sigma1(e)
|
|
ror w11,w23,#2
|
|
add w22,w22,w17 // h+=Ch(e,f,g)
|
|
eor w17,w23,w23,ror#9
|
|
add w22,w22,w16 // h+=Sigma1(e)
|
|
and w19,w19,w28 // (b^c)&=(a^b)
|
|
add w26,w26,w22 // d+=h
|
|
eor w19,w19,w24 // Maj(a,b,c)
|
|
eor w17,w11,w17,ror#13 // Sigma0(a)
|
|
add w22,w22,w19 // h+=Maj(a,b,c)
|
|
ldr w19,[x30],#4 // *K++, w28 in next round
|
|
//add w22,w22,w17 // h+=Sigma0(a)
|
|
#ifndef __ARMEB__
|
|
rev w9,w9 // 6
|
|
#endif
|
|
add w22,w22,w17 // h+=Sigma0(a)
|
|
ror w16,w26,#6
|
|
add w21,w21,w19 // h+=K[i]
|
|
eor w12,w26,w26,ror#14
|
|
and w17,w27,w26
|
|
bic w19,w20,w26
|
|
add w21,w21,w9 // h+=X[i]
|
|
orr w17,w17,w19 // Ch(e,f,g)
|
|
eor w19,w22,w23 // a^b, b^c in next round
|
|
eor w16,w16,w12,ror#11 // Sigma1(e)
|
|
ror w12,w22,#2
|
|
add w21,w21,w17 // h+=Ch(e,f,g)
|
|
eor w17,w22,w22,ror#9
|
|
add w21,w21,w16 // h+=Sigma1(e)
|
|
and w28,w28,w19 // (b^c)&=(a^b)
|
|
add w25,w25,w21 // d+=h
|
|
eor w28,w28,w23 // Maj(a,b,c)
|
|
eor w17,w12,w17,ror#13 // Sigma0(a)
|
|
add w21,w21,w28 // h+=Maj(a,b,c)
|
|
ldr w28,[x30],#4 // *K++, w19 in next round
|
|
//add w21,w21,w17 // h+=Sigma0(a)
|
|
#ifndef __ARMEB__
|
|
rev w10,w10 // 7
|
|
#endif
|
|
ldp w11,w12,[x1],#2*4
|
|
add w21,w21,w17 // h+=Sigma0(a)
|
|
ror w16,w25,#6
|
|
add w20,w20,w28 // h+=K[i]
|
|
eor w13,w25,w25,ror#14
|
|
and w17,w26,w25
|
|
bic w28,w27,w25
|
|
add w20,w20,w10 // h+=X[i]
|
|
orr w17,w17,w28 // Ch(e,f,g)
|
|
eor w28,w21,w22 // a^b, b^c in next round
|
|
eor w16,w16,w13,ror#11 // Sigma1(e)
|
|
ror w13,w21,#2
|
|
add w20,w20,w17 // h+=Ch(e,f,g)
|
|
eor w17,w21,w21,ror#9
|
|
add w20,w20,w16 // h+=Sigma1(e)
|
|
and w19,w19,w28 // (b^c)&=(a^b)
|
|
add w24,w24,w20 // d+=h
|
|
eor w19,w19,w22 // Maj(a,b,c)
|
|
eor w17,w13,w17,ror#13 // Sigma0(a)
|
|
add w20,w20,w19 // h+=Maj(a,b,c)
|
|
ldr w19,[x30],#4 // *K++, w28 in next round
|
|
//add w20,w20,w17 // h+=Sigma0(a)
|
|
#ifndef __ARMEB__
|
|
rev w11,w11 // 8
|
|
#endif
|
|
add w20,w20,w17 // h+=Sigma0(a)
|
|
ror w16,w24,#6
|
|
add w27,w27,w19 // h+=K[i]
|
|
eor w14,w24,w24,ror#14
|
|
and w17,w25,w24
|
|
bic w19,w26,w24
|
|
add w27,w27,w11 // h+=X[i]
|
|
orr w17,w17,w19 // Ch(e,f,g)
|
|
eor w19,w20,w21 // a^b, b^c in next round
|
|
eor w16,w16,w14,ror#11 // Sigma1(e)
|
|
ror w14,w20,#2
|
|
add w27,w27,w17 // h+=Ch(e,f,g)
|
|
eor w17,w20,w20,ror#9
|
|
add w27,w27,w16 // h+=Sigma1(e)
|
|
and w28,w28,w19 // (b^c)&=(a^b)
|
|
add w23,w23,w27 // d+=h
|
|
eor w28,w28,w21 // Maj(a,b,c)
|
|
eor w17,w14,w17,ror#13 // Sigma0(a)
|
|
add w27,w27,w28 // h+=Maj(a,b,c)
|
|
ldr w28,[x30],#4 // *K++, w19 in next round
|
|
//add w27,w27,w17 // h+=Sigma0(a)
|
|
#ifndef __ARMEB__
|
|
rev w12,w12 // 9
|
|
#endif
|
|
ldp w13,w14,[x1],#2*4
|
|
add w27,w27,w17 // h+=Sigma0(a)
|
|
ror w16,w23,#6
|
|
add w26,w26,w28 // h+=K[i]
|
|
eor w15,w23,w23,ror#14
|
|
and w17,w24,w23
|
|
bic w28,w25,w23
|
|
add w26,w26,w12 // h+=X[i]
|
|
orr w17,w17,w28 // Ch(e,f,g)
|
|
eor w28,w27,w20 // a^b, b^c in next round
|
|
eor w16,w16,w15,ror#11 // Sigma1(e)
|
|
ror w15,w27,#2
|
|
add w26,w26,w17 // h+=Ch(e,f,g)
|
|
eor w17,w27,w27,ror#9
|
|
add w26,w26,w16 // h+=Sigma1(e)
|
|
and w19,w19,w28 // (b^c)&=(a^b)
|
|
add w22,w22,w26 // d+=h
|
|
eor w19,w19,w20 // Maj(a,b,c)
|
|
eor w17,w15,w17,ror#13 // Sigma0(a)
|
|
add w26,w26,w19 // h+=Maj(a,b,c)
|
|
ldr w19,[x30],#4 // *K++, w28 in next round
|
|
//add w26,w26,w17 // h+=Sigma0(a)
|
|
#ifndef __ARMEB__
|
|
rev w13,w13 // 10
|
|
#endif
|
|
add w26,w26,w17 // h+=Sigma0(a)
|
|
ror w16,w22,#6
|
|
add w25,w25,w19 // h+=K[i]
|
|
eor w0,w22,w22,ror#14
|
|
and w17,w23,w22
|
|
bic w19,w24,w22
|
|
add w25,w25,w13 // h+=X[i]
|
|
orr w17,w17,w19 // Ch(e,f,g)
|
|
eor w19,w26,w27 // a^b, b^c in next round
|
|
eor w16,w16,w0,ror#11 // Sigma1(e)
|
|
ror w0,w26,#2
|
|
add w25,w25,w17 // h+=Ch(e,f,g)
|
|
eor w17,w26,w26,ror#9
|
|
add w25,w25,w16 // h+=Sigma1(e)
|
|
and w28,w28,w19 // (b^c)&=(a^b)
|
|
add w21,w21,w25 // d+=h
|
|
eor w28,w28,w27 // Maj(a,b,c)
|
|
eor w17,w0,w17,ror#13 // Sigma0(a)
|
|
add w25,w25,w28 // h+=Maj(a,b,c)
|
|
ldr w28,[x30],#4 // *K++, w19 in next round
|
|
//add w25,w25,w17 // h+=Sigma0(a)
|
|
#ifndef __ARMEB__
|
|
rev w14,w14 // 11
|
|
#endif
|
|
ldp w15,w0,[x1],#2*4
|
|
add w25,w25,w17 // h+=Sigma0(a)
|
|
str w6,[sp,#12]
|
|
ror w16,w21,#6
|
|
add w24,w24,w28 // h+=K[i]
|
|
eor w6,w21,w21,ror#14
|
|
and w17,w22,w21
|
|
bic w28,w23,w21
|
|
add w24,w24,w14 // h+=X[i]
|
|
orr w17,w17,w28 // Ch(e,f,g)
|
|
eor w28,w25,w26 // a^b, b^c in next round
|
|
eor w16,w16,w6,ror#11 // Sigma1(e)
|
|
ror w6,w25,#2
|
|
add w24,w24,w17 // h+=Ch(e,f,g)
|
|
eor w17,w25,w25,ror#9
|
|
add w24,w24,w16 // h+=Sigma1(e)
|
|
and w19,w19,w28 // (b^c)&=(a^b)
|
|
add w20,w20,w24 // d+=h
|
|
eor w19,w19,w26 // Maj(a,b,c)
|
|
eor w17,w6,w17,ror#13 // Sigma0(a)
|
|
add w24,w24,w19 // h+=Maj(a,b,c)
|
|
ldr w19,[x30],#4 // *K++, w28 in next round
|
|
//add w24,w24,w17 // h+=Sigma0(a)
|
|
#ifndef __ARMEB__
|
|
rev w15,w15 // 12
|
|
#endif
|
|
add w24,w24,w17 // h+=Sigma0(a)
|
|
str w7,[sp,#0]
|
|
ror w16,w20,#6
|
|
add w23,w23,w19 // h+=K[i]
|
|
eor w7,w20,w20,ror#14
|
|
and w17,w21,w20
|
|
bic w19,w22,w20
|
|
add w23,w23,w15 // h+=X[i]
|
|
orr w17,w17,w19 // Ch(e,f,g)
|
|
eor w19,w24,w25 // a^b, b^c in next round
|
|
eor w16,w16,w7,ror#11 // Sigma1(e)
|
|
ror w7,w24,#2
|
|
add w23,w23,w17 // h+=Ch(e,f,g)
|
|
eor w17,w24,w24,ror#9
|
|
add w23,w23,w16 // h+=Sigma1(e)
|
|
and w28,w28,w19 // (b^c)&=(a^b)
|
|
add w27,w27,w23 // d+=h
|
|
eor w28,w28,w25 // Maj(a,b,c)
|
|
eor w17,w7,w17,ror#13 // Sigma0(a)
|
|
add w23,w23,w28 // h+=Maj(a,b,c)
|
|
ldr w28,[x30],#4 // *K++, w19 in next round
|
|
//add w23,w23,w17 // h+=Sigma0(a)
|
|
#ifndef __ARMEB__
|
|
rev w0,w0 // 13
|
|
#endif
|
|
ldp w1,w2,[x1]
|
|
add w23,w23,w17 // h+=Sigma0(a)
|
|
str w8,[sp,#4]
|
|
ror w16,w27,#6
|
|
add w22,w22,w28 // h+=K[i]
|
|
eor w8,w27,w27,ror#14
|
|
and w17,w20,w27
|
|
bic w28,w21,w27
|
|
add w22,w22,w0 // h+=X[i]
|
|
orr w17,w17,w28 // Ch(e,f,g)
|
|
eor w28,w23,w24 // a^b, b^c in next round
|
|
eor w16,w16,w8,ror#11 // Sigma1(e)
|
|
ror w8,w23,#2
|
|
add w22,w22,w17 // h+=Ch(e,f,g)
|
|
eor w17,w23,w23,ror#9
|
|
add w22,w22,w16 // h+=Sigma1(e)
|
|
and w19,w19,w28 // (b^c)&=(a^b)
|
|
add w26,w26,w22 // d+=h
|
|
eor w19,w19,w24 // Maj(a,b,c)
|
|
eor w17,w8,w17,ror#13 // Sigma0(a)
|
|
add w22,w22,w19 // h+=Maj(a,b,c)
|
|
ldr w19,[x30],#4 // *K++, w28 in next round
|
|
//add w22,w22,w17 // h+=Sigma0(a)
|
|
#ifndef __ARMEB__
|
|
rev w1,w1 // 14
|
|
#endif
|
|
ldr w6,[sp,#12]
|
|
add w22,w22,w17 // h+=Sigma0(a)
|
|
str w9,[sp,#8]
|
|
ror w16,w26,#6
|
|
add w21,w21,w19 // h+=K[i]
|
|
eor w9,w26,w26,ror#14
|
|
and w17,w27,w26
|
|
bic w19,w20,w26
|
|
add w21,w21,w1 // h+=X[i]
|
|
orr w17,w17,w19 // Ch(e,f,g)
|
|
eor w19,w22,w23 // a^b, b^c in next round
|
|
eor w16,w16,w9,ror#11 // Sigma1(e)
|
|
ror w9,w22,#2
|
|
add w21,w21,w17 // h+=Ch(e,f,g)
|
|
eor w17,w22,w22,ror#9
|
|
add w21,w21,w16 // h+=Sigma1(e)
|
|
and w28,w28,w19 // (b^c)&=(a^b)
|
|
add w25,w25,w21 // d+=h
|
|
eor w28,w28,w23 // Maj(a,b,c)
|
|
eor w17,w9,w17,ror#13 // Sigma0(a)
|
|
add w21,w21,w28 // h+=Maj(a,b,c)
|
|
ldr w28,[x30],#4 // *K++, w19 in next round
|
|
//add w21,w21,w17 // h+=Sigma0(a)
|
|
#ifndef __ARMEB__
|
|
rev w2,w2 // 15
|
|
#endif
|
|
ldr w7,[sp,#0]
|
|
add w21,w21,w17 // h+=Sigma0(a)
|
|
str w10,[sp,#12]
|
|
ror w16,w25,#6
|
|
add w20,w20,w28 // h+=K[i]
|
|
ror w9,w4,#7
|
|
and w17,w26,w25
|
|
ror w8,w1,#17
|
|
bic w28,w27,w25
|
|
ror w10,w21,#2
|
|
add w20,w20,w2 // h+=X[i]
|
|
eor w16,w16,w25,ror#11
|
|
eor w9,w9,w4,ror#18
|
|
orr w17,w17,w28 // Ch(e,f,g)
|
|
eor w28,w21,w22 // a^b, b^c in next round
|
|
eor w16,w16,w25,ror#25 // Sigma1(e)
|
|
eor w10,w10,w21,ror#13
|
|
add w20,w20,w17 // h+=Ch(e,f,g)
|
|
and w19,w19,w28 // (b^c)&=(a^b)
|
|
eor w8,w8,w1,ror#19
|
|
eor w9,w9,w4,lsr#3 // sigma0(X[i+1])
|
|
add w20,w20,w16 // h+=Sigma1(e)
|
|
eor w19,w19,w22 // Maj(a,b,c)
|
|
eor w17,w10,w21,ror#22 // Sigma0(a)
|
|
eor w8,w8,w1,lsr#10 // sigma1(X[i+14])
|
|
add w3,w3,w12
|
|
add w24,w24,w20 // d+=h
|
|
add w20,w20,w19 // h+=Maj(a,b,c)
|
|
ldr w19,[x30],#4 // *K++, w28 in next round
|
|
add w3,w3,w9
|
|
add w20,w20,w17 // h+=Sigma0(a)
|
|
add w3,w3,w8
|
|
Loop_16_xx:
|
|
ldr w8,[sp,#4]
|
|
str w11,[sp,#0]
|
|
ror w16,w24,#6
|
|
add w27,w27,w19 // h+=K[i]
|
|
ror w10,w5,#7
|
|
and w17,w25,w24
|
|
ror w9,w2,#17
|
|
bic w19,w26,w24
|
|
ror w11,w20,#2
|
|
add w27,w27,w3 // h+=X[i]
|
|
eor w16,w16,w24,ror#11
|
|
eor w10,w10,w5,ror#18
|
|
orr w17,w17,w19 // Ch(e,f,g)
|
|
eor w19,w20,w21 // a^b, b^c in next round
|
|
eor w16,w16,w24,ror#25 // Sigma1(e)
|
|
eor w11,w11,w20,ror#13
|
|
add w27,w27,w17 // h+=Ch(e,f,g)
|
|
and w28,w28,w19 // (b^c)&=(a^b)
|
|
eor w9,w9,w2,ror#19
|
|
eor w10,w10,w5,lsr#3 // sigma0(X[i+1])
|
|
add w27,w27,w16 // h+=Sigma1(e)
|
|
eor w28,w28,w21 // Maj(a,b,c)
|
|
eor w17,w11,w20,ror#22 // Sigma0(a)
|
|
eor w9,w9,w2,lsr#10 // sigma1(X[i+14])
|
|
add w4,w4,w13
|
|
add w23,w23,w27 // d+=h
|
|
add w27,w27,w28 // h+=Maj(a,b,c)
|
|
ldr w28,[x30],#4 // *K++, w19 in next round
|
|
add w4,w4,w10
|
|
add w27,w27,w17 // h+=Sigma0(a)
|
|
add w4,w4,w9
|
|
ldr w9,[sp,#8]
|
|
str w12,[sp,#4]
|
|
ror w16,w23,#6
|
|
add w26,w26,w28 // h+=K[i]
|
|
ror w11,w6,#7
|
|
and w17,w24,w23
|
|
ror w10,w3,#17
|
|
bic w28,w25,w23
|
|
ror w12,w27,#2
|
|
add w26,w26,w4 // h+=X[i]
|
|
eor w16,w16,w23,ror#11
|
|
eor w11,w11,w6,ror#18
|
|
orr w17,w17,w28 // Ch(e,f,g)
|
|
eor w28,w27,w20 // a^b, b^c in next round
|
|
eor w16,w16,w23,ror#25 // Sigma1(e)
|
|
eor w12,w12,w27,ror#13
|
|
add w26,w26,w17 // h+=Ch(e,f,g)
|
|
and w19,w19,w28 // (b^c)&=(a^b)
|
|
eor w10,w10,w3,ror#19
|
|
eor w11,w11,w6,lsr#3 // sigma0(X[i+1])
|
|
add w26,w26,w16 // h+=Sigma1(e)
|
|
eor w19,w19,w20 // Maj(a,b,c)
|
|
eor w17,w12,w27,ror#22 // Sigma0(a)
|
|
eor w10,w10,w3,lsr#10 // sigma1(X[i+14])
|
|
add w5,w5,w14
|
|
add w22,w22,w26 // d+=h
|
|
add w26,w26,w19 // h+=Maj(a,b,c)
|
|
ldr w19,[x30],#4 // *K++, w28 in next round
|
|
add w5,w5,w11
|
|
add w26,w26,w17 // h+=Sigma0(a)
|
|
add w5,w5,w10
|
|
ldr w10,[sp,#12]
|
|
str w13,[sp,#8]
|
|
ror w16,w22,#6
|
|
add w25,w25,w19 // h+=K[i]
|
|
ror w12,w7,#7
|
|
and w17,w23,w22
|
|
ror w11,w4,#17
|
|
bic w19,w24,w22
|
|
ror w13,w26,#2
|
|
add w25,w25,w5 // h+=X[i]
|
|
eor w16,w16,w22,ror#11
|
|
eor w12,w12,w7,ror#18
|
|
orr w17,w17,w19 // Ch(e,f,g)
|
|
eor w19,w26,w27 // a^b, b^c in next round
|
|
eor w16,w16,w22,ror#25 // Sigma1(e)
|
|
eor w13,w13,w26,ror#13
|
|
add w25,w25,w17 // h+=Ch(e,f,g)
|
|
and w28,w28,w19 // (b^c)&=(a^b)
|
|
eor w11,w11,w4,ror#19
|
|
eor w12,w12,w7,lsr#3 // sigma0(X[i+1])
|
|
add w25,w25,w16 // h+=Sigma1(e)
|
|
eor w28,w28,w27 // Maj(a,b,c)
|
|
eor w17,w13,w26,ror#22 // Sigma0(a)
|
|
eor w11,w11,w4,lsr#10 // sigma1(X[i+14])
|
|
add w6,w6,w15
|
|
add w21,w21,w25 // d+=h
|
|
add w25,w25,w28 // h+=Maj(a,b,c)
|
|
ldr w28,[x30],#4 // *K++, w19 in next round
|
|
add w6,w6,w12
|
|
add w25,w25,w17 // h+=Sigma0(a)
|
|
add w6,w6,w11
|
|
ldr w11,[sp,#0]
|
|
str w14,[sp,#12]
|
|
ror w16,w21,#6
|
|
add w24,w24,w28 // h+=K[i]
|
|
ror w13,w8,#7
|
|
and w17,w22,w21
|
|
ror w12,w5,#17
|
|
bic w28,w23,w21
|
|
ror w14,w25,#2
|
|
add w24,w24,w6 // h+=X[i]
|
|
eor w16,w16,w21,ror#11
|
|
eor w13,w13,w8,ror#18
|
|
orr w17,w17,w28 // Ch(e,f,g)
|
|
eor w28,w25,w26 // a^b, b^c in next round
|
|
eor w16,w16,w21,ror#25 // Sigma1(e)
|
|
eor w14,w14,w25,ror#13
|
|
add w24,w24,w17 // h+=Ch(e,f,g)
|
|
and w19,w19,w28 // (b^c)&=(a^b)
|
|
eor w12,w12,w5,ror#19
|
|
eor w13,w13,w8,lsr#3 // sigma0(X[i+1])
|
|
add w24,w24,w16 // h+=Sigma1(e)
|
|
eor w19,w19,w26 // Maj(a,b,c)
|
|
eor w17,w14,w25,ror#22 // Sigma0(a)
|
|
eor w12,w12,w5,lsr#10 // sigma1(X[i+14])
|
|
add w7,w7,w0
|
|
add w20,w20,w24 // d+=h
|
|
add w24,w24,w19 // h+=Maj(a,b,c)
|
|
ldr w19,[x30],#4 // *K++, w28 in next round
|
|
add w7,w7,w13
|
|
add w24,w24,w17 // h+=Sigma0(a)
|
|
add w7,w7,w12
|
|
ldr w12,[sp,#4]
|
|
str w15,[sp,#0]
|
|
ror w16,w20,#6
|
|
add w23,w23,w19 // h+=K[i]
|
|
ror w14,w9,#7
|
|
and w17,w21,w20
|
|
ror w13,w6,#17
|
|
bic w19,w22,w20
|
|
ror w15,w24,#2
|
|
add w23,w23,w7 // h+=X[i]
|
|
eor w16,w16,w20,ror#11
|
|
eor w14,w14,w9,ror#18
|
|
orr w17,w17,w19 // Ch(e,f,g)
|
|
eor w19,w24,w25 // a^b, b^c in next round
|
|
eor w16,w16,w20,ror#25 // Sigma1(e)
|
|
eor w15,w15,w24,ror#13
|
|
add w23,w23,w17 // h+=Ch(e,f,g)
|
|
and w28,w28,w19 // (b^c)&=(a^b)
|
|
eor w13,w13,w6,ror#19
|
|
eor w14,w14,w9,lsr#3 // sigma0(X[i+1])
|
|
add w23,w23,w16 // h+=Sigma1(e)
|
|
eor w28,w28,w25 // Maj(a,b,c)
|
|
eor w17,w15,w24,ror#22 // Sigma0(a)
|
|
eor w13,w13,w6,lsr#10 // sigma1(X[i+14])
|
|
add w8,w8,w1
|
|
add w27,w27,w23 // d+=h
|
|
add w23,w23,w28 // h+=Maj(a,b,c)
|
|
ldr w28,[x30],#4 // *K++, w19 in next round
|
|
add w8,w8,w14
|
|
add w23,w23,w17 // h+=Sigma0(a)
|
|
add w8,w8,w13
|
|
ldr w13,[sp,#8]
|
|
str w0,[sp,#4]
|
|
ror w16,w27,#6
|
|
add w22,w22,w28 // h+=K[i]
|
|
ror w15,w10,#7
|
|
and w17,w20,w27
|
|
ror w14,w7,#17
|
|
bic w28,w21,w27
|
|
ror w0,w23,#2
|
|
add w22,w22,w8 // h+=X[i]
|
|
eor w16,w16,w27,ror#11
|
|
eor w15,w15,w10,ror#18
|
|
orr w17,w17,w28 // Ch(e,f,g)
|
|
eor w28,w23,w24 // a^b, b^c in next round
|
|
eor w16,w16,w27,ror#25 // Sigma1(e)
|
|
eor w0,w0,w23,ror#13
|
|
add w22,w22,w17 // h+=Ch(e,f,g)
|
|
and w19,w19,w28 // (b^c)&=(a^b)
|
|
eor w14,w14,w7,ror#19
|
|
eor w15,w15,w10,lsr#3 // sigma0(X[i+1])
|
|
add w22,w22,w16 // h+=Sigma1(e)
|
|
eor w19,w19,w24 // Maj(a,b,c)
|
|
eor w17,w0,w23,ror#22 // Sigma0(a)
|
|
eor w14,w14,w7,lsr#10 // sigma1(X[i+14])
|
|
add w9,w9,w2
|
|
add w26,w26,w22 // d+=h
|
|
add w22,w22,w19 // h+=Maj(a,b,c)
|
|
ldr w19,[x30],#4 // *K++, w28 in next round
|
|
add w9,w9,w15
|
|
add w22,w22,w17 // h+=Sigma0(a)
|
|
add w9,w9,w14
|
|
ldr w14,[sp,#12]
|
|
str w1,[sp,#8]
|
|
ror w16,w26,#6
|
|
add w21,w21,w19 // h+=K[i]
|
|
ror w0,w11,#7
|
|
and w17,w27,w26
|
|
ror w15,w8,#17
|
|
bic w19,w20,w26
|
|
ror w1,w22,#2
|
|
add w21,w21,w9 // h+=X[i]
|
|
eor w16,w16,w26,ror#11
|
|
eor w0,w0,w11,ror#18
|
|
orr w17,w17,w19 // Ch(e,f,g)
|
|
eor w19,w22,w23 // a^b, b^c in next round
|
|
eor w16,w16,w26,ror#25 // Sigma1(e)
|
|
eor w1,w1,w22,ror#13
|
|
add w21,w21,w17 // h+=Ch(e,f,g)
|
|
and w28,w28,w19 // (b^c)&=(a^b)
|
|
eor w15,w15,w8,ror#19
|
|
eor w0,w0,w11,lsr#3 // sigma0(X[i+1])
|
|
add w21,w21,w16 // h+=Sigma1(e)
|
|
eor w28,w28,w23 // Maj(a,b,c)
|
|
eor w17,w1,w22,ror#22 // Sigma0(a)
|
|
eor w15,w15,w8,lsr#10 // sigma1(X[i+14])
|
|
add w10,w10,w3
|
|
add w25,w25,w21 // d+=h
|
|
add w21,w21,w28 // h+=Maj(a,b,c)
|
|
ldr w28,[x30],#4 // *K++, w19 in next round
|
|
add w10,w10,w0
|
|
add w21,w21,w17 // h+=Sigma0(a)
|
|
add w10,w10,w15
|
|
ldr w15,[sp,#0]
|
|
str w2,[sp,#12]
|
|
ror w16,w25,#6
|
|
add w20,w20,w28 // h+=K[i]
|
|
ror w1,w12,#7
|
|
and w17,w26,w25
|
|
ror w0,w9,#17
|
|
bic w28,w27,w25
|
|
ror w2,w21,#2
|
|
add w20,w20,w10 // h+=X[i]
|
|
eor w16,w16,w25,ror#11
|
|
eor w1,w1,w12,ror#18
|
|
orr w17,w17,w28 // Ch(e,f,g)
|
|
eor w28,w21,w22 // a^b, b^c in next round
|
|
eor w16,w16,w25,ror#25 // Sigma1(e)
|
|
eor w2,w2,w21,ror#13
|
|
add w20,w20,w17 // h+=Ch(e,f,g)
|
|
and w19,w19,w28 // (b^c)&=(a^b)
|
|
eor w0,w0,w9,ror#19
|
|
eor w1,w1,w12,lsr#3 // sigma0(X[i+1])
|
|
add w20,w20,w16 // h+=Sigma1(e)
|
|
eor w19,w19,w22 // Maj(a,b,c)
|
|
eor w17,w2,w21,ror#22 // Sigma0(a)
|
|
eor w0,w0,w9,lsr#10 // sigma1(X[i+14])
|
|
add w11,w11,w4
|
|
add w24,w24,w20 // d+=h
|
|
add w20,w20,w19 // h+=Maj(a,b,c)
|
|
ldr w19,[x30],#4 // *K++, w28 in next round
|
|
add w11,w11,w1
|
|
add w20,w20,w17 // h+=Sigma0(a)
|
|
add w11,w11,w0
|
|
ldr w0,[sp,#4]
|
|
str w3,[sp,#0]
|
|
ror w16,w24,#6
|
|
add w27,w27,w19 // h+=K[i]
|
|
ror w2,w13,#7
|
|
and w17,w25,w24
|
|
ror w1,w10,#17
|
|
bic w19,w26,w24
|
|
ror w3,w20,#2
|
|
add w27,w27,w11 // h+=X[i]
|
|
eor w16,w16,w24,ror#11
|
|
eor w2,w2,w13,ror#18
|
|
orr w17,w17,w19 // Ch(e,f,g)
|
|
eor w19,w20,w21 // a^b, b^c in next round
|
|
eor w16,w16,w24,ror#25 // Sigma1(e)
|
|
eor w3,w3,w20,ror#13
|
|
add w27,w27,w17 // h+=Ch(e,f,g)
|
|
and w28,w28,w19 // (b^c)&=(a^b)
|
|
eor w1,w1,w10,ror#19
|
|
eor w2,w2,w13,lsr#3 // sigma0(X[i+1])
|
|
add w27,w27,w16 // h+=Sigma1(e)
|
|
eor w28,w28,w21 // Maj(a,b,c)
|
|
eor w17,w3,w20,ror#22 // Sigma0(a)
|
|
eor w1,w1,w10,lsr#10 // sigma1(X[i+14])
|
|
add w12,w12,w5
|
|
add w23,w23,w27 // d+=h
|
|
add w27,w27,w28 // h+=Maj(a,b,c)
|
|
ldr w28,[x30],#4 // *K++, w19 in next round
|
|
add w12,w12,w2
|
|
add w27,w27,w17 // h+=Sigma0(a)
|
|
add w12,w12,w1
|
|
ldr w1,[sp,#8]
|
|
str w4,[sp,#4]
|
|
ror w16,w23,#6
|
|
add w26,w26,w28 // h+=K[i]
|
|
ror w3,w14,#7
|
|
and w17,w24,w23
|
|
ror w2,w11,#17
|
|
bic w28,w25,w23
|
|
ror w4,w27,#2
|
|
add w26,w26,w12 // h+=X[i]
|
|
eor w16,w16,w23,ror#11
|
|
eor w3,w3,w14,ror#18
|
|
orr w17,w17,w28 // Ch(e,f,g)
|
|
eor w28,w27,w20 // a^b, b^c in next round
|
|
eor w16,w16,w23,ror#25 // Sigma1(e)
|
|
eor w4,w4,w27,ror#13
|
|
add w26,w26,w17 // h+=Ch(e,f,g)
|
|
and w19,w19,w28 // (b^c)&=(a^b)
|
|
eor w2,w2,w11,ror#19
|
|
eor w3,w3,w14,lsr#3 // sigma0(X[i+1])
|
|
add w26,w26,w16 // h+=Sigma1(e)
|
|
eor w19,w19,w20 // Maj(a,b,c)
|
|
eor w17,w4,w27,ror#22 // Sigma0(a)
|
|
eor w2,w2,w11,lsr#10 // sigma1(X[i+14])
|
|
add w13,w13,w6
|
|
add w22,w22,w26 // d+=h
|
|
add w26,w26,w19 // h+=Maj(a,b,c)
|
|
ldr w19,[x30],#4 // *K++, w28 in next round
|
|
add w13,w13,w3
|
|
add w26,w26,w17 // h+=Sigma0(a)
|
|
add w13,w13,w2
|
|
ldr w2,[sp,#12]
|
|
str w5,[sp,#8]
|
|
ror w16,w22,#6
|
|
add w25,w25,w19 // h+=K[i]
|
|
ror w4,w15,#7
|
|
and w17,w23,w22
|
|
ror w3,w12,#17
|
|
bic w19,w24,w22
|
|
ror w5,w26,#2
|
|
add w25,w25,w13 // h+=X[i]
|
|
eor w16,w16,w22,ror#11
|
|
eor w4,w4,w15,ror#18
|
|
orr w17,w17,w19 // Ch(e,f,g)
|
|
eor w19,w26,w27 // a^b, b^c in next round
|
|
eor w16,w16,w22,ror#25 // Sigma1(e)
|
|
eor w5,w5,w26,ror#13
|
|
add w25,w25,w17 // h+=Ch(e,f,g)
|
|
and w28,w28,w19 // (b^c)&=(a^b)
|
|
eor w3,w3,w12,ror#19
|
|
eor w4,w4,w15,lsr#3 // sigma0(X[i+1])
|
|
add w25,w25,w16 // h+=Sigma1(e)
|
|
eor w28,w28,w27 // Maj(a,b,c)
|
|
eor w17,w5,w26,ror#22 // Sigma0(a)
|
|
eor w3,w3,w12,lsr#10 // sigma1(X[i+14])
|
|
add w14,w14,w7
|
|
add w21,w21,w25 // d+=h
|
|
add w25,w25,w28 // h+=Maj(a,b,c)
|
|
ldr w28,[x30],#4 // *K++, w19 in next round
|
|
add w14,w14,w4
|
|
add w25,w25,w17 // h+=Sigma0(a)
|
|
add w14,w14,w3
|
|
ldr w3,[sp,#0]
|
|
str w6,[sp,#12]
|
|
ror w16,w21,#6
|
|
add w24,w24,w28 // h+=K[i]
|
|
ror w5,w0,#7
|
|
and w17,w22,w21
|
|
ror w4,w13,#17
|
|
bic w28,w23,w21
|
|
ror w6,w25,#2
|
|
add w24,w24,w14 // h+=X[i]
|
|
eor w16,w16,w21,ror#11
|
|
eor w5,w5,w0,ror#18
|
|
orr w17,w17,w28 // Ch(e,f,g)
|
|
eor w28,w25,w26 // a^b, b^c in next round
|
|
eor w16,w16,w21,ror#25 // Sigma1(e)
|
|
eor w6,w6,w25,ror#13
|
|
add w24,w24,w17 // h+=Ch(e,f,g)
|
|
and w19,w19,w28 // (b^c)&=(a^b)
|
|
eor w4,w4,w13,ror#19
|
|
eor w5,w5,w0,lsr#3 // sigma0(X[i+1])
|
|
add w24,w24,w16 // h+=Sigma1(e)
|
|
eor w19,w19,w26 // Maj(a,b,c)
|
|
eor w17,w6,w25,ror#22 // Sigma0(a)
|
|
eor w4,w4,w13,lsr#10 // sigma1(X[i+14])
|
|
add w15,w15,w8
|
|
add w20,w20,w24 // d+=h
|
|
add w24,w24,w19 // h+=Maj(a,b,c)
|
|
ldr w19,[x30],#4 // *K++, w28 in next round
|
|
add w15,w15,w5
|
|
add w24,w24,w17 // h+=Sigma0(a)
|
|
add w15,w15,w4
|
|
ldr w4,[sp,#4]
|
|
str w7,[sp,#0]
|
|
ror w16,w20,#6
|
|
add w23,w23,w19 // h+=K[i]
|
|
ror w6,w1,#7
|
|
and w17,w21,w20
|
|
ror w5,w14,#17
|
|
bic w19,w22,w20
|
|
ror w7,w24,#2
|
|
add w23,w23,w15 // h+=X[i]
|
|
eor w16,w16,w20,ror#11
|
|
eor w6,w6,w1,ror#18
|
|
orr w17,w17,w19 // Ch(e,f,g)
|
|
eor w19,w24,w25 // a^b, b^c in next round
|
|
eor w16,w16,w20,ror#25 // Sigma1(e)
|
|
eor w7,w7,w24,ror#13
|
|
add w23,w23,w17 // h+=Ch(e,f,g)
|
|
and w28,w28,w19 // (b^c)&=(a^b)
|
|
eor w5,w5,w14,ror#19
|
|
eor w6,w6,w1,lsr#3 // sigma0(X[i+1])
|
|
add w23,w23,w16 // h+=Sigma1(e)
|
|
eor w28,w28,w25 // Maj(a,b,c)
|
|
eor w17,w7,w24,ror#22 // Sigma0(a)
|
|
eor w5,w5,w14,lsr#10 // sigma1(X[i+14])
|
|
add w0,w0,w9
|
|
add w27,w27,w23 // d+=h
|
|
add w23,w23,w28 // h+=Maj(a,b,c)
|
|
ldr w28,[x30],#4 // *K++, w19 in next round
|
|
add w0,w0,w6
|
|
add w23,w23,w17 // h+=Sigma0(a)
|
|
add w0,w0,w5
|
|
ldr w5,[sp,#8]
|
|
str w8,[sp,#4]
|
|
ror w16,w27,#6
|
|
add w22,w22,w28 // h+=K[i]
|
|
ror w7,w2,#7
|
|
and w17,w20,w27
|
|
ror w6,w15,#17
|
|
bic w28,w21,w27
|
|
ror w8,w23,#2
|
|
add w22,w22,w0 // h+=X[i]
|
|
eor w16,w16,w27,ror#11
|
|
eor w7,w7,w2,ror#18
|
|
orr w17,w17,w28 // Ch(e,f,g)
|
|
eor w28,w23,w24 // a^b, b^c in next round
|
|
eor w16,w16,w27,ror#25 // Sigma1(e)
|
|
eor w8,w8,w23,ror#13
|
|
add w22,w22,w17 // h+=Ch(e,f,g)
|
|
and w19,w19,w28 // (b^c)&=(a^b)
|
|
eor w6,w6,w15,ror#19
|
|
eor w7,w7,w2,lsr#3 // sigma0(X[i+1])
|
|
add w22,w22,w16 // h+=Sigma1(e)
|
|
eor w19,w19,w24 // Maj(a,b,c)
|
|
eor w17,w8,w23,ror#22 // Sigma0(a)
|
|
eor w6,w6,w15,lsr#10 // sigma1(X[i+14])
|
|
add w1,w1,w10
|
|
add w26,w26,w22 // d+=h
|
|
add w22,w22,w19 // h+=Maj(a,b,c)
|
|
ldr w19,[x30],#4 // *K++, w28 in next round
|
|
add w1,w1,w7
|
|
add w22,w22,w17 // h+=Sigma0(a)
|
|
add w1,w1,w6
|
|
ldr w6,[sp,#12]
|
|
str w9,[sp,#8]
|
|
ror w16,w26,#6
|
|
add w21,w21,w19 // h+=K[i]
|
|
ror w8,w3,#7
|
|
and w17,w27,w26
|
|
ror w7,w0,#17
|
|
bic w19,w20,w26
|
|
ror w9,w22,#2
|
|
add w21,w21,w1 // h+=X[i]
|
|
eor w16,w16,w26,ror#11
|
|
eor w8,w8,w3,ror#18
|
|
orr w17,w17,w19 // Ch(e,f,g)
|
|
eor w19,w22,w23 // a^b, b^c in next round
|
|
eor w16,w16,w26,ror#25 // Sigma1(e)
|
|
eor w9,w9,w22,ror#13
|
|
add w21,w21,w17 // h+=Ch(e,f,g)
|
|
and w28,w28,w19 // (b^c)&=(a^b)
|
|
eor w7,w7,w0,ror#19
|
|
eor w8,w8,w3,lsr#3 // sigma0(X[i+1])
|
|
add w21,w21,w16 // h+=Sigma1(e)
|
|
eor w28,w28,w23 // Maj(a,b,c)
|
|
eor w17,w9,w22,ror#22 // Sigma0(a)
|
|
eor w7,w7,w0,lsr#10 // sigma1(X[i+14])
|
|
add w2,w2,w11
|
|
add w25,w25,w21 // d+=h
|
|
add w21,w21,w28 // h+=Maj(a,b,c)
|
|
ldr w28,[x30],#4 // *K++, w19 in next round
|
|
add w2,w2,w8
|
|
add w21,w21,w17 // h+=Sigma0(a)
|
|
add w2,w2,w7
|
|
ldr w7,[sp,#0]
|
|
str w10,[sp,#12]
|
|
ror w16,w25,#6
|
|
add w20,w20,w28 // h+=K[i]
|
|
ror w9,w4,#7
|
|
and w17,w26,w25
|
|
ror w8,w1,#17
|
|
bic w28,w27,w25
|
|
ror w10,w21,#2
|
|
add w20,w20,w2 // h+=X[i]
|
|
eor w16,w16,w25,ror#11
|
|
eor w9,w9,w4,ror#18
|
|
orr w17,w17,w28 // Ch(e,f,g)
|
|
eor w28,w21,w22 // a^b, b^c in next round
|
|
eor w16,w16,w25,ror#25 // Sigma1(e)
|
|
eor w10,w10,w21,ror#13
|
|
add w20,w20,w17 // h+=Ch(e,f,g)
|
|
and w19,w19,w28 // (b^c)&=(a^b)
|
|
eor w8,w8,w1,ror#19
|
|
eor w9,w9,w4,lsr#3 // sigma0(X[i+1])
|
|
add w20,w20,w16 // h+=Sigma1(e)
|
|
eor w19,w19,w22 // Maj(a,b,c)
|
|
eor w17,w10,w21,ror#22 // Sigma0(a)
|
|
eor w8,w8,w1,lsr#10 // sigma1(X[i+14])
|
|
add w3,w3,w12
|
|
add w24,w24,w20 // d+=h
|
|
add w20,w20,w19 // h+=Maj(a,b,c)
|
|
ldr w19,[x30],#4 // *K++, w28 in next round
|
|
add w3,w3,w9
|
|
add w20,w20,w17 // h+=Sigma0(a)
|
|
add w3,w3,w8
|
|
cbnz w19,Loop_16_xx
|
|
|
|
ldp x0,x2,[x29,#96]
|
|
ldr x1,[x29,#112]
|
|
sub x30,x30,#260 // rewind
|
|
|
|
ldp w3,w4,[x0]
|
|
ldp w5,w6,[x0,#2*4]
|
|
add x1,x1,#14*4 // advance input pointer
|
|
ldp w7,w8,[x0,#4*4]
|
|
add w20,w20,w3
|
|
ldp w9,w10,[x0,#6*4]
|
|
add w21,w21,w4
|
|
add w22,w22,w5
|
|
add w23,w23,w6
|
|
stp w20,w21,[x0]
|
|
add w24,w24,w7
|
|
add w25,w25,w8
|
|
stp w22,w23,[x0,#2*4]
|
|
add w26,w26,w9
|
|
add w27,w27,w10
|
|
cmp x1,x2
|
|
stp w24,w25,[x0,#4*4]
|
|
stp w26,w27,[x0,#6*4]
|
|
b.ne Loop
|
|
|
|
ldp x19,x20,[x29,#16]
|
|
add sp,sp,#4*4
|
|
ldp x21,x22,[x29,#32]
|
|
ldp x23,x24,[x29,#48]
|
|
ldp x25,x26,[x29,#64]
|
|
ldp x27,x28,[x29,#80]
|
|
ldp x29,x30,[sp],#128
|
|
AARCH64_VALIDATE_LINK_REGISTER
|
|
ret
|
|
|
|
|
|
.section __TEXT,__const
|
|
.align 6
|
|
|
|
LK256:
|
|
.long 0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5
|
|
.long 0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5
|
|
.long 0xd807aa98,0x12835b01,0x243185be,0x550c7dc3
|
|
.long 0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174
|
|
.long 0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc
|
|
.long 0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da
|
|
.long 0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7
|
|
.long 0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967
|
|
.long 0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13
|
|
.long 0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85
|
|
.long 0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3
|
|
.long 0xd192e819,0xd6990624,0xf40e3585,0x106aa070
|
|
.long 0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5
|
|
.long 0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3
|
|
.long 0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208
|
|
.long 0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2
|
|
.long 0 //terminator
|
|
|
|
.byte 83,72,65,50,53,54,32,98,108,111,99,107,32,116,114,97,110,115,102,111,114,109,32,102,111,114,32,65,82,77,118,56,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0
|
|
.align 2
|
|
.align 2
|
|
.text
|
|
#ifndef __KERNEL__
|
|
|
|
.align 6
|
|
sha256_block_armv8:
|
|
Lv8_entry:
|
|
// Armv8.3-A PAuth: even though x30 is pushed to stack it is not popped later.
|
|
stp x29,x30,[sp,#-16]!
|
|
add x29,sp,#0
|
|
|
|
ld1 {v0.4s,v1.4s},[x0]
|
|
adrp x3,LK256@PAGE
|
|
add x3,x3,LK256@PAGEOFF
|
|
|
|
Loop_hw:
|
|
ld1 {v4.16b,v5.16b,v6.16b,v7.16b},[x1],#64
|
|
sub x2,x2,#1
|
|
ld1 {v16.4s},[x3],#16
|
|
rev32 v4.16b,v4.16b
|
|
rev32 v5.16b,v5.16b
|
|
rev32 v6.16b,v6.16b
|
|
rev32 v7.16b,v7.16b
|
|
orr v18.16b,v0.16b,v0.16b // offload
|
|
orr v19.16b,v1.16b,v1.16b
|
|
ld1 {v17.4s},[x3],#16
|
|
add v16.4s,v16.4s,v4.4s
|
|
.long 0x5e2828a4 //sha256su0 v4.16b,v5.16b
|
|
orr v2.16b,v0.16b,v0.16b
|
|
.long 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s
|
|
.long 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s
|
|
.long 0x5e0760c4 //sha256su1 v4.16b,v6.16b,v7.16b
|
|
ld1 {v16.4s},[x3],#16
|
|
add v17.4s,v17.4s,v5.4s
|
|
.long 0x5e2828c5 //sha256su0 v5.16b,v6.16b
|
|
orr v2.16b,v0.16b,v0.16b
|
|
.long 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s
|
|
.long 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s
|
|
.long 0x5e0460e5 //sha256su1 v5.16b,v7.16b,v4.16b
|
|
ld1 {v17.4s},[x3],#16
|
|
add v16.4s,v16.4s,v6.4s
|
|
.long 0x5e2828e6 //sha256su0 v6.16b,v7.16b
|
|
orr v2.16b,v0.16b,v0.16b
|
|
.long 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s
|
|
.long 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s
|
|
.long 0x5e056086 //sha256su1 v6.16b,v4.16b,v5.16b
|
|
ld1 {v16.4s},[x3],#16
|
|
add v17.4s,v17.4s,v7.4s
|
|
.long 0x5e282887 //sha256su0 v7.16b,v4.16b
|
|
orr v2.16b,v0.16b,v0.16b
|
|
.long 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s
|
|
.long 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s
|
|
.long 0x5e0660a7 //sha256su1 v7.16b,v5.16b,v6.16b
|
|
ld1 {v17.4s},[x3],#16
|
|
add v16.4s,v16.4s,v4.4s
|
|
.long 0x5e2828a4 //sha256su0 v4.16b,v5.16b
|
|
orr v2.16b,v0.16b,v0.16b
|
|
.long 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s
|
|
.long 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s
|
|
.long 0x5e0760c4 //sha256su1 v4.16b,v6.16b,v7.16b
|
|
ld1 {v16.4s},[x3],#16
|
|
add v17.4s,v17.4s,v5.4s
|
|
.long 0x5e2828c5 //sha256su0 v5.16b,v6.16b
|
|
orr v2.16b,v0.16b,v0.16b
|
|
.long 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s
|
|
.long 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s
|
|
.long 0x5e0460e5 //sha256su1 v5.16b,v7.16b,v4.16b
|
|
ld1 {v17.4s},[x3],#16
|
|
add v16.4s,v16.4s,v6.4s
|
|
.long 0x5e2828e6 //sha256su0 v6.16b,v7.16b
|
|
orr v2.16b,v0.16b,v0.16b
|
|
.long 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s
|
|
.long 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s
|
|
.long 0x5e056086 //sha256su1 v6.16b,v4.16b,v5.16b
|
|
ld1 {v16.4s},[x3],#16
|
|
add v17.4s,v17.4s,v7.4s
|
|
.long 0x5e282887 //sha256su0 v7.16b,v4.16b
|
|
orr v2.16b,v0.16b,v0.16b
|
|
.long 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s
|
|
.long 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s
|
|
.long 0x5e0660a7 //sha256su1 v7.16b,v5.16b,v6.16b
|
|
ld1 {v17.4s},[x3],#16
|
|
add v16.4s,v16.4s,v4.4s
|
|
.long 0x5e2828a4 //sha256su0 v4.16b,v5.16b
|
|
orr v2.16b,v0.16b,v0.16b
|
|
.long 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s
|
|
.long 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s
|
|
.long 0x5e0760c4 //sha256su1 v4.16b,v6.16b,v7.16b
|
|
ld1 {v16.4s},[x3],#16
|
|
add v17.4s,v17.4s,v5.4s
|
|
.long 0x5e2828c5 //sha256su0 v5.16b,v6.16b
|
|
orr v2.16b,v0.16b,v0.16b
|
|
.long 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s
|
|
.long 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s
|
|
.long 0x5e0460e5 //sha256su1 v5.16b,v7.16b,v4.16b
|
|
ld1 {v17.4s},[x3],#16
|
|
add v16.4s,v16.4s,v6.4s
|
|
.long 0x5e2828e6 //sha256su0 v6.16b,v7.16b
|
|
orr v2.16b,v0.16b,v0.16b
|
|
.long 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s
|
|
.long 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s
|
|
.long 0x5e056086 //sha256su1 v6.16b,v4.16b,v5.16b
|
|
ld1 {v16.4s},[x3],#16
|
|
add v17.4s,v17.4s,v7.4s
|
|
.long 0x5e282887 //sha256su0 v7.16b,v4.16b
|
|
orr v2.16b,v0.16b,v0.16b
|
|
.long 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s
|
|
.long 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s
|
|
.long 0x5e0660a7 //sha256su1 v7.16b,v5.16b,v6.16b
|
|
ld1 {v17.4s},[x3],#16
|
|
add v16.4s,v16.4s,v4.4s
|
|
orr v2.16b,v0.16b,v0.16b
|
|
.long 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s
|
|
.long 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s
|
|
|
|
ld1 {v16.4s},[x3],#16
|
|
add v17.4s,v17.4s,v5.4s
|
|
orr v2.16b,v0.16b,v0.16b
|
|
.long 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s
|
|
.long 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s
|
|
|
|
ld1 {v17.4s},[x3]
|
|
add v16.4s,v16.4s,v6.4s
|
|
sub x3,x3,#64*4-16 // rewind
|
|
orr v2.16b,v0.16b,v0.16b
|
|
.long 0x5e104020 //sha256h v0.16b,v1.16b,v16.4s
|
|
.long 0x5e105041 //sha256h2 v1.16b,v2.16b,v16.4s
|
|
|
|
add v17.4s,v17.4s,v7.4s
|
|
orr v2.16b,v0.16b,v0.16b
|
|
.long 0x5e114020 //sha256h v0.16b,v1.16b,v17.4s
|
|
.long 0x5e115041 //sha256h2 v1.16b,v2.16b,v17.4s
|
|
|
|
add v0.4s,v0.4s,v18.4s
|
|
add v1.4s,v1.4s,v19.4s
|
|
|
|
cbnz x2,Loop_hw
|
|
|
|
st1 {v0.4s,v1.4s},[x0]
|
|
|
|
ldr x29,[sp],#16
|
|
ret
|
|
|
|
#endif
|
|
#ifndef __KERNEL__
|
|
.comm _OPENSSL_armcap_P,4,4
|
|
.private_extern _OPENSSL_armcap_P
|
|
#endif
|
|
#endif // !OPENSSL_NO_ASM
|