aes/asm/aesv8-armx.pl: avoid 32-bit lane assignment in CTR mode
authorArd Biesheuvel <ard.biesheuvel@arm.com>
Tue, 24 Nov 2020 16:33:31 +0000 (17:33 +0100)
committerTomas Mraz <tmraz@fedoraproject.org>
Mon, 30 Nov 2020 11:14:54 +0000 (12:14 +0100)
commit26217510d21cd4d5928db8bff41c6756a7c7a636
tree8966772571f45b221127cc6dd830a6f9bf47e4e3
parentcbb85bda0c0849ce962e1cf232689d6351e4a217
aes/asm/aesv8-armx.pl: avoid 32-bit lane assignment in CTR mode

ARM Cortex-A57 and Cortex-A72 cores running in 32-bit mode are affected
by silicon errata #1742098 [0] and #1655431 [1], respectively, where the
second instruction of a AES instruction pair may execute twice if an
interrupt is taken right after the first instruction consumes an input
register of which a single 32-bit lane has been updated the last time it
was modified.

This is not such a rare occurrence as it may seem: in counter mode, only
the least significant 32-bit word is incremented in the absence of a
carry, which makes our counter mode implementation susceptible to these
errata.

So let's shuffle the counter assignments around a bit so that the most
recent updates when the AES instruction pair executes are 128-bit wide.

[0] ARM-EPM-049219 v23 Cortex-A57 MPCore Software Developers Errata Notice
[1] ARM-EPM-012079 v11.0 Cortex-A72 MPCore Software Developers Errata Notice

Signed-off-by: Ard Biesheuvel <ard.biesheuvel@arm.com>
Reviewed-by: Paul Dale <paul.dale@oracle.com>
Reviewed-by: Tomas Mraz <tmraz@fedoraproject.org>
(Merged from https://github.com/openssl/openssl/pull/13504)
crypto/aes/asm/aesv8-armx.pl