]> git.cryptolib.org Git - avr-crypto-lib.git/commitdiff
now aes decription also in assembly
authorbg <bg@b1d182e4-1ff8-0310-901f-bddb46175740>
Wed, 21 Jan 2009 16:09:25 +0000 (16:09 +0000)
committerbg <bg@b1d182e4-1ff8-0310-901f-bddb46175740>
Wed, 21 Jan 2009 16:09:25 +0000 (16:09 +0000)
aes_dec-asm.S [new file with mode: 0644]
aes_dec.c
aes_enc-asm.S
mkfiles/aes.mk
test_src/main-aes-test.c

diff --git a/aes_dec-asm.S b/aes_dec-asm.S
new file mode 100644 (file)
index 0000000..6502a4a
--- /dev/null
@@ -0,0 +1,425 @@
+/* aes_dec-asm.S */
+/*
+    This file is part of the Crypto-avr-lib/microcrypt-lib.
+    Copyright (C) 2008, 2009  Daniel Otte (daniel.otte@rub.de)
+
+    This program is free software: you can redistribute it and/or modify
+    it under the terms of the GNU General Public License as published by
+    the Free Software Foundation, either version 3 of the License, or
+    (at your option) any later version.
+
+    This program is distributed in the hope that it will be useful,
+    but WITHOUT ANY WARRANTY; without even the implied warranty of
+    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
+    GNU General Public License for more details.
+
+    You should have received a copy of the GNU General Public License
+    along with this program.  If not, see <http://www.gnu.org/licenses/>.
+*/
+/**
+ * \file     aes_dec-asm.S
+ * \email    daniel.otte@rub.de
+ * \author   Daniel Otte 
+ * \date     2009-01-10
+ * \license  GPLv3 or later
+ * 
+ */
+
+#include "avr-asm-macros.S"
+A = 28
+B = 29
+P = 0
+xREDUCER = 25 
+gf256mul:
+       clr P
+1:     
+       lsr A
+       breq 4f
+       brcc 2f
+       eor P, B
+2:
+       lsl B
+       brcc 3f
+       eor B, xREDUCER 
+3:
+       rjmp 1b
+4:
+       brcc 2f
+       eor P, B
+2:
+       ret
+
+.global aes256_dec
+aes256_dec:
+       ldi r20, 14
+       rjmp aes_decrypt_core
+
+.global aes192_dec
+aes192_dec:
+       ldi r20, 12
+       rjmp aes_decrypt_core
+
+.global aes128_dec
+aes128_dec:
+       ldi r20, 10
+
+
+/*
+  void aes_decrypt_core(aes_cipher_state_t* state, const aes_genctx_t* ks, uint8_t rounds)
+*/
+T0= 2
+T1= 3
+T2= 4
+T3= 5
+T4 = 6
+T5 = 7
+ST00 =  8
+ST01 =  9
+ST02 = 10
+ST03 = 11
+ST10 = 12
+ST11 = 13
+ST12 = 14
+ST13 = 15
+ST20 = 16
+ST21 = 17
+ST22 = 18
+ST23 = 19
+ST30 = 20
+ST31 = 21
+ST32 = 22
+ST33 = 23
+CTR = 24
+/*
+ * param state:  r24:r25
+ * param ks:     r22:r23
+ * param rounds: r20   
+ */
+.global aes_decrypt_core
+aes_decrypt_core:
+       push_range 2, 17
+       push r28
+       push r29
+       push r24
+       push r25
+       movw r26, r22
+       movw r30, r24
+       mov  CTR, r20
+       inc r20
+       swap r20 /* r20*16 */
+       add r26, r20
+       adc r27, r1
+       clt
+;      ldi CTR, 2      
+       .irp param, ST00, ST01, ST02, ST03, ST10, ST11, ST12, ST13, ST20, ST21, ST22, ST23, ST30, ST31, ST32, ST33
+               ld \param, Z+
+       .endr
+       
+       ldi xREDUCER, 0x1b /* load reducer */
+       ldi r31, hi8(aes_invsbox)
+       
+
+       .irp param, ST33, ST32, ST31, ST30, ST23, ST22, ST21, ST20, ST13, ST12, ST11, ST10, ST03, ST02, ST01, ST00
+               ld r0, -X
+               eor \param, r0
+       .endr
+1:
+       dec CTR
+       brne 2f
+       set
+2:     
+       /* substitute and invShift */
+       .irp param, ST00, ST10, ST20, ST30
+               mov r30, \param
+               lpm \param, Z
+       .endr
+       mov r30, ST31
+       lpm T0, Z
+       mov r30, ST21
+       lpm ST31, Z
+       mov r30, ST11
+       lpm ST21, Z
+       mov r30, ST01
+       lpm ST11, Z
+       mov ST01, T0
+       
+       mov r30, ST32
+       lpm T0, Z
+       mov r30, ST22
+       lpm T1,Z
+       mov r30, ST12
+       lpm ST32, Z
+       mov r30, ST02
+       lpm ST22, Z
+       mov ST12, T0
+       mov ST02, T1
+       
+       mov r30, ST03
+       lpm T0, Z
+       mov r30, ST13
+       lpm ST03, Z
+       mov r30, ST23
+       lpm ST13, Z
+       mov r30, ST33
+       lpm ST23, Z
+       mov ST33, T0
+       
+       /* key addition */
+       .irp param, ST33, ST32, ST31, ST30, ST23, ST22, ST21, ST20, ST13, ST12, ST11, ST10, ST03, ST02, ST01, ST00
+               ld r0, -X
+               eor \param, r0
+       .endr
+       brtc 2f
+exit:
+       pop r31
+       pop r30
+       st Z+, ST00
+       st Z+, ST01
+       st Z+, ST02
+       st Z+, ST03
+       st Z+, ST10
+       st Z+, ST11
+       st Z+, ST12
+       st Z+, ST13
+       st Z+, ST20
+       st Z+, ST21
+       st Z+, ST22
+       st Z+, ST23
+       st Z+, ST30
+       st Z+, ST31
+       st Z+, ST32
+       st Z+, ST33
+       pop r29
+       pop r28
+       pop_range 2, 17
+       ret
+2:     
+       /* inv column (row) mixing*/
+       /* invMixCol (Row) 1 */
+               /* preparing */
+       mov T0, ST03
+       eor T0, ST02 ; T0 = t
+       mov T1, ST00
+       eor T1, ST01 ; T1 = u
+       mov T2, T0
+       eor T2, T1
+
+       mov B, T2
+       ldi A, 0x08
+       rcall gf256mul
+       eor T2, P  ; T2 = v'
+       
+       mov B, ST02
+       eor B, ST00
+       ldi A, 0x04
+       rcall gf256mul
+       mov T3, P
+       eor T3, T2;  T3 = w
+       
+       mov B, ST03
+       eor B, ST01
+       ldi A, 0x04
+       rcall gf256mul
+       eor T2, P ; T2 = v
+        
+          /* now the big move */
+       mov T4, ST00
+       eor T4, ST03
+       lsl T4
+       brcc 3f
+       eor T4, xREDUCER
+3:  eor T4, T2
+       eor ST03, T4    
+
+       mov T4, ST02
+       eor T4, ST01
+       lsl T4
+       brcc 3f
+       eor T4, xREDUCER
+3:  eor T4, T2
+       eor ST01, T4
+       
+       lsl T0
+       brcc 3f
+       eor T0, xREDUCER
+3:  eor T0, T3
+       eor ST02, T0
+       
+       lsl T1
+       brcc 3f
+       eor T1, xREDUCER
+3:  eor T1, T3
+       eor ST00, T1
+
+       /* invMixCol (Row) 2 */
+               /* preparing */
+       mov T0, ST13
+       eor T0, ST12 ; T0 = t
+       mov T1, ST10
+       eor T1, ST11 ; T1 = u
+       mov T2, T0
+       eor T2, T1
+
+       mov B, T2
+       ldi A, 0x08
+       rcall gf256mul
+       eor T2, P  ; T2 = v'
+       
+       mov B, ST12
+       eor B, ST10
+       ldi A, 0x04
+       rcall gf256mul
+       mov T3, P
+       eor T3, T2;  T3 = w
+       
+       mov B, ST13
+       eor B, ST11
+       ldi A, 0x04
+       rcall gf256mul
+       eor T2, P ; T2 = v
+        
+          /* now the big move */
+       mov T4, ST10
+       eor T4, ST13
+       lsl T4
+       brcc 3f
+       eor T4, xREDUCER
+3:  eor T4, T2
+       eor ST13, T4    
+
+       mov T4, ST12
+       eor T4, ST11
+       lsl T4
+       brcc 3f
+       eor T4, xREDUCER
+3:  eor T4, T2
+       eor ST11, T4
+       
+       lsl T0
+       brcc 3f
+       eor T0, xREDUCER
+3:  eor T0, T3
+       eor ST12, T0
+       
+       lsl T1
+       brcc 3f
+       eor T1, xREDUCER
+3:  eor T1, T3
+       eor ST10, T1
+       
+       /* invMixCol (Row) 2 */
+               /* preparing */
+       mov T0, ST23
+       eor T0, ST22 ; T0 = t
+       mov T1, ST20
+       eor T1, ST21 ; T1 = u
+       mov T2, T0
+       eor T2, T1
+
+       mov B, T2
+       ldi A, 0x08
+       rcall gf256mul
+       eor T2, P  ; T2 = v'
+       
+       mov B, ST22
+       eor B, ST20
+       ldi A, 0x04
+       rcall gf256mul
+       mov T3, P
+       eor T3, T2;  T3 = w
+       
+       mov B, ST23
+       eor B, ST21
+       ldi A, 0x04
+       rcall gf256mul
+       eor T2, P ; T2 = v
+        
+          /* now the big move */
+       mov T4, ST20
+       eor T4, ST23
+       lsl T4
+       brcc 3f
+       eor T4, xREDUCER
+3:  eor T4, T2
+       eor ST23, T4    
+
+       mov T4, ST22
+       eor T4, ST21
+       lsl T4
+       brcc 3f
+       eor T4, xREDUCER
+3:  eor T4, T2
+       eor ST21, T4
+       
+       lsl T0
+       brcc 3f
+       eor T0, xREDUCER
+3:  eor T0, T3
+       eor ST22, T0
+       
+       lsl T1
+       brcc 3f
+       eor T1, xREDUCER
+3:  eor T1, T3
+       eor ST20, T1
+       
+       /* invMixCol (Row) 3 */
+               /* preparing */
+       mov T0, ST33
+       eor T0, ST32 ; T0 = t
+       mov T1, ST30
+       eor T1, ST31 ; T1 = u
+       mov T2, T0
+       eor T2, T1
+
+       mov B, T2
+       ldi A, 0x08
+       rcall gf256mul
+       eor T2, P  ; T2 = v'
+       
+       mov B, ST32
+       eor B, ST30
+       ldi A, 0x04
+       rcall gf256mul
+       mov T3, P
+       eor T3, T2;  T3 = w
+       
+       mov B, ST33
+       eor B, ST31
+       ldi A, 0x04
+       rcall gf256mul
+       eor T2, P ; T2 = v
+        
+          /* now the big move */
+       mov T4, ST30
+       eor T4, ST33
+       lsl T4
+       brcc 3f
+       eor T4, xREDUCER
+3:  eor T4, T2
+       eor ST33, T4    
+
+       mov T4, ST32
+       eor T4, ST31
+       lsl T4
+       brcc 3f
+       eor T4, xREDUCER
+3:  eor T4, T2
+       eor ST31, T4
+       
+       lsl T0
+       brcc 3f
+       eor T0, xREDUCER
+3:  eor T0, T3
+       eor ST32, T0
+       
+       lsl T1
+       brcc 3f
+       eor T1, xREDUCER
+3:  eor T1, T3
+       eor ST30, T1
+       
+       rjmp 1b
+       
+       
+       
index 48ad3b47986b61a1f6b764b3f40d136f20767d7f..c2ee5f2a7dd94f44502ab7d3d5d2d63625ec9acc 100644 (file)
--- a/aes_dec.c
+++ b/aes_dec.c
@@ -49,12 +49,25 @@ static
 void aes_dec_round(aes_cipher_state_t* state, const aes_roundkey_t* k){
        uint8_t tmp[16];
        uint8_t i;
+       uint8_t t,u,v,w;
        /* keyAdd */
        for(i=0; i<16; ++i){
                tmp[i] = state->s[i] ^ k->ks[i];
        }
        /* mixColums */
        for(i=0; i<4; ++i){
+               t = tmp[4*i+3] ^ tmp[4*i+2];
+               u = tmp[4*i+1] ^ tmp[4*i+0];
+               v = t ^ u;
+               v ^= gf256mul(0x08, v, 0x1b);
+               w = v ^ gf256mul(0x04, tmp[4*i+2] ^ tmp[4*i+0], 0x1b);
+               v = v ^ gf256mul(0x04, tmp[4*i+3] ^ tmp[4*i+1], 0x1b);
+               state->s[4*i+3] = tmp[4*i+3] ^ v ^ gf256mul(0x02, tmp[4*i+0] ^ tmp[4*i+3], 0x1b);
+               state->s[4*i+2] = tmp[4*i+2] ^ w ^ gf256mul(0x02, t, 0x1b);
+               state->s[4*i+1] = tmp[4*i+1] ^ v ^ gf256mul(0x02, tmp[4*i+2] ^ tmp[4*i+1], 0x1b);
+               state->s[4*i+0] = tmp[4*i+0] ^ w ^ gf256mul(0x02, u, 0x1b);
+               
+               /*
                state->s[4*i+0] =
                          gf256mul(0xe, tmp[4*i+0], 0x1b)
                        ^ gf256mul(0xb, tmp[4*i+1], 0x1b)
@@ -75,6 +88,7 @@ void aes_dec_round(aes_cipher_state_t* state, const aes_roundkey_t* k){
                        ^ gf256mul(0xd, tmp[4*i+1], 0x1b)
                        ^ gf256mul(0x9, tmp[4*i+2], 0x1b)
                        ^ gf256mul(0xe, tmp[4*i+3], 0x1b);
+               */
        }       
        /* shiftRows */
        aes_invshiftcol(state->s+1, 1);
index d8cec74b60cf292195924b4e8a759cc9d4542a16..6417f4d5fd5333e6c3d1e4bf551aafe014eaf10d 100644 (file)
@@ -38,25 +38,6 @@ B = 29
 P = 0
 xREDUCER = 25
 
-gf256mul:
-       clr P
-1:     
-       lsr A
-       breq 4f
-       brcc 2f
-       eor P, B
-2:
-       lsl B
-       brcc 3f
-       eor B, xREDUCER 
-3:
-       rjmp 1b
-4:
-       brcc 5f
-       eor P, B
-5:
-       ret
-
 .global aes256_enc
 aes256_enc:
        ldi r20, 14
@@ -130,7 +111,30 @@ aes_encrypt_core:
        .endr
        
        brtc 2f
-       rjmp exit
+exit:  
+       pop r31
+       pop r30
+       st Z+, ST00
+       st Z+, ST01
+       st Z+, ST02
+       st Z+, ST03
+       st Z+, ST10
+       st Z+, ST11
+       st Z+, ST12
+       st Z+, ST13
+       st Z+, ST20
+       st Z+, ST21
+       st Z+, ST22
+       st Z+, ST23
+       st Z+, ST30
+       st Z+, ST31
+       st Z+, ST32
+       st Z+, ST33
+       pop r29
+       pop r28
+       pop_range 2, 17
+       ret
+
 2:     dec CTR
        brne 3f
        set
@@ -171,31 +175,30 @@ aes_encrypt_core:
 
        mov r30, ST03
        lpm T0, Z
-       mov r30, ST13
-       lpm T1, Z
-       mov r30, ST23
-       lpm T2, Z
        mov r30, ST33
        lpm ST03, Z
+       mov r30, ST23
+       lpm ST33, Z
+       mov r30, ST13
+       lpm ST23, Z
        mov ST13, T0
-       mov ST23, T1
-       mov ST33, T2
-       
+               
        /* mixcols (or rows in our case) */
        brtc 2f
        rjmp 1b
 2:     
- /* mixrow 1*/
-       mov r1, ST02
-       eor r1, ST03
+ /* mixrow 1 */
+       mov r0, ST02
+       eor r0, ST03
+       mov T2, r0
                
        mov T0, ST00
        eor ST00, ST01
-       eor r1, ST00
+       eor r0, ST00
        lsl ST00
        brcc 3f
        eor ST00, xREDUCER
-3:     eor ST00, r1
+3:     eor ST00, r0
        eor ST00, T0
        
        mov T1, ST01
@@ -203,36 +206,34 @@ aes_encrypt_core:
        lsl T1
        brcc 3f
        eor T1, xREDUCER
-3:     eor T1, r1
+3:     eor T1, r0
        eor ST01, T1
        
-       mov T2, ST02
-       eor T2, ST03
        lsl T2
        brcc 3f
        eor T2, xREDUCER
-3:  eor T2, r1
+3:  eor T2, r0
        eor ST02, T2
        
-       mov T3, ST03
-       eor T3, T0
-       lsl T3
+       eor T0, ST03
+       lsl T0
        brcc 3f
-       eor T3, xREDUCER
-3:     eor T3, r1
-       eor ST03, T3
+       eor T0, xREDUCER
+3:     eor T0, r0
+       eor ST03, T0
                
  /* mixrow 2 */
-       mov r1, ST12
-       eor r1, ST13
+       mov r0, ST12
+       eor r0, ST13
+       mov T2, r0
                
        mov T0, ST10
        eor ST10, ST11
-       eor r1, ST10
+       eor r0, ST10
        lsl ST10
        brcc 3f
        eor ST10, xREDUCER
-3:     eor ST10, r1
+3:     eor ST10, r0
        eor ST10, T0
        
        mov T1, ST11
@@ -240,36 +241,34 @@ aes_encrypt_core:
        lsl T1
        brcc 3f
        eor T1, xREDUCER
-3:     eor T1, r1
+3:     eor T1, r0
        eor ST11, T1
        
-       mov T2, ST12
-       eor T2, ST13
        lsl T2
        brcc 3f
        eor T2, xREDUCER
-3:  eor T2, r1
+3:  eor T2, r0
        eor ST12, T2
        
-       mov T3, ST13
-       eor T3, T0
-       lsl T3
+       eor T0, ST13
+       lsl T0
        brcc 3f
-       eor T3, xREDUCER
-3:     eor T3, r1
-       eor ST13, T3
+       eor T0, xREDUCER
+3:     eor T0, r0
+       eor ST13, T0
                
- /* mixrow 3*/
-       mov r1, ST22
-       eor r1, ST23
+ /* mixrow 3 */
+       mov r0, ST22
+       eor r0, ST23
+       mov T2, r0
                
        mov T0, ST20
        eor ST20, ST21
-       eor r1, ST20
+       eor r0, ST20
        lsl ST20
        brcc 3f
        eor ST20, xREDUCER
-3:     eor ST20, r1
+3:     eor ST20, r0
        eor ST20, T0
        
        mov T1, ST21
@@ -277,36 +276,34 @@ aes_encrypt_core:
        lsl T1
        brcc 3f
        eor T1, xREDUCER
-3:     eor T1, r1
+3:     eor T1, r0
        eor ST21, T1
        
-       mov T2, ST22
-       eor T2, ST23
        lsl T2
        brcc 3f
        eor T2, xREDUCER
-3:  eor T2, r1
+3:  eor T2, r0
        eor ST22, T2
        
-       mov T3, ST23
-       eor T3, T0
-       lsl T3
+       eor T0, ST23
+       lsl T0
        brcc 3f
-       eor T3, xREDUCER
-3:     eor T3, r1
-       eor ST23, T3
+       eor T0, xREDUCER
+3:     eor T0, r0
+       eor ST23, T0
                
  /* mixrow 4 */
-       mov r1, ST32
-       eor r1, ST33
+       mov r0, ST32
+       eor r0, ST33
+       mov T2, r0
                
        mov T0, ST30
        eor ST30, ST31
-       eor r1, ST30
+       eor r0, ST30
        lsl ST30
        brcc 3f
        eor ST30, xREDUCER
-3:     eor ST30, r1
+3:     eor ST30, r0
        eor ST30, T0
        
        mov T1, ST31
@@ -314,55 +311,27 @@ aes_encrypt_core:
        lsl T1
        brcc 3f
        eor T1, xREDUCER
-3:     eor T1, r1
+3:     eor T1, r0
        eor ST31, T1
        
-       mov T2, ST32
-       eor T2, ST33
        lsl T2
        brcc 3f
        eor T2, xREDUCER
-3:  eor T2, r1
+3:  eor T2, r0
        eor ST32, T2
        
-       mov T3, ST33
-       eor T3, T0
-       lsl T3
+       eor T0, ST33
+       lsl T0
        brcc 3f
-       eor T3, xREDUCER
-3:     eor T3, r1
-       eor ST33, T3
-               
-
+       eor T0, xREDUCER
+3:     eor T0, r0
+       eor ST33, T0
        /* mix colums (rows) done */
 
        /* add key*/
        rjmp 1b
        
-exit:  
-       pop r31
-       pop r30
-       st Z+, ST00
-       st Z+, ST01
-       st Z+, ST02
-       st Z+, ST03
-       st Z+, ST10
-       st Z+, ST11
-       st Z+, ST12
-       st Z+, ST13
-       st Z+, ST20
-       st Z+, ST21
-       st Z+, ST22
-       st Z+, ST23
-       st Z+, ST30
-       st Z+, ST31
-       st Z+, ST32
-       st Z+, ST33
-       clr r1
-       pop r29
-       pop r28
-       pop_range 2, 17
-       ret
+
 
 
 
index 34cf3ca7ea62aa2dd2ec8f937d098b308c8fb22f..b67cdf565e1196adaaf525e8ebf67b203cd76e16 100644 (file)
@@ -5,9 +5,8 @@ ALGO_NAME := AES
 BLOCK_CIPHERS += $(ALGO_NAME)
 
 
-$(ALGO_NAME)_OBJ      := aes_enc-asm.o aes_dec.o aes_sboxes-asm.o aes.o \
-                         aes_keyschedule-asm.o gf256mul.o \
-                         aes128_dec.o aes192_dec.o aes256_dec.o
+$(ALGO_NAME)_OBJ      := aes_enc-asm.o aes_dec-asm.o aes_sboxes-asm.o  \
+                         aes_keyschedule-asm.o  
 $(ALGO_NAME)_TEST_BIN := main-aes-test.o debug.o uart.o serial-tools.o \
                          nessie_bc_test.o nessie_common.o cli.o performance_test.o
 $(ALGO_NAME)_NESSIE_TEST      := test nessie
index ba0e09c5859fb4f498fbfb98efbf8f8ea95138d2..ad31fa5d17a2f04c8c62b6995daaadd04b283a68 100644 (file)
@@ -90,6 +90,9 @@ void testrun_test_aes(void){
        aes128_enc(data, &ctx);
        uart_putstr_P(PSTR("\r\n ciphertext: "));
        uart_hexdump(data, 16);
+       aes128_dec(data, &ctx);
+       uart_putstr_P(PSTR("\r\n plaintext:  "));
+       uart_hexdump(data, 16);
        
        
 }