mov %rdx,0x48(%rcx)\r
# save non-volatile fp registers\r
stmxcsr 0x50(%rcx)\r
- movdqa %xmm6, 0x58(%rcx) \r
- movdqa %xmm7, 0x68(%rcx)\r
- movdqa %xmm8, 0x78(%rcx)\r
- movdqa %xmm9, 0x88(%rcx)\r
- movdqa %xmm10, 0x98(%rcx)\r
- movdqa %xmm11, 0xA8(%rcx)\r
- movdqa %xmm12, 0xB8(%rcx)\r
- movdqa %xmm13, 0xC8(%rcx)\r
- movdqa %xmm14, 0xD8(%rcx)\r
- movdqa %xmm15, 0xE8(%rcx) \r
+ movdqu %xmm6, 0x58(%rcx) \r
+ movdqu %xmm7, 0x68(%rcx)\r
+ movdqu %xmm8, 0x78(%rcx)\r
+ movdqu %xmm9, 0x88(%rcx)\r
+ movdqu %xmm10, 0x98(%rcx)\r
+ movdqu %xmm11, 0xA8(%rcx)\r
+ movdqu %xmm12, 0xB8(%rcx)\r
+ movdqu %xmm13, 0xC8(%rcx)\r
+ movdqu %xmm14, 0xD8(%rcx)\r
+ movdqu %xmm15, 0xE8(%rcx) \r
xor %rax,%rax\r
jmpq *%rdx\r