| .L94:
vmovupd (%rcx), %xmm3
addq $1, %r10
addq $64, %rcx
addq $64, %rdi
vinsertf128 $0x1, -48(%rcx), %ymm3, %ymm1
vmovupd -32(%rcx), %xmm3
vinsertf128 $0x1, -16(%rcx), %ymm3, %ymm3
vmovupd -64(%rdi), %xmm4
vinsertf128 $1, %xmm3, %ymm1, %ymm0
vperm2f128 $49, %ymm3, %ymm1, %ymm3
vunpcklpd %ymm3, %ymm0, %ymm2
vunpckhpd %ymm3, %ymm0, %ymm3
vinsertf128 $0x1, -48(%rdi), %ymm4, %ymm0
vmovupd -32(%rdi), %xmm4
vinsertf128 $0x1, -16(%rdi), %ymm4, %ymm4
vinsertf128 $1, %xmm4, %ymm0, %ymm5
vperm2f128 $49, %ymm4, %ymm0, %ymm4
vunpcklpd %ymm4, %ymm5, %ymm1
vunpckhpd %ymm4, %ymm5, %ymm4
vmulpd %ymm1, %ymm2, %ymm0
vmulpd %ymm4, %ymm3, %ymm5
vmulpd %ymm4, %ymm2, %ymm2
vmulpd %ymm1, %ymm3, %ymm1
vsubpd %ymm5, %ymm0, %ymm0
vaddpd %ymm1, %ymm2, %ymm1
vinsertf128 $1, %xmm0, %ymm0, %ymm2
vperm2f128 $49, %ymm0, %ymm0, %ymm0
vinsertf128 $1, %xmm1, %ymm1, %ymm3
vperm2f128 $49, %ymm1, %ymm1, %ymm1
vshufpd $12, %ymm3, %ymm2, %ymm2
vshufpd $12, %ymm1, %ymm0, %ymm0
vmovups %xmm2, -64(%rcx)
vextractf128 $0x1, %ymm2, -48(%rcx)
vmovups %xmm0, -32(%rcx)
vextractf128 $0x1, %ymm0, -16(%rcx)
cmpq %rsi, %r10
jb .L94
|