/external/skqp/src/core/ |
SkMaskBlurFilter.cpp | 673 // Instead of using memory we can introduce temporaries d01 and d12. The update step changes 677 // d01 = d12 + S[n+0r]*G[0] 678 // d12 = S[n+0r]*G[1] 683 // d01[0..7] = d12[0..7] + S[n+0r..n+0r+7]*G[0] 684 // d12[0..7] = S[n+0r..n+0r+7]*G[1] 689 Sk8h* d01, Sk8h* d12, Sk8h*, Sk8h*, Sk8h*, Sk8h*, Sk8h*, Sk8h*) { 694 *d01 = *d12 + v0; 695 *d12 = v1 + kHalf; 703 Sk8h* d01, Sk8h* d12, Sk8h* d23, Sk8h* d34, Sk8h*, Sk8h*, Sk8h*, Sk8h*) { 709 *d01 = *d12 + v1 [all...] |
/external/llvm/test/tools/llvm-readobj/ARM/ |
unwind.s | 57 .vsave {d8-d12} 58 vpush {d8-d12} 59 vpop {d8-d12} 223 @ CHECK: 0xC9 0x84 ; pop {d8, d9, d10, d11, d12} 267 @ CHECK: 0xD7 ; pop {d8, d9, d10, d11, d12, d13, d14, d15}
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/tools/llvm-readobj/ARM/ |
unwind.s | 57 .vsave {d8-d12} 58 vpush {d8-d12} 59 vpop {d8-d12} 223 @ CHECK: 0xC9 0x84 ; pop {d8, d9, d10, d11, d12} 267 @ CHECK: 0xD7 ; pop {d8, d9, d10, d11, d12, d13, d14, d15}
|
/external/libhevc/common/arm/ |
ihevc_itrans_recon_8x8.s | 151 @// row 4 second half - d12 - y4 207 vld1.16 d12,[r0],r5 230 @// vld1.16 d12,[r0]! 371 vmull.s16 q11,d12,d0[0] @// y4 * cos4(part of c0 and c1) 413 vqrshrn.s32 d12,q15,#shift_stage1_idct @// r4 = (a3 - b3 + rnd) >> 7(shift_stage1_idct) 576 vqrshrn.s32 d12,q0,#shift_stage2_idct 613 vtrn.32 d12,d13 @//r4,r5,r6,r7 fourth qudrant transposing continued..... 632 @// element 4 second four - d12 - y4 741 vmull.s16 q11,d12,d0[0] @// y4 * cos4(part of c0 and c1) 811 vqrshrn.s32 d12,q0,#shift_stage2_idc [all...] |
ihevc_intra_pred_chroma_mode_27_to_33.s | 178 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx 190 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 239 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx 256 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 316 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx 332 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 387 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx 403 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 498 vdup.8 d12,r5 @dup_const_fract 525 vmlal.u8 q8,d15,d12 @vmull_u8(ref_main_idx_1, dup_const_fract [all...] |
ihevc_intra_pred_luma_mode_27_to_33.s | 180 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx 192 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 240 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx 257 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 316 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx 332 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 387 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx 402 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 496 vdup.8 d12,r5 @dup_const_fract 523 vmlal.u8 q8,d15,d12 @vmull_u8(ref_main_idx_1, dup_const_fract [all...] |
ihevc_inter_pred_chroma_copy_w16out.s | 218 vld1.8 {d12},[r6],r2 @vld1_u8(pu1_src_tmp) 222 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp) 233 vld1.8 {d12},[r6],r2 @vld1_u8(pu1_src_tmp) 256 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp) 271 vld1.8 {d12},[r6],r2 @vld1_u8(pu1_src_tmp) 295 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp)
|
ihevc_intra_pred_filters_luma_mode_11_to_17.s | 315 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 0) 323 vmull.u8 q12, d12, d7 @mul (row 0) 354 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 4) 366 vmull.u8 q12, d12, d7 @mul (row 4) 462 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 0) 484 vmull.u8 q12, d12, d7 @mul (row 0) 519 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 4) 536 vmull.u8 q12, d12, d7 @mul (row 4) 645 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 0) 649 vmull.u8 q12, d12, d7 @mul (row 0 [all...] |
ihevc_intra_pred_luma_mode_3_to_9.s | 205 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 0) 213 vmull.u8 q12, d12, d7 @mul (row 0) 244 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 4) 256 vmull.u8 q12, d12, d7 @mul (row 4) 353 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 0) 375 vmull.u8 q12, d12, d7 @mul (row 0) 409 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 4) 426 vmull.u8 q12, d12, d7 @mul (row 4) 528 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 0) 532 vmull.u8 q12, d12, d7 @mul (row 0 [all...] |
/external/libmpeg2/common/arm/ |
impeg2_idct.s | 233 vraddhn.s32 d12, q0, q4 243 vraddhn.s32 d12, q0, q4 253 vraddhn.s32 d12, q0, q4 263 vraddhn.s32 d12, q0, q4 273 vraddhn.s32 d12, q0, q4 283 vraddhn.s32 d12, q0, q4 293 vraddhn.s32 d12, q0, q4 303 vraddhn.s32 d12, q0, q4 405 @// Row 4 Second Half - D12 - y4 462 vld1.16 d12, [r0], r [all...] |
/external/libavc/common/arm/ |
ih264_deblk_chroma_a9.s | 275 vmov.32 d12[0], r4 @d12[0] = ui_Bs 278 vtbl.8 d14, {d16}, d12 @ 279 vmovl.u8 q6, d12 @q6 = uc_Bs in each 16 bit scalar 302 vcgt.s16 d12, d12, #0 @Q6 = (us_Bs > 0) 310 vmov.i8 d13, d12 @ 419 vtbl.8 d12, {d24}, d10 515 vdup.8 d12, r3 @D12 = bet [all...] |
ih264_inter_pred_luma_horz_qpel_a9q.s | 172 vld1.32 {d12, d13}, [r7], r2 @Load value for interpolation (column1,row0) 181 vld1.32 {d12, d13}, [r7], r2 @Load value for interpolation (column1,row1) 215 vld1.32 d12, [r7], r2 @Load value for interpolation (column1,row0) 243 vld1.32 d12, [r7], r2 @Load value for interpolation (column1,row0)
|
/external/libjpeg-turbo/simd/arm/ |
jsimd_neon.S | [all...] |
/external/llvm/test/MC/ARM/ |
neon-shift-encoding.s | 112 vsra.s64 d12, d19, #63 130 @ CHECK: vsra.s64 d12, d19, #63 @ encoding: [0xb3,0xc1,0x81,0xf2] 148 vsra.u64 d12, d19, #63 166 @ CHECK: vsra.u64 d12, d19, #63 @ encoding: [0xb3,0xc1,0x81,0xf3] 184 vsri.64 d12, d19, #63 202 @ CHECK: vsri.64 d12, d19, #63 @ encoding: [0xb3,0xc4,0x81,0xf3] 220 vsli.64 d12, d19, #63 238 @ CHECK: vsli.64 d12, d19, #63 @ encoding: [0xb3,0xc5,0xbf,0xf3] 434 vrshl.s16 d12, d5 451 @ CHECK: vrshl.s16 d12, d12, d5 @ encoding: [0x0c,0xc5,0x15,0xf2 [all...] |
invalid-fp-armv8.s | 7 vcvtt.f16.f64 s5, d12 8 @ V7-NOT: vcvtt.f16.f64 s5, d12 @ encoding: [0xcc,0x2b,0xf3,0xee]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
neon-shift-encoding.s | 112 vsra.s64 d12, d19, #63 130 @ CHECK: vsra.s64 d12, d19, #63 @ encoding: [0xb3,0xc1,0x81,0xf2] 148 vsra.u64 d12, d19, #63 166 @ CHECK: vsra.u64 d12, d19, #63 @ encoding: [0xb3,0xc1,0x81,0xf3] 184 vsri.64 d12, d19, #63 202 @ CHECK: vsri.64 d12, d19, #63 @ encoding: [0xb3,0xc4,0x81,0xf3] 220 vsli.64 d12, d19, #63 238 @ CHECK: vsli.64 d12, d19, #63 @ encoding: [0xb3,0xc5,0xbf,0xf3] 434 vrshl.s16 d12, d5 451 @ CHECK: vrshl.s16 d12, d12, d5 @ encoding: [0x0c,0xc5,0x15,0xf2 [all...] |
/external/libavc/encoder/arm/ |
ime_distortion_metrics_a9q.s | 296 vadd.i16 d12, d12, d13 299 vpaddl.u16 d12, d12 302 vpaddl.u32 d12, d12 307 vst1.32 {d12[0]}, [r7] 420 vadd.u16 d12, d12, d13 424 vpadd.u16 d12, d12, d1 [all...] |
/external/libvpx/libvpx/vp8/encoder/x86/ |
fwalsh_sse2.asm | 83 pmaddwd xmm1, [GLOBAL(c1)] ; d12 a12 d13 a13 88 pshufd xmm6, xmm1, 0x72 ; d13 d12 a13 a12 96 punpckhqdq xmm6, xmm7 ; c13 c12 d13 d12
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
vpx_convolve8_avg_vert_filter_type1_neon.asm | 172 vqrshrun.s16 d12, q6, #6 191 vrhadd.u8 d12, d12, d20 204 vst1.8 {d12}, [r14], r6 275 vqrshrun.s16 d12, q6, #6 287 vrhadd.u8 d12, d12, d20 298 vst1.8 {d12}, [r14], r6 354 vqrshrun.s16 d12, q6, #6 358 vrhadd.u8 d12, d12, d2 [all...] |
vpx_convolve8_avg_vert_filter_type2_neon.asm | 173 vqrshrun.s16 d12, q6, #6 192 vrhadd.u8 d12, d12, d20 205 vst1.8 {d12}, [r14], r6 275 vqrshrun.s16 d12, q6, #6 287 vrhadd.u8 d12, d12, d20 298 vst1.8 {d12}, [r14], r6 354 vqrshrun.s16 d12, q6, #6 358 vrhadd.u8 d12, d12, d2 [all...] |
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
loopfilter_4_neon.asm.S | 371 vld1.u8 {d12}, [r2], r1 @ 30 31 32 33 34 35 36 37 420 vmov d11, d12 421 vmov d12, d14 423 vst4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1 424 vst4.8 {d10[1], d11[1], d12[1], d13[1]}, [r0], r1 425 vst4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1 426 vst4.8 {d10[3], d11[3], d12[3], d13[3]}, [r0], r1 427 vst4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1 428 vst4.8 {d10[5], d11[5], d12[5], d13[5]}, [r0], r1 429 vst4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0], r [all...] |
vpx_convolve8_avg_vert_filter_type1_neon.asm.S | 179 vqrshrun.s16 d12, q6, #6 198 vrhadd.u8 d12, d12, d20 211 vst1.8 {d12}, [r14], r6 282 vqrshrun.s16 d12, q6, #6 294 vrhadd.u8 d12, d12, d20 305 vst1.8 {d12}, [r14], r6 361 vqrshrun.s16 d12, q6, #6 365 vrhadd.u8 d12, d12, d2 [all...] |
vpx_convolve8_avg_vert_filter_type2_neon.asm.S | 180 vqrshrun.s16 d12, q6, #6 199 vrhadd.u8 d12, d12, d20 212 vst1.8 {d12}, [r14], r6 282 vqrshrun.s16 d12, q6, #6 294 vrhadd.u8 d12, d12, d20 305 vst1.8 {d12}, [r14], r6 361 vqrshrun.s16 d12, q6, #6 365 vrhadd.u8 d12, d12, d2 [all...] |
/external/v8/src/compiler/ |
c-linkage.cc | 58 (1 << d11.code()) | (1 << d12.code()) | (1 << d13.code()) | \ 76 (1 << d11.code()) | (1 << d12.code()) | (1 << d13.code()) | \ 124 d8.bit() | d9.bit() | d10.bit() | d11.bit() | d12.bit() | d13.bit() | \
|
/device/linaro/bootloader/edk2/MdePkg/Library/BaseLib/AArch64/ |
SetJumpLongJump.S | 31 REG_PAIR (d12, d13, 144); \
|