HomeSort by relevance Sort by last modified time
    Searched refs:d12 (Results 101 - 125 of 275) sorted by null

1 2 3 45 6 7 8 91011

  /external/skqp/src/core/
SkMaskBlurFilter.cpp 673 // Instead of using memory we can introduce temporaries d01 and d12. The update step changes
677 // d01 = d12 + S[n+0r]*G[0]
678 // d12 = S[n+0r]*G[1]
683 // d01[0..7] = d12[0..7] + S[n+0r..n+0r+7]*G[0]
684 // d12[0..7] = S[n+0r..n+0r+7]*G[1]
689 Sk8h* d01, Sk8h* d12, Sk8h*, Sk8h*, Sk8h*, Sk8h*, Sk8h*, Sk8h*) {
694 *d01 = *d12 + v0;
695 *d12 = v1 + kHalf;
703 Sk8h* d01, Sk8h* d12, Sk8h* d23, Sk8h* d34, Sk8h*, Sk8h*, Sk8h*, Sk8h*) {
709 *d01 = *d12 + v1
    [all...]
  /external/llvm/test/tools/llvm-readobj/ARM/
unwind.s 57 .vsave {d8-d12}
58 vpush {d8-d12}
59 vpop {d8-d12}
223 @ CHECK: 0xC9 0x84 ; pop {d8, d9, d10, d11, d12}
267 @ CHECK: 0xD7 ; pop {d8, d9, d10, d11, d12, d13, d14, d15}
  /external/swiftshader/third_party/llvm-7.0/llvm/test/tools/llvm-readobj/ARM/
unwind.s 57 .vsave {d8-d12}
58 vpush {d8-d12}
59 vpop {d8-d12}
223 @ CHECK: 0xC9 0x84 ; pop {d8, d9, d10, d11, d12}
267 @ CHECK: 0xD7 ; pop {d8, d9, d10, d11, d12, d13, d14, d15}
  /external/libhevc/common/arm/
ihevc_itrans_recon_8x8.s 151 @// row 4 second half - d12 - y4
207 vld1.16 d12,[r0],r5
230 @// vld1.16 d12,[r0]!
371 vmull.s16 q11,d12,d0[0] @// y4 * cos4(part of c0 and c1)
413 vqrshrn.s32 d12,q15,#shift_stage1_idct @// r4 = (a3 - b3 + rnd) >> 7(shift_stage1_idct)
576 vqrshrn.s32 d12,q0,#shift_stage2_idct
613 vtrn.32 d12,d13 @//r4,r5,r6,r7 fourth qudrant transposing continued.....
632 @// element 4 second four - d12 - y4
741 vmull.s16 q11,d12,d0[0] @// y4 * cos4(part of c0 and c1)
811 vqrshrn.s32 d12,q0,#shift_stage2_idc
    [all...]
ihevc_intra_pred_chroma_mode_27_to_33.s 178 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx
190 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
239 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx
256 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
316 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx
332 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
387 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx
403 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
498 vdup.8 d12,r5 @dup_const_fract
525 vmlal.u8 q8,d15,d12 @vmull_u8(ref_main_idx_1, dup_const_fract
    [all...]
ihevc_intra_pred_luma_mode_27_to_33.s 180 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx
192 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
240 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx
257 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
316 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx
332 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
387 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx
402 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
496 vdup.8 d12,r5 @dup_const_fract
523 vmlal.u8 q8,d15,d12 @vmull_u8(ref_main_idx_1, dup_const_fract
    [all...]
ihevc_inter_pred_chroma_copy_w16out.s 218 vld1.8 {d12},[r6],r2 @vld1_u8(pu1_src_tmp)
222 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp)
233 vld1.8 {d12},[r6],r2 @vld1_u8(pu1_src_tmp)
256 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp)
271 vld1.8 {d12},[r6],r2 @vld1_u8(pu1_src_tmp)
295 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp)
ihevc_intra_pred_filters_luma_mode_11_to_17.s 315 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 0)
323 vmull.u8 q12, d12, d7 @mul (row 0)
354 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 4)
366 vmull.u8 q12, d12, d7 @mul (row 4)
462 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 0)
484 vmull.u8 q12, d12, d7 @mul (row 0)
519 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 4)
536 vmull.u8 q12, d12, d7 @mul (row 4)
645 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 0)
649 vmull.u8 q12, d12, d7 @mul (row 0
    [all...]
ihevc_intra_pred_luma_mode_3_to_9.s 205 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 0)
213 vmull.u8 q12, d12, d7 @mul (row 0)
244 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 4)
256 vmull.u8 q12, d12, d7 @mul (row 4)
353 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 0)
375 vmull.u8 q12, d12, d7 @mul (row 0)
409 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 4)
426 vmull.u8 q12, d12, d7 @mul (row 4)
528 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 0)
532 vmull.u8 q12, d12, d7 @mul (row 0
    [all...]
  /external/libmpeg2/common/arm/
impeg2_idct.s 233 vraddhn.s32 d12, q0, q4
243 vraddhn.s32 d12, q0, q4
253 vraddhn.s32 d12, q0, q4
263 vraddhn.s32 d12, q0, q4
273 vraddhn.s32 d12, q0, q4
283 vraddhn.s32 d12, q0, q4
293 vraddhn.s32 d12, q0, q4
303 vraddhn.s32 d12, q0, q4
405 @// Row 4 Second Half - D12 - y4
462 vld1.16 d12, [r0], r
    [all...]
  /external/libavc/common/arm/
ih264_deblk_chroma_a9.s 275 vmov.32 d12[0], r4 @d12[0] = ui_Bs
278 vtbl.8 d14, {d16}, d12 @
279 vmovl.u8 q6, d12 @q6 = uc_Bs in each 16 bit scalar
302 vcgt.s16 d12, d12, #0 @Q6 = (us_Bs > 0)
310 vmov.i8 d13, d12 @
419 vtbl.8 d12, {d24}, d10
515 vdup.8 d12, r3 @D12 = bet
    [all...]
ih264_inter_pred_luma_horz_qpel_a9q.s 172 vld1.32 {d12, d13}, [r7], r2 @Load value for interpolation (column1,row0)
181 vld1.32 {d12, d13}, [r7], r2 @Load value for interpolation (column1,row1)
215 vld1.32 d12, [r7], r2 @Load value for interpolation (column1,row0)
243 vld1.32 d12, [r7], r2 @Load value for interpolation (column1,row0)
  /external/libjpeg-turbo/simd/arm/
jsimd_neon.S     [all...]
  /external/llvm/test/MC/ARM/
neon-shift-encoding.s 112 vsra.s64 d12, d19, #63
130 @ CHECK: vsra.s64 d12, d19, #63 @ encoding: [0xb3,0xc1,0x81,0xf2]
148 vsra.u64 d12, d19, #63
166 @ CHECK: vsra.u64 d12, d19, #63 @ encoding: [0xb3,0xc1,0x81,0xf3]
184 vsri.64 d12, d19, #63
202 @ CHECK: vsri.64 d12, d19, #63 @ encoding: [0xb3,0xc4,0x81,0xf3]
220 vsli.64 d12, d19, #63
238 @ CHECK: vsli.64 d12, d19, #63 @ encoding: [0xb3,0xc5,0xbf,0xf3]
434 vrshl.s16 d12, d5
451 @ CHECK: vrshl.s16 d12, d12, d5 @ encoding: [0x0c,0xc5,0x15,0xf2
    [all...]
invalid-fp-armv8.s 7 vcvtt.f16.f64 s5, d12
8 @ V7-NOT: vcvtt.f16.f64 s5, d12 @ encoding: [0xcc,0x2b,0xf3,0xee]
  /external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
neon-shift-encoding.s 112 vsra.s64 d12, d19, #63
130 @ CHECK: vsra.s64 d12, d19, #63 @ encoding: [0xb3,0xc1,0x81,0xf2]
148 vsra.u64 d12, d19, #63
166 @ CHECK: vsra.u64 d12, d19, #63 @ encoding: [0xb3,0xc1,0x81,0xf3]
184 vsri.64 d12, d19, #63
202 @ CHECK: vsri.64 d12, d19, #63 @ encoding: [0xb3,0xc4,0x81,0xf3]
220 vsli.64 d12, d19, #63
238 @ CHECK: vsli.64 d12, d19, #63 @ encoding: [0xb3,0xc5,0xbf,0xf3]
434 vrshl.s16 d12, d5
451 @ CHECK: vrshl.s16 d12, d12, d5 @ encoding: [0x0c,0xc5,0x15,0xf2
    [all...]
  /external/libavc/encoder/arm/
ime_distortion_metrics_a9q.s 296 vadd.i16 d12, d12, d13
299 vpaddl.u16 d12, d12
302 vpaddl.u32 d12, d12
307 vst1.32 {d12[0]}, [r7]
420 vadd.u16 d12, d12, d13
424 vpadd.u16 d12, d12, d1
    [all...]
  /external/libvpx/libvpx/vp8/encoder/x86/
fwalsh_sse2.asm 83 pmaddwd xmm1, [GLOBAL(c1)] ; d12 a12 d13 a13
88 pshufd xmm6, xmm1, 0x72 ; d13 d12 a13 a12
96 punpckhqdq xmm6, xmm7 ; c13 c12 d13 d12
  /external/libvpx/libvpx/vpx_dsp/arm/
vpx_convolve8_avg_vert_filter_type1_neon.asm 172 vqrshrun.s16 d12, q6, #6
191 vrhadd.u8 d12, d12, d20
204 vst1.8 {d12}, [r14], r6
275 vqrshrun.s16 d12, q6, #6
287 vrhadd.u8 d12, d12, d20
298 vst1.8 {d12}, [r14], r6
354 vqrshrun.s16 d12, q6, #6
358 vrhadd.u8 d12, d12, d2
    [all...]
vpx_convolve8_avg_vert_filter_type2_neon.asm 173 vqrshrun.s16 d12, q6, #6
192 vrhadd.u8 d12, d12, d20
205 vst1.8 {d12}, [r14], r6
275 vqrshrun.s16 d12, q6, #6
287 vrhadd.u8 d12, d12, d20
298 vst1.8 {d12}, [r14], r6
354 vqrshrun.s16 d12, q6, #6
358 vrhadd.u8 d12, d12, d2
    [all...]
  /external/libvpx/config/arm-neon/vpx_dsp/arm/
loopfilter_4_neon.asm.S 371 vld1.u8 {d12}, [r2], r1 @ 30 31 32 33 34 35 36 37
420 vmov d11, d12
421 vmov d12, d14
423 vst4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1
424 vst4.8 {d10[1], d11[1], d12[1], d13[1]}, [r0], r1
425 vst4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1
426 vst4.8 {d10[3], d11[3], d12[3], d13[3]}, [r0], r1
427 vst4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1
428 vst4.8 {d10[5], d11[5], d12[5], d13[5]}, [r0], r1
429 vst4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0], r
    [all...]
vpx_convolve8_avg_vert_filter_type1_neon.asm.S 179 vqrshrun.s16 d12, q6, #6
198 vrhadd.u8 d12, d12, d20
211 vst1.8 {d12}, [r14], r6
282 vqrshrun.s16 d12, q6, #6
294 vrhadd.u8 d12, d12, d20
305 vst1.8 {d12}, [r14], r6
361 vqrshrun.s16 d12, q6, #6
365 vrhadd.u8 d12, d12, d2
    [all...]
vpx_convolve8_avg_vert_filter_type2_neon.asm.S 180 vqrshrun.s16 d12, q6, #6
199 vrhadd.u8 d12, d12, d20
212 vst1.8 {d12}, [r14], r6
282 vqrshrun.s16 d12, q6, #6
294 vrhadd.u8 d12, d12, d20
305 vst1.8 {d12}, [r14], r6
361 vqrshrun.s16 d12, q6, #6
365 vrhadd.u8 d12, d12, d2
    [all...]
  /external/v8/src/compiler/
c-linkage.cc 58 (1 << d11.code()) | (1 << d12.code()) | (1 << d13.code()) | \
76 (1 << d11.code()) | (1 << d12.code()) | (1 << d13.code()) | \
124 d8.bit() | d9.bit() | d10.bit() | d11.bit() | d12.bit() | d13.bit() | \
  /device/linaro/bootloader/edk2/MdePkg/Library/BaseLib/AArch64/
SetJumpLongJump.S 31 REG_PAIR (d12, d13, 144); \

Completed in 2021 milliseconds

1 2 3 45 6 7 8 91011