HomeSort by relevance Sort by last modified time
    Searched refs:d12 (Results 126 - 150 of 275) sorted by null

1 2 3 4 56 7 8 91011

  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s 139 vld1.u32 {d11, d12, d13}, [r0], r2 @ Vector load from src[3_0]
151 vaddl.u8 q11, d9, d12 @ temp3 = src[2_0] + src[3_0]
210 vaddl.u8 q11, d12, d15 @ temp3 = src[2_0] + src[3_0]
273 vld1.u32 {d12, d13}, [r0], r2 @ Vector load from src[5_0]
278 vaddl.u8 q12, d2, d12 @ temp = src[0_0] + src[5_0]
311 vaddl.u8 q11, d6, d12 @ temp2 = src[1_0] + src4_0]
357 vld1.u32 {d12, d13}, [r0], r2 @ Vector load from src[5_0]
362 vaddl.u8 q12, d2, d12 @ temp = src[0_0] + src[5_0]
395 vaddl.u8 q11, d6, d12 @ temp2 = src[1_0] + src4_0]
ih264_deblk_luma_a9.s 100 vmov.32 d12[0], r4 @d12[0] = ui_Bs
105 vmovl.u8 q6, d12 @q6 = uc_Bs in each 16 bt scalar
113 vtbl.8 d14, {d16}, d12 @
116 vmovl.u16 q6, d12 @
272 vrshrn.u16 d12, q8, #3 @(2*(p0+q0+q1)+q2 +p1 +4)>> 3 L [q0']
291 vrshrn.u16 d12, q14, #2 @(p0+q0+q1+q2+2)>>2 L [q1']
311 vst1.8 {d12, d13}, [r0], r1 @store q1
343 vrshrn.u16 d12, q6, #3 @((p0+q0+p1)+3*p2+2*p3+4)>>3 L p2'
410 vmov.32 d18[0], r12 @d12[0] = ui_B
    [all...]
ih264_intra_pred_chroma_a9q.s 125 vadd.u16 d12, d4, d5
130 vpadd.u32 d12, d12, d15
132 vqrshrun.s16 d12, q6, #3
134 vdup.u16 d8, d12[0]
137 vdup.u16 d11, d12[1]
428 vrshrn.s32 d12, q12, #6
446 vdup.16 q2, d12[0]
  /external/libhevc/common/arm/
ihevc_inter_pred_filters_luma_vert_w16inp.s 214 vqshrn.s32 d12, q6, #6
238 vqrshrun.s16 d12,q6,#6
247 vst1.32 {d12[0]},[r14],r6
300 vqshrn.s32 d12, q6, #6
321 vqrshrun.s16 d12,q6,#6
332 vst1.32 {d12[0]},[r14],r6
359 vqshrn.s32 d12, q6, #6
367 vqrshrun.s16 d12,q6,#6
369 vst1.32 {d12[0]},[r14],r6
ihevc_inter_pred_luma_vert_w16inp_w16out.s 251 vshrn.s32 d12, q6, #6
252 @vqrshrun.s16 d12,q6,#6
261 vst1.32 {d12},[r14],r6
338 vshrn.s32 d12, q6, #6
339 @vqrshrun.s16 d12,q6,#6
350 vst1.32 {d12},[r14],r6
388 vshrn.s32 d12, q6, #6
389 @vqrshrun.s16 d12,q6,#6
391 vst1.32 {d12},[r14],r6
ihevc_intra_pred_chroma_mode_3_to_9.s 201 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 0)
211 vmull.u8 q12, d12, d7 @mul (row 0)
242 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 4)
254 vmull.u8 q12, d12, d7 @mul (row 4)
359 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 0)
383 vmull.u8 q12, d12, d7 @mul (row 0)
417 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 4)
434 vmull.u8 q12, d12, d7 @mul (row 4)
ihevc_intra_pred_filters_chroma_mode_19_to_25.s 287 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx
298 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
345 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx
361 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
426 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx
443 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
500 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx
518 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
ihevc_inter_pred_chroma_horz_w16out.s 243 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
313 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
353 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
409 @vld1.u32 {d12,d13},[r4],r11 @vector load pu1_src + src_strd
414 @vext.u8 d14,d12,d13,#2 @vector extract of src[0_2]
417 @vext.u8 d16,d12,d13,#4 @vector extract of src[0_4]
418 @vext.u8 d18,d12,d13,#6 @vector extract of src[0_6]
528 vst1.16 {d12, d13},[r4],r8 @(3)store the result pu1_dst
584 vst1.16 {d12, d13},[r4], r8 @(3)store the result pu1_dst
629 @vld1.u32 {d12,d13},[r4] @vector load pu1_src + src_str
    [all...]
ihevc_intra_pred_chroma_planar.s 222 vmovn.i16 d12, q6
233 vst1.s32 {d12,d13}, [r2], r3
347 @ vmovn.i16 d12, q6
348 vrshrn.s16 d12,q6,#3
350 vst1.s32 {d12}, [r2], r3
  /external/libvpx/libvpx/vp8/common/arm/neon/
mbloopfilter_neon.c 207 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local
229 d12 = vld1_u8(u);
251 q6 = vcombine_u8(d12, d13);
294 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local
318 d12 = vld1_u8(s1);
340 q6 = vcombine_u8(d12, d13);
458 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local
482 d12 = vld1_u8(us);
504 q6 = vcombine_u8(d12, d13);
vp8_loopfilter_neon.c 174 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local
196 d12 = vld1_u8(u);
218 q6 = vcombine_u8(d12, d13);
322 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local
340 d12 = vld1_u8(s);
369 q6 = vcombine_u8(d12, d13);
411 q4ResultL.val[1] = vget_low_u8(q6); // d12
434 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local
452 d12 = vld1_u8(us);
482 q6 = vcombine_u8(d12, d13)
    [all...]
  /external/libxaac/decoder/armv7/
ixheaacd_imdct_using_fft.s 114 VLD2.32 {d12[0], d14[0]}, [r5], r1
125 VLD2.32 {d12[1], d14[1]}, [r6], r1
504 VLD2.32 {d12[0], d14[0]}, [r5], r1
515 VLD2.32 {d12[1], d14[1]}, [r6], r1
588 VSWP d12, d9
675 VSHR.U16 d12, d12, #1
678 VMLSL.S16 q11, d12, d1
681 VMLAL.S16 q12, d12, d0
ixheaacd_sbr_imdct_using_fft.s 118 VLD2.32 {d12[0], d14[0]}, [r5], r1
129 VLD2.32 {d12[1], d14[1]}, [r6], r1
513 VLD2.32 {d12[0], d14[0]}, [r5], r1
524 VLD2.32 {d12[1], d14[1]}, [r6], r1
597 VSWP d12, d9
704 VSHR.U16 d12, d12, #1
707 VMLSL.S16 q11, d12, d1
710 VMLAL.S16 q12, d12, d0
  /external/libavc/encoder/arm/
ih264e_half_pel.s 270 vld1.8 {d11, d12, d13}, [r0], r3
304 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0)
405 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 (column2,row0)
512 vmlsl.u8 q11, d12, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
    [all...]
  /external/boringssl/src/crypto/test/
abi_test.h 123 CALLER_STATE_REGISTER(uint64_t, d12) \
164 CALLER_STATE_REGISTER(uint64_t, d12) \
  /external/llvm/test/MC/ARM/
neon-vld-encoding.s 164 vld3.i8 {d12, d13, d14}, [r6], r1
165 vld3.i16 {d11, d12, d13}, [r7], r2
185 @ CHECK: vld3.8 {d12, d13, d14}, [r6], r1 @ encoding: [0x01,0xc4,0x26,0xf4]
186 @ CHECK: vld3.16 {d11, d12, d13}, [r7], r2 @ encoding: [0x42,0xb4,0x27,0xf4]
257 vld1.p8 d12[6], [r2]!
258 vld1.i8 d12[6], [r2], r2
259 vld1.u16 d12[3], [r2]!
260 vld1.16 d12[2], [r2], r2
265 @ CHECK: vld1.8 {d12[6]}, [r2]! @ encoding: [0xcd,0xc0,0xa2,0xf4]
266 @ CHECK: vld1.8 {d12[6]}, [r2], r2 @ encoding: [0xc2,0xc0,0xa2,0xf4
    [all...]
  /external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
neon-vld-encoding.s 164 vld3.i8 {d12, d13, d14}, [r6], r1
165 vld3.i16 {d11, d12, d13}, [r7], r2
185 @ CHECK: vld3.8 {d12, d13, d14}, [r6], r1 @ encoding: [0x01,0xc4,0x26,0xf4]
186 @ CHECK: vld3.16 {d11, d12, d13}, [r7], r2 @ encoding: [0x42,0xb4,0x27,0xf4]
257 vld1.p8 d12[6], [r2]!
258 vld1.i8 d12[6], [r2], r2
259 vld1.u16 d12[3], [r2]!
260 vld1.16 d12[2], [r2], r2
265 @ CHECK: vld1.8 {d12[6]}, [r2]! @ encoding: [0xcd,0xc0,0xa2,0xf4]
266 @ CHECK: vld1.8 {d12[6]}, [r2], r2 @ encoding: [0xc2,0xc0,0xa2,0xf4
    [all...]
  /external/libvpx/libvpx/vpx_dsp/arm/
vpx_convolve8_avg_horiz_filter_type1_neon.asm 118 vld1.u32 {d12}, [r4], r11 ;vector load pu1_src + src_strd
153 vmlsl.u8 q5, d12, d24 ;mul_res = vmlsl_u8(src[0_0],
209 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4],
258 vmlal.u8 q5, d12, d28 ;mul_res = vmlal_u8(src[0_4],
322 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4],
381 vld1.u32 {d12}, [r4], r11 ;vector load pu1_src + src_strd
383 vzip.32 d0, d12 ;vector zip the i iteration and ii
vpx_convolve8_avg_horiz_filter_type2_neon.asm 119 vld1.u32 {d12}, [r4], r11 ;vector load pu1_src + src_strd
154 vmlsl.u8 q5, d12, d24 ;mul_res = vmlsl_u8(src[0_0],
210 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4],
259 vmlal.u8 q5, d12, d28 ;mul_res = vmlal_u8(src[0_4],
323 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4],
382 vld1.u32 {d12}, [r4], r11 ;vector load pu1_src + src_strd
384 vzip.32 d0, d12 ;vector zip the i iteration and ii
vpx_convolve8_horiz_filter_type1_neon.asm 118 vld1.u32 {d12}, [r4], r11 ;vector load pu1_src + src_strd
150 vmlsl.u8 q5, d12, d24 ;mul_res = vmlsl_u8(src[0_0],
205 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4],
251 vmlal.u8 q5, d12, d28 ;mul_res = vmlal_u8(src[0_4],
307 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4],
361 vld1.u32 {d12}, [r4], r11 ;vector load pu1_src + src_strd
363 vzip.32 d0, d12 ;vector zip the i iteration and ii
vpx_convolve8_horiz_filter_type2_neon.asm 118 vld1.u32 {d12}, [r4], r11 ;vector load pu1_src + src_strd
150 vmlsl.u8 q5, d12, d24 ;mul_res = vmlsl_u8(src[0_0],
205 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4],
251 vmlal.u8 q5, d12, d28 ;mul_res = vmlal_u8(src[0_4],
307 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4],
361 vld1.u32 {d12}, [r4], r11 ;vector load pu1_src + src_strd
363 vzip.32 d0, d12 ;vector zip the i iteration and ii
  /external/vixl/test/aarch32/
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc 407 {{F64, d12, d16, d21},
408 "F64 d12 d16 d21",
487 {{F64, d20, d12, d17},
488 "F64 d20 d12 d17",
557 {{F64, d16, d2, d12},
558 "F64 d16 d2 d12",
    [all...]
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc 407 {{F64, d12, d16, d21},
408 "F64 d12 d16 d21",
487 {{F64, d20, d12, d17},
488 "F64 d20 d12 d17",
557 {{F64, d16, d2, d12},
558 "F64 d16 d2 d12",
    [all...]
  /external/boringssl/ios-aarch64/crypto/test/
trampoline-armv8.S 40 stp d12, d13, [sp, #48]
56 ldp d12, d13, [x1], #16
101 stp d12, d13, [x1], #16
121 ldp d12, d13, [sp, #48]
465 fmov d12, xzr
  /external/capstone/suite/MC/ARM/
neon-shift-encoding.s.cs 53 0xb3,0xc1,0x81,0xf2 = vsra.s64 d12, d19, #63
69 0xb3,0xc1,0x81,0xf3 = vsra.u64 d12, d19, #63
85 0xb3,0xc4,0x81,0xf3 = vsri.64 d12, d19, #63
101 0xb3,0xc5,0xbf,0xf3 = vsli.64 d12, d19, #63
192 0x0c,0xc5,0x15,0xf2 = vrshl.s16 d12, d12, d5 package
208 0x1c,0xc0,0x90,0xf2 = vshr.s16 d12, d12, #16 package
224 0x1c,0xc2,0x90,0xf2 = vrshr.s16 d12, d12, #1 package
    [all...]

Completed in 761 milliseconds

1 2 3 4 56 7 8 91011