HomeSort by relevance Sort by last modified time
    Searched refs:d24 (Results 1 - 25 of 168) sorted by null

1 2 3 4 5 6 7

  /external/llvm/test/MC/AArch64/
neon-scalar-abs.s 9 abs d29, d24
11 // CHECK: abs d29, d24 // encoding: [0x1d,0xbb,0xe0,0x5e]
19 fabd d29, d24, d20
23 // CHECK: fabd d29, d24, d20 // encoding: [0x1d,0xd7,0xf4,0x7e]
neon-scalar-neg.s 9 neg d29, d24
11 // CHECK: neg d29, d24 // encoding: [0x1d,0xbb,0xe0,0x7e]
  /external/libhevc/common/arm/
ihevc_intra_pred_luma_vert.s 202 @vaddl.s8 q0, d24, d26
212 vqmovun.s16 d24, q14
214 @vmovn.u16 d24, q1
221 vbsl d18, d24, d16 @only select row values from q12(predpixel)
231 vshr.s64 d24, d24, #8
237 vbsl d8, d24, d16
241 vshr.s64 d24, d24, #8
262 vbsl d18, d24, d16 @only select row values from q12(predpixel
    [all...]
ihevc_inter_pred_chroma_horz.s 120 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)
172 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
180 vmlsl.u8 q14,d1,d24
212 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
235 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
248 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
266 vmlsl.u8 q14,d1,d24
297 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
308 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
318 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)
    [all...]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S 40 VLD1.8 {d24,d25},[r0],r1
43 VEXT.8 d10,d24,d25,#5
44 VEXT.8 d12,d24,d25,#1
45 VEXT.8 d16,d24,d25,#2
46 VEXT.8 d17,d24,d25,#3
47 VEXT.8 d13,d24,d25,#4
48 VADDL.U8 q12,d24,d10
53 VMLA.I16 d24,d8,d31
61 VSUB.I16 d24,d24,d
    [all...]
omxVCM4P10_FilterDeblockingChroma_VerEdge_I_s.S 93 VBIT d24,d31,d26
98 VBIF d24,d8,d16
110 VST1.8 {d24[0]},[r12],lr
111 VST1.8 {d24[1]},[r10],lr
112 VST1.8 {d24[2]},[r12],lr
113 VST1.8 {d24[3]},[r10],lr
114 VST1.8 {d24[4]},[r12],lr
115 VST1.8 {d24[5]},[r10],lr
116 VST1.8 {d24[6]},[r12],lr
117 VST1.8 {d24[7]},[r10],l
    [all...]
omxVCM4P10_InterpolateLuma_s.S 79 VRHADD.U8 d24,d24,d16
84 VST1.32 {d24[0]},[r2]
94 VST1.32 {d24[0]},[r2]
103 VRHADD.U8 d24,d24,d17
108 VST1.32 {d24[0]},[r2]
134 VRHADD.U8 d24,d24,d2
139 VST1.32 {d24[0]},[r2
    [all...]
armVCM4P10_DeblockingLuma_unsafe_s.S 39 VRHADD.U8 d24,d4,d8
47 VHADD.U8 d26,d24,d6
51 VHADD.U8 d27,d24,d10
59 VQMOVUN.S16 d24,q12
65 VBIF d24,d8,d16
102 VQRSHRN.U16 d24,q11,#1
106 VBIF d24,d22,d12
108 VBIF d24,d8,d16
omxVCM4P10_FilterDeblockingLuma_VerEdge_I_s.S 92 VZIP.8 d24,d25
96 VZIP.16 d24,d10
99 VTRN.32 d7,d24
104 VST1.8 {d24},[r10],r11
131 VZIP.8 d24,d25
135 VZIP.16 d24,d28
138 VTRN.32 d7,d24
143 VST1.8 {d24},[r10],r11
omxVCM4P10_FilterDeblockingChroma_HorEdge_I_s.S 78 VBIT d24,d31,d26
80 VBIF d24,d8,d16
83 VST1.8 {d24},[r0],r1
  /external/libhevc/common/arm64/
ihevc_intra_pred_luma_vert.s 204 //vaddl.s8 q0, d24, d26
216 //vmovn.u16 d24, q1
233 sshr d24, d24,#8
243 sshr d24, d24,#8
268 sshr d24, d24,#8
281 sshr d24, d24,#
    [all...]
  /art/test/705-register-conflict/src/
Main.java 31 double d24 = 0, d25 = 0, d26 = 0, d27 = 0, d28 = 0, d29 = 0, d30 = 0, d31 = 0; local
57 d24 = d23 + 1;
58 d25 = d24 + 1;
71 + d24 + d25 + d26 + d27 + d28 + d29 + d30 + d31;
  /external/llvm/test/MC/ARM/
pr22395-2.s 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
  /external/libavc/encoder/arm/
ih264e_half_pel.s 174 vqrshrun.s16 d24, q8, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row1)
178 vst1.8 {d23, d24, d25}, [r1], r3 @//Store dest row1
338 vext.16 d31, d23, d24, #1 @//extract a[5] (set3)
353 vext.16 d31, d24, d25, #1 @//extract a[5] (set4)
356 vext.16 d30, d23, d24, #2 @//extract a[2] (set4)
358 vext.16 d29, d23, d24, #3 @//extract a[3] (set4)
361 vext.16 d28, d23, d24, #1 @//extract a[1] (set4)
366 vmlsl.s16 q13, d24, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set4)
367 vext.16 d30, d24, d25, #2 @//extract a[2] (set5)
369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5
    [all...]
  /toolchain/binutils/binutils-2.25/gas/testsuite/gas/arm/
neon-ldst-rm.d 11 0[0-9a-f]+ <[^>]+> ecd28b10 vldmia r2, {d24-d31}
16 0[0-9a-f]+ <[^>]+> ecd28b10 vldmia r2, {d24-d31}
21 0[0-9a-f]+ <[^>]+> ecf28b10 vldmia r2!, {d24-d31}
26 0[0-9a-f]+ <[^>]+> ed728b10 vldmdb r2!, {d24-d31}
31 0[0-9a-f]+ <[^>]+> ecc28b10 vstmia r2, {d24-d31}
36 0[0-9a-f]+ <[^>]+> ecc28b10 vstmia r2, {d24-d31}
41 0[0-9a-f]+ <[^>]+> ece28b10 vstmia r2!, {d24-d31}
46 0[0-9a-f]+ <[^>]+> ed628b10 vstmdb r2!, {d24-d31}
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Blur.S 291 vmlal.u16 q14, d24, d1[3]
297 vmlal.u16 q14, d24, d1[2]
303 vmlal.u16 q14, d24, d1[1]
315 vmlal.u16 q14, d24, d0[3]
321 vmlal.u16 q14, d24, d0[2]
327 vmlal.u16 q14, d24, d0[1]
372 vmlal.u16 q14, d24, d3[3]
378 vmlal.u16 q14, d24, d3[2]
384 vmlal.u16 q14, d24, d3[1]
396 vmlal.u16 q14, d24, d2[3
    [all...]
rsCpuIntrinsics_neon_Convolve.S 145 vld1.8 {d24, d25, d26}, [r1], r7 @ y0 ( y - 2 )
153 vmovl.u8 q9, d24
162 d24, d25
170 vmlal.s16 q4, d24, d1[1]
191 vld1.8 {d24, d25, d26}, [r3], r7 @ y0 ( y )
199 vmovl.u8 q9, d24
208 d24, d25
216 vmlal.s16 q4, d24, d3[3]
236 vld1.8 {d24, d25, d26}, [r5], r7 @ y0 ( y + 2 )
242 vmovl.u8 q9, d24
    [all...]
rsCpuIntrinsics_neon_Resize.S 54 .macro vert8, dstlo=d24, dsthi=d25
243 vdup.s16 d24, d25[0]
245 vld1.s16 {d24}, [r8]
246 vst1.s16 {d24}, [r9]
249 vdup.u32 q11, d24[0]
256 vmov.u64 d24, d28
355 vmov.u64 d24, d25
532 vld4.s16 {d24[],d26[],d28[],d30[]}, [r8]
535 vld4.s16 {d24[1],d26[1],d28[1],d30[1]}, [r9]
539 vld4.s16 {d24[2],d26[2],d28[2],d30[2]}, [r10
    [all...]
  /external/libvpx/libvpx/vpx_dsp/arm/
vpx_convolve8_avg_neon_asm.asm 76 vld1.8 {d24}, [r0], r1
82 vtrn.8 d24, d25
87 vmovl.u8 q8, d24
131 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
132 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
133 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
134 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
218 vld1.u32 {d24[0]}, [r7], r1
221 vld1.u32 {d24[1]}, [r4], r1
224 vmovl.u8 q12, d24
    [all...]
vpx_convolve8_neon_asm.asm 76 vld1.8 {d24}, [r0], r1
82 vtrn.8 d24, d25
87 vmovl.u8 q8, d24
123 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
124 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
125 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
126 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
207 vld1.u32 {d24[0]}, [r7], r1
210 vld1.u32 {d24[1]}, [r4], r1
213 vmovl.u8 q12, d24
    [all...]
loopfilter_mb_neon.asm 67 vst1.u8 {d24}, [r8@64], r1 ; store op0
96 vst1.u8 {d24}, [r8@64], r1 ; store op5
190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1
191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1
192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1
193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1
194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1
195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1
196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1
197 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r8], r
    [all...]
loopfilter_8_neon.asm 201 vabd.u8 d24, d18, d17 ; m6 = abs(q3 - q2)
209 vmax.u8 d23, d23, d24 ; m3 = max(m5, m6)
215 vabd.u8 d24, d6, d7 ; m9 = abs(p0 - q0)
222 vqadd.u8 d24, d24, d24 ; b = abs(p0 - q0) * 2
235 vqadd.u8 d24, d24, d23 ; a = b + a
240 vcge.u8 d24, d0, d24 ; a > blimi
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/
vp9_convolve8_avg_neon.asm 82 vld1.8 {d24}, [r0], r1
88 vtrn.8 d24, d25
93 vmovl.u8 q8, d24
137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
228 vld1.u32 {d24[0]}, [r7], r1
231 vld1.u32 {d24[1]}, [r4], r1
234 vmovl.u8 q12, d24
    [all...]
vp9_convolve8_neon.asm 82 vld1.8 {d24}, [r0], r1
88 vtrn.8 d24, d25
93 vmovl.u8 q8, d24
129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
217 vld1.u32 {d24[0]}, [r7], r1
220 vld1.u32 {d24[1]}, [r4], r1
223 vmovl.u8 q12, d24
    [all...]
vp9_mb_lpf_neon.asm 67 vst1.u8 {d24}, [r8@64], r1 ; store op0
96 vst1.u8 {d24}, [r8@64], r1 ; store op5
190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1
191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1
192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1
193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1
194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1
195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1
196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1
197 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r8], r
    [all...]

Completed in 281 milliseconds

1 2 3 4 5 6 7