HomeSort by relevance Sort by last modified time
    Searched refs:d27 (Results 1 - 25 of 138) sorted by null

1 2 3 4 5 6

  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S 81 VEXT.8 d27,d18,d19,#4
89 VADD.I16 d27,d27,d28
92 VMLAL.S16 q0,d27,d31
93 VEXT.8 d27,d20,d21,#4
99 VADD.I16 d27,d27,d28
102 VMLAL.S16 q1,d27,d31
104 VEXT.8 d27,d22,d23,#4
108 VADD.I16 d27,d27,d2
    [all...]
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S 52 VLD1.8 {d26,d27},[r0],r1
55 VEXT.8 d10,d26,d27,#5
56 VEXT.8 d12,d26,d27,#1
57 VEXT.8 d18,d26,d27,#2
58 VEXT.8 d19,d26,d27,#3
59 VEXT.8 d13,d26,d27,#4
  /art/test/705-register-conflict/src/
Main.java 31 double d24 = 0, d25 = 0, d26 = 0, d27 = 0, d28 = 0, d29 = 0, d30 = 0, d31 = 0; local
60 d27 = d26 + 1;
61 d28 = d27 + 1;
71 + d24 + d25 + d26 + d27 + d28 + d29 + d30 + d31;
  /external/llvm/test/MC/ARM/
pr22395-2.s 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
  /toolchain/binutils/binutils-2.25/gas/testsuite/gas/aarch64/
fp-const0-parse.s 33 fcmle d3, d27, #0
52 fcmle d3, d27, #0.0
fp-const0-parse.d 16 20: 7ee0db63 fcmle d3, d27, #0.0
31 5c: 7ee0db63 fcmle d3, d27, #0.0
  /external/libavc/common/arm/
ih264_inter_pred_filters_luma_horz_a9q.s 130 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1)
133 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1)
138 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1)
141 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1)
146 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1)
149 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1)
154 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1)
157 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1)
162 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1)
164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1
    [all...]
ih264_inter_pred_luma_horz_qpel_a9q.s 137 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1)
140 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1)
145 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1)
148 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1)
153 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1)
156 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1)
161 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1)
164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1)
169 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1)
171 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1
    [all...]
  /external/libvpx/libvpx/vpx_dsp/arm/
loopfilter_4_neon.asm 235 vqsub.s8 d27, d5, d16 ; filter = clamp(ps1-qs1)
240 vand d27, d27, d22 ; filter &= hev
243 vaddw.s8 q12, q12, d27 ; filter + 3 * (qs0 - ps0)
248 vqmovn.s16 d27, q12
250 vand d27, d27, d23 ; filter &= mask
252 vqadd.s8 d28, d27, d19 ; filter2 = clamp(filter+3)
253 vqadd.s8 d27, d27, d17 ; filter1 = clamp(filter+4
    [all...]
loopfilter_mb_neon.asm 99 vst1.u8 {d27}, [r8@64], r1 ; store op2
232 vtrn.32 d16, d27
239 vtrn.16 d27, d19
243 vtrn.8 d26, d27
271 vst1.8 {d27}, [r8@64], r1
338 vabd.u8 d27, d4, d7 ; abs(p3 - p0)
343 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0))
371 vabd.u8 d27, d14, d8 ; abs(q6 - q0)
378 vmax.u8 d24, d26, d27 ; max(abs(p6 - p0), abs(q6 - q0))
382 vmax.u8 d27, d24, d2
    [all...]
vpx_convolve8_avg_neon_asm.asm 79 vld1.8 {d27}, [r0], r8
83 vtrn.8 d26, d27
90 vmovl.u8 q11, d27
133 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
134 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
246 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
251 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
vpx_convolve8_neon_asm.asm 79 vld1.8 {d27}, [r0], r8
83 vtrn.8 d26, d27
90 vmovl.u8 q11, d27
125 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
126 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
230 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
235 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Convolve.S 56 vmovl.u8 q3, d27
146 vld1.8 {d27, d28, d29}, [r2], r7 @ y0 ( y - 1 )
156 vmovl.u8 q12, d27
173 vmlal.s16 q4, d27, d2[0]
184 vmlal.s16 q5, d27, d1[3]
192 vld1.8 {d27, d28, d29}, [r4], r7 @ y0 ( y + 1 )
202 vmovl.u8 q12, d27
219 vmlal.s16 q4, d27, d4[2]
230 vmlal.s16 q5, d27, d4[1]
rsCpuIntrinsics_neon_Blur.S 294 vmlal.u16 q15, d27, d1[3]
300 vmlal.u16 q15, d27, d1[2]
306 vmlal.u16 q15, d27, d1[1]
318 vmlal.u16 q15, d27, d0[3]
324 vmlal.u16 q15, d27, d0[2]
330 vmlal.u16 q15, d27, d0[1]
375 vmlal.u16 q15, d27, d3[3]
381 vmlal.u16 q15, d27, d3[2]
387 vmlal.u16 q15, d27, d3[1]
399 vmlal.u16 q15, d27, d2[3
    [all...]
rsCpuIntrinsics_neon_Resize.S 259 vmov.u64 d27, d28
547 vld4.s16 {d25[],d27[],d29[],d31[]}, [r8]
549 vld4.s16 {d25[1],d27[1],d29[1],d31[1]}, [r9]
550 vld4.s16 {d25[2],d27[2],d29[2],d31[2]}, [r10]
551 vld4.s16 {d25[3],d27[3],d29[3],d31[3]}, [r11]
556 vmlsl.s16 q9, d27, d3
583 vld4.u32 {d25[],d27[],d29[],d31[]}, [r10]
587 vld4.u32 {d25[1],d27[1],d29[1],d31[1]}, [r11]
606 vmlsl.s16 q9, d27, d21
617 vld4.u32 {d25[],d27[],d29[],d31[]}, [r10
    [all...]
  /external/libavc/encoder/arm/
ih264e_half_pel.s 111 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1)
115 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1)
124 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1)
128 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1)
137 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1)
141 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1)
150 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1)
154 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1)
163 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1)
167 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1
    [all...]
  /external/libhevc/common/arm/
ihevc_inter_pred_chroma_horz.s 129 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)
176 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
185 vmlsl.u8 q14,d7,d27
229 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
241 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
259 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
273 vmlsl.u8 q14,d7,d27
301 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
312 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
322 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)
    [all...]
ihevc_intra_pred_chroma_dc.s 133 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1]
144 vpaddl.u8 d3, d27
159 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1]
167 vpaddl.u8 d3, d27
253 vld2.s8 {d26,d27},[r8] @load from src[2nt+1]
264 vshl.i64 d2,d27,#32
ihevc_inter_pred_chroma_horz_w16out.s 132 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)
196 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
206 vmlsl.u8 q14,d7,d27
245 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
258 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
271 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
286 vmlsl.u8 q14,d7,d27
312 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
322 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
332 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)
    [all...]
  /toolchain/binutils/binutils-2.25/gas/testsuite/gas/arm/
thumb1_unified.d 12 0[0-9a-f]+ <[^>]+> 2d27 cmp r5, #39.*
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/
sixtappredict8x4_neon.asm 162 vext.8 d27, d6, d7, #1 ;construct src_ptr[-1]
168 vmlsl.u8 q8, d27, d1 ;-(src_ptr[-1] * vp8_filter[1])
174 vext.8 d27, d6, d7, #4 ;construct src_ptr[2]
180 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4])
186 vext.8 d27, d6, d7, #2 ;construct src_ptr[0]
192 vmlal.u8 q8, d27, d2 ;(src_ptr[0] * vp8_filter[2])
198 vext.8 d27, d6, d7, #5 ;construct src_ptr[3]
204 vmlal.u8 q8, d27, d5 ;(src_ptr[3] * vp8_filter[5])
210 vext.8 d27, d6, d7, #3 ;construct src_ptr[1]
216 vmull.u8 q3, d27, d3 ;(src_ptr[1] * vp8_filter[3]
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/
vp9_mb_lpf_neon.asm 99 vst1.u8 {d27}, [r8@64], r1 ; store op2
232 vtrn.32 d16, d27
239 vtrn.16 d27, d19
243 vtrn.8 d26, d27
271 vst1.8 {d27}, [r8@64], r1
338 vabd.u8 d27, d4, d7 ; abs(p3 - p0)
343 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0))
371 vabd.u8 d27, d14, d8 ; abs(q6 - q0)
378 vmax.u8 d24, d26, d27 ; max(abs(p6 - p0), abs(q6 - q0))
382 vmax.u8 d27, d24, d2
    [all...]
vp9_convolve8_avg_neon.asm 85 vld1.8 {d27}, [r0], r8
89 vtrn.8 d26, d27
96 vmovl.u8 q11, d27
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
256 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
vp9_convolve8_neon.asm 85 vld1.8 {d27}, [r0], r8
89 vtrn.8 d26, d27
96 vmovl.u8 q11, d27
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
240 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
vp9_iht4x4_add_neon.asm 38 vqrshrn.s32 d27, q14, #14
216 vld1.32 {d27[0]}, [r1], r2
217 vld1.32 {d27[1]}, [r1]
221 vaddw.u8 q9, q9, d27
225 vqmovun.s16 d27, q9
230 vst1.32 {d27[1]}, [r1], r2
231 vst1.32 {d27[0]}, [r1], r2

Completed in 340 milliseconds

1 2 3 4 5 6