HomeSort by relevance Sort by last modified time
    Searched refs:d27 (Results 26 - 50 of 123) sorted by null

12 3 4 5

  /external/libvpx/libvpx/vpx_dsp/arm/
vpx_convolve8_avg_vert_filter_type1_neon.asm 58 vdup.u8 d27, d0[5] ;coeffabs_5 = vdup_lane_u8(coeffabs,
97 vmlal.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1,
125 vmlal.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2,
147 vmlal.u8 q6, d7, d27
165 vmlal.u8 q7, d16, d27
198 vmlal.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1,
225 vmlal.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2,
248 vmlal.u8 q6, d7, d27
269 vmlal.u8 q7, d16, d27
294 vmlal.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1
    [all...]
vpx_convolve8_avg_vert_filter_type2_neon.asm 58 vdup.u8 d27, d0[5] ;coeffabs_5 = vdup_lane_u8(coeffabs,
98 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1,
126 vmlsl.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2,
148 vmlsl.u8 q6, d7, d27
166 vmlsl.u8 q7, d16, d27
199 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1,
226 vmlsl.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2,
249 vmlsl.u8 q6, d7, d27
269 vmlsl.u8 q7, d16, d27
294 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1
    [all...]
vpx_convolve8_vert_filter_type1_neon.asm 58 vdup.u8 d27, d0[5] ;coeffabs_5 = vdup_lane_u8(coeffabs,
98 vmlal.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1,
125 vmlal.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2,
145 vmlal.u8 q6, d7, d27
162 vmlal.u8 q7, d16, d27
193 vmlal.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1,
218 vmlal.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2,
239 vmlal.u8 q6, d7, d27
257 vmlal.u8 q7, d16, d27
280 vmlal.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1
    [all...]
vpx_convolve8_vert_filter_type2_neon.asm 58 vdup.u8 d27, d0[5] ;coeffabs_5 = vdup_lane_u8(coeffabs,
98 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1,
125 vmlsl.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2,
146 vmlsl.u8 q6, d7, d27
163 vmlsl.u8 q7, d16, d27
194 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1,
219 vmlsl.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2,
240 vmlsl.u8 q6, d7, d27
258 vmlsl.u8 q7, d16, d27
280 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1
    [all...]
vpx_convolve8_avg_horiz_filter_type1_neon.asm 54 vdup.8 d27, d2[3] ;coeffabs_3 = vdup_lane_u8(coeffabs,
110 vmlal.u8 q4, d3, d27 ;mul_res = vmull_u8(src[0_3],
132 vmlal.u8 q5, d15, d27 ;mul_res = vmull_u8(src[0_3],
206 vmlal.u8 q4, d6, d27 ;mul_res = vmull_u8(src[0_3],
229 vmlal.u8 q10, d7, d27
254 vmlal.u8 q5, d6, d27 ;mul_res = vmull_u8(src[0_3],
280 vmlal.u8 q11, d7, d27
319 vmlal.u8 q4, d6, d27 ;mul_res = vmull_u8(src[0_3],
405 vmlal.u8 q4, d3, d27
vpx_convolve8_avg_horiz_filter_type2_neon.asm 54 vdup.8 d27, d2[3] ;coeffabs_3 = vdup_lane_u8(coeffabs,
111 vmlal.u8 q4, d3, d27 ;mul_res = vmull_u8(src[0_3],
133 vmlal.u8 q5, d15, d27 ;mul_res = vmull_u8(src[0_3],
207 vmlal.u8 q4, d6, d27 ;mul_res = vmull_u8(src[0_3],
230 vmlal.u8 q10, d7, d27
255 vmlal.u8 q5, d6, d27 ;mul_res = vmull_u8(src[0_3],
281 vmlal.u8 q11, d7, d27
320 vmlal.u8 q4, d6, d27 ;mul_res = vmull_u8(src[0_3],
406 vmlal.u8 q4, d3, d27
vpx_convolve8_horiz_filter_type1_neon.asm 53 vdup.8 d27, d2[3] ;coeffabs_3 = vdup_lane_u8(coeffabs,
110 vmlal.u8 q4, d3, d27 ;mul_res = vmull_u8(src[0_3],
132 vmlal.u8 q5, d15, d27 ;mul_res = vmull_u8(src[0_3],
202 vmlal.u8 q4, d6, d27 ;mul_res = vmull_u8(src[0_3],
225 vmlal.u8 q10, d7, d27
247 vmlal.u8 q5, d6, d27 ;mul_res = vmull_u8(src[0_3],
272 vmlal.u8 q11, d7, d27
304 vmlal.u8 q4, d6, d27 ;mul_res = vmull_u8(src[0_3],
385 vmlal.u8 q4, d3, d27
vpx_convolve8_horiz_filter_type2_neon.asm 54 vdup.8 d27, d2[3] ;coeffabs_3 = vdup_lane_u8(coeffabs,
110 vmlal.u8 q4, d3, d27 ;mul_res = vmull_u8(src[0_3],
132 vmlal.u8 q5, d15, d27 ;mul_res = vmull_u8(src[0_3],
202 vmlal.u8 q4, d6, d27 ;mul_res = vmull_u8(src[0_3],
225 vmlal.u8 q10, d7, d27
247 vmlal.u8 q5, d6, d27 ;mul_res = vmull_u8(src[0_3],
272 vmlal.u8 q11, d7, d27
304 vmlal.u8 q4, d6, d27 ;mul_res = vmull_u8(src[0_3],
385 vmlal.u8 q4, d3, d27
loopfilter_16_neon.asm 101 vst1.u8 {d27}, [r8@64], r1 ; store op2
264 vtrn.32 d16, d27
271 vtrn.16 d27, d19
275 vtrn.8 d26, d27
303 vst1.8 {d27}, [r8@64], r1
398 vabd.u8 d27, d4, d7 ; abs(p3 - p0)
403 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0))
431 vabd.u8 d27, d14, d8 ; abs(q6 - q0)
438 vmax.u8 d24, d26, d27 ; max(abs(p6 - p0), abs(q6 - q0))
442 vmax.u8 d27, d24, d2
    [all...]
  /external/boringssl/ios-arm/crypto/fipsmodule/
ghash-armv4.S 412 vldmia r1,{d26,d27} @ load twisted H
418 veor d28,d26,d27 @ Karatsuba pre-processing
433 vldmia r1,{d26,d27} @ load twisted H
439 veor d28,d26,d27 @ Karatsuba pre-processing
524 vext.8 d16, d27, d27, #1 @ A1
527 vmull.p8 q2, d27, d4 @ E = A*B1
528 vext.8 d18, d27, d27, #2 @ A2
531 vmull.p8 q11, d27, d22 @ G = A*B
    [all...]
  /external/boringssl/linux-arm/crypto/fipsmodule/
ghash-armv4.S 403 vldmia r1,{d26,d27} @ load twisted H
409 veor d28,d26,d27 @ Karatsuba pre-processing
422 vldmia r1,{d26,d27} @ load twisted H
428 veor d28,d26,d27 @ Karatsuba pre-processing
513 vext.8 d16, d27, d27, #1 @ A1
516 vmull.p8 q2, d27, d4 @ E = A*B1
517 vext.8 d18, d27, d27, #2 @ A2
520 vmull.p8 q11, d27, d22 @ G = A*B
    [all...]
  /external/libvpx/config/arm-neon/vpx_dsp/arm/
vpx_convolve8_avg_vert_filter_type1_neon.asm.S 65 vdup.u8 d27, d0[5] @coeffabs_5 = vdup_lane_u8(coeffabs,
104 vmlal.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1,
132 vmlal.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2,
154 vmlal.u8 q6, d7, d27
172 vmlal.u8 q7, d16, d27
205 vmlal.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1,
232 vmlal.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2,
255 vmlal.u8 q6, d7, d27
276 vmlal.u8 q7, d16, d27
301 vmlal.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1
    [all...]
vpx_convolve8_avg_vert_filter_type2_neon.asm.S 65 vdup.u8 d27, d0[5] @coeffabs_5 = vdup_lane_u8(coeffabs,
105 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1,
133 vmlsl.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2,
155 vmlsl.u8 q6, d7, d27
173 vmlsl.u8 q7, d16, d27
206 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1,
233 vmlsl.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2,
256 vmlsl.u8 q6, d7, d27
276 vmlsl.u8 q7, d16, d27
301 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1
    [all...]
vpx_convolve8_vert_filter_type1_neon.asm.S 65 vdup.u8 d27, d0[5] @coeffabs_5 = vdup_lane_u8(coeffabs,
105 vmlal.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1,
132 vmlal.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2,
152 vmlal.u8 q6, d7, d27
169 vmlal.u8 q7, d16, d27
200 vmlal.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1,
225 vmlal.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2,
246 vmlal.u8 q6, d7, d27
264 vmlal.u8 q7, d16, d27
287 vmlal.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1
    [all...]
vpx_convolve8_vert_filter_type2_neon.asm.S 65 vdup.u8 d27, d0[5] @coeffabs_5 = vdup_lane_u8(coeffabs,
105 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1,
132 vmlsl.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2,
153 vmlsl.u8 q6, d7, d27
170 vmlsl.u8 q7, d16, d27
201 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1,
226 vmlsl.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2,
247 vmlsl.u8 q6, d7, d27
265 vmlsl.u8 q7, d16, d27
287 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1
    [all...]
loopfilter_16_neon.asm.S 111 vst1.u8 {d27}, [r8,:64], r1 @ store op2
277 vtrn.32 d16, d27
284 vtrn.16 d27, d19
288 vtrn.8 d26, d27
316 vst1.8 {d27}, [r8,:64], r1
414 vabd.u8 d27, d4, d7 @ abs(p3 - p0)
419 vmax.u8 d26, d27, d28 @ max(abs(p3 - p0), abs(q3 - q0))
447 vabd.u8 d27, d14, d8 @ abs(q6 - q0)
454 vmax.u8 d24, d26, d27 @ max(abs(p6 - p0), abs(q6 - q0))
458 vmax.u8 d27, d24, d2
    [all...]
vpx_convolve8_avg_horiz_filter_type1_neon.asm.S 61 vdup.8 d27, d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs,
117 vmlal.u8 q4, d3, d27 @mul_res = vmull_u8(src[0_3],
139 vmlal.u8 q5, d15, d27 @mul_res = vmull_u8(src[0_3],
213 vmlal.u8 q4, d6, d27 @mul_res = vmull_u8(src[0_3],
236 vmlal.u8 q10, d7, d27
261 vmlal.u8 q5, d6, d27 @mul_res = vmull_u8(src[0_3],
287 vmlal.u8 q11, d7, d27
326 vmlal.u8 q4, d6, d27 @mul_res = vmull_u8(src[0_3],
412 vmlal.u8 q4, d3, d27
vpx_convolve8_avg_horiz_filter_type2_neon.asm.S 61 vdup.8 d27, d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs,
118 vmlal.u8 q4, d3, d27 @mul_res = vmull_u8(src[0_3],
140 vmlal.u8 q5, d15, d27 @mul_res = vmull_u8(src[0_3],
214 vmlal.u8 q4, d6, d27 @mul_res = vmull_u8(src[0_3],
237 vmlal.u8 q10, d7, d27
262 vmlal.u8 q5, d6, d27 @mul_res = vmull_u8(src[0_3],
288 vmlal.u8 q11, d7, d27
327 vmlal.u8 q4, d6, d27 @mul_res = vmull_u8(src[0_3],
413 vmlal.u8 q4, d3, d27
  /external/vixl/test/aarch32/
test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc 115 {{F64, d1, d27, d15}, false, al, "F64 d1 d27 d15", "F64_d1_d27_d15"},
147 {{F64, d10, d26, d27}, false, al, "F64 d10 d26 d27", "F64_d10_d26_d27"},
151 {{F32, d14, d5, d27}, false, al, "F32 d14 d5 d27", "F32_d14_d5_d27"},
169 {{F64, d27, d11, d2}, false, al, "F64 d27 d11 d2", "F64_d27_d11_d2"},
175 {{F32, d27, d19, d10}, false, al, "F32 d27 d19 d10", "F32_d27_d19_d10"}
    [all...]
test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc 115 {{F64, d1, d27, d15}, false, al, "F64 d1 d27 d15", "F64_d1_d27_d15"},
147 {{F64, d10, d26, d27}, false, al, "F64 d10 d26 d27", "F64_d10_d26_d27"},
151 {{F32, d14, d5, d27}, false, al, "F32 d14 d5 d27", "F32_d14_d5_d27"},
169 {{F64, d27, d11, d2}, false, al, "F64 d27 d11 d2", "F64_d27_d11_d2"},
175 {{F32, d27, d19, d10}, false, al, "F32 d27 d19 d10", "F32_d27_d19_d10"}
    [all...]
  /external/libhevc/common/arm/
ihevc_deblk_luma_horz.s 129 vdup.32 d27,r9 @ 1value
209 vaddw.u8 q4,q3,d27
211 vqadd.u8 d16,d27,d1
217 vqsub.u8 d17,d27,d1
289 vaddl.u8 q5,d23,d27
428 @ vdup.32 d27,r11 @ 1value
444 vsubl.u8 q6,d27,d24
527 vmov d18, d27
532 vsubl.u8 q7,d14,d27
538 vmovl.u8 q8,d27
    [all...]
ihevc_intra_pred_filters_luma_mode_19_to_25.s 296 vdup.8 d27,d4[2] @(iii)
311 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
319 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract)
341 vdup.8 d27,d4[6] @(vii)
373 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
379 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract)
435 vdup.8 d27,d4[2] @(iii)
452 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
458 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract)
475 vdup.8 d27,d4[6] @(vii
    [all...]
ihevc_inter_pred_filters_luma_horz.s 149 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)
223 vmlal.u8 q4,d3,d27 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
238 vmull.u8 q5,d15,d27 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
305 vmlal.u8 q4,d6,d27 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
326 vmlal.u8 q10,d7,d27
350 vmlal.u8 q5,d6,d27 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
378 vmlal.u8 q11,d7,d27
405 vmlal.u8 q4,d6,d27 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
518 vmlal.u8 q4,d3,d27
  /external/boringssl/src/crypto/curve25519/asm/
x25519-asm-arm.S 265 vld1.8 {d26-d27},[r6,: 128]!
519 vld1.8 {d26-d27},[r2,: 128]!
549 vmlal.s32 q8,d27,d3
570 vmlal.s32 q7,d27,d2
587 vmlal.s32 q4,d27,d1
593 vmlal.s32 q8,d27,d0
611 vmlal.s32 q7,d27,d20
613 vld1.8 {d26-d27},[r2,: 128]
614 vmlal.s32 q4,d25,d27
615 vmlal.s32 q8,d29,d27
    [all...]
  /external/libmpeg2/common/arm/
icv_variance_a9.s 97 vaddl.u16 q13, d26, d27

Completed in 681 milliseconds

12 3 4 5