HomeSort by relevance Sort by last modified time
    Searched refs:d28 (Results 26 - 50 of 144) sorted by null

12 3 4 5 6

  /external/libhevc/common/arm/
ihevc_inter_pred_luma_vert_w16inp_w16out.s 142 vdup.16 d28,d1[2] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@
174 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
190 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@
203 vmlal.s16 q6,d16,d28
219 vmlal.s16 q7,d17,d28
246 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
263 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@
289 vmlal.s16 q6,d16,d28
311 vmlal.s16 q7,d17,d28
333 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)
    [all...]
ihevc_intra_pred_chroma_dc.s 158 vpaddl.u8 d28, d30
164 vpaddl.u16 d29, d28
170 vpaddl.u8 d28, d26
173 vpaddl.u16 d29, d28
ihevc_intra_pred_chroma_mode2.s 165 vrev64.8 d28,d12
186 vst2.8 {d28,d29},[r9],r5
230 vrev64.8 d28,d12
247 vst2.8 {d28,d29},[r9],r5
ihevc_inter_pred_filters_luma_vert.s 143 vdup.u8 d28,d0[6] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@
176 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
198 vmlal.u8 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@
215 vmlal.u8 q6,d16,d28
232 vmlal.u8 q7,d17,d28
264 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
290 vmlal.u8 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@
316 vmlal.u8 q6,d16,d28
339 vmlal.u8 q7,d17,d28
359 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)
    [all...]
  /external/llvm/test/MC/ARM/
eh-directive-vsave.s 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
  /external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
eh-directive-vsave.s 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
  /external/libvpx/libvpx/vpx_dsp/arm/
vpx_convolve8_avg_vert_filter_type1_neon.asm 60 vdup.u8 d28, d0[6] ;coeffabs_6 = vdup_lane_u8(coeffabs,
100 vmlsl.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1,
128 vmlsl.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2,
148 vmlsl.u8 q6, d16, d28
167 vmlsl.u8 q7, d17, d28
200 vmlsl.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1,
228 vmlsl.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2,
251 vmlsl.u8 q6, d16, d28
271 vmlsl.u8 q7, d17, d28
296 vmlsl.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1
    [all...]
vpx_convolve8_avg_vert_filter_type2_neon.asm 60 vdup.u8 d28, d0[6] ;coeffabs_6 = vdup_lane_u8(coeffabs,
101 vmlal.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1,
129 vmlal.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2,
149 vmlal.u8 q6, d16, d28
168 vmlal.u8 q7, d17, d28
201 vmlal.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1,
229 vmlal.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2,
252 vmlal.u8 q6, d16, d28
271 vmlal.u8 q7, d17, d28
296 vmlal.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1
    [all...]
vpx_convolve8_vert_filter_type1_neon.asm 60 vdup.u8 d28, d0[6] ;coeffabs_6 = vdup_lane_u8(coeffabs,
101 vmlsl.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1,
128 vmlsl.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2,
146 vmlsl.u8 q6, d16, d28
164 vmlsl.u8 q7, d17, d28
195 vmlsl.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1,
221 vmlsl.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2,
241 vmlsl.u8 q6, d16, d28
259 vmlsl.u8 q7, d17, d28
282 vmlsl.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1
    [all...]
vpx_convolve8_vert_filter_type2_neon.asm 60 vdup.u8 d28, d0[6] ;coeffabs_6 = vdup_lane_u8(coeffabs,
101 vmlal.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1,
128 vmlal.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2,
147 vmlal.u8 q6, d16, d28
165 vmlal.u8 q7, d17, d28
196 vmlal.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1,
222 vmlal.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2,
242 vmlal.u8 q6, d16, d28
260 vmlal.u8 q7, d17, d28
282 vmlal.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1
    [all...]
vpx_convolve8_avg_horiz_filter_type1_neon.asm 57 vdup.8 d28, d2[4] ;coeffabs_4 = vdup_lane_u8(coeffabs,
119 vmlal.u8 q4, d4, d28 ;mul_res = vmlal_u8(src[0_4],
139 vmlal.u8 q5, d16, d28 ;mul_res = vmlal_u8(src[0_4],
209 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4],
232 vmlal.u8 q10, d13, d28
258 vmlal.u8 q5, d12, d28 ;mul_res = vmlal_u8(src[0_4],
281 vmlal.u8 q11, d13, d28
322 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4],
406 vmlal.u8 q4, d4, d28
vpx_convolve8_avg_horiz_filter_type2_neon.asm 57 vdup.8 d28, d2[4] ;coeffabs_4 = vdup_lane_u8(coeffabs,
120 vmlal.u8 q4, d4, d28 ;mul_res = vmlal_u8(src[0_4],
140 vmlal.u8 q5, d16, d28 ;mul_res = vmlal_u8(src[0_4],
210 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4],
233 vmlal.u8 q10, d13, d28
259 vmlal.u8 q5, d12, d28 ;mul_res = vmlal_u8(src[0_4],
282 vmlal.u8 q11, d13, d28
323 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4],
407 vmlal.u8 q4, d4, d28
vpx_convolve8_horiz_filter_type1_neon.asm 56 vdup.8 d28, d2[4] ;coeffabs_4 = vdup_lane_u8(coeffabs,
119 vmlal.u8 q4, d4, d28 ;mul_res = vmlal_u8(src[0_4],
139 vmlal.u8 q5, d16, d28 ;mul_res = vmlal_u8(src[0_4],
205 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4],
228 vmlal.u8 q10, d13, d28
251 vmlal.u8 q5, d12, d28 ;mul_res = vmlal_u8(src[0_4],
275 vmlal.u8 q11, d13, d28
307 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4],
386 vmlal.u8 q4, d4, d28
vpx_convolve8_horiz_filter_type2_neon.asm 57 vdup.8 d28, d2[4] ;coeffabs_4 = vdup_lane_u8(coeffabs,
119 vmlal.u8 q4, d4, d28 ;mul_res = vmlal_u8(src[0_4],
139 vmlal.u8 q5, d16, d28 ;mul_res = vmlal_u8(src[0_4],
205 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4],
228 vmlal.u8 q10, d13, d28
251 vmlal.u8 q5, d12, d28 ;mul_res = vmlal_u8(src[0_4],
275 vmlal.u8 q11, d13, d28
307 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4],
386 vmlal.u8 q4, d4, d28
  /external/libvpx/config/arm-neon/vpx_dsp/arm/
vpx_convolve8_avg_vert_filter_type1_neon.asm.S 67 vdup.u8 d28, d0[6] @coeffabs_6 = vdup_lane_u8(coeffabs,
107 vmlsl.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1,
135 vmlsl.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2,
155 vmlsl.u8 q6, d16, d28
174 vmlsl.u8 q7, d17, d28
207 vmlsl.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1,
235 vmlsl.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2,
258 vmlsl.u8 q6, d16, d28
278 vmlsl.u8 q7, d17, d28
303 vmlsl.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1
    [all...]
vpx_convolve8_avg_vert_filter_type2_neon.asm.S 67 vdup.u8 d28, d0[6] @coeffabs_6 = vdup_lane_u8(coeffabs,
108 vmlal.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1,
136 vmlal.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2,
156 vmlal.u8 q6, d16, d28
175 vmlal.u8 q7, d17, d28
208 vmlal.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1,
236 vmlal.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2,
259 vmlal.u8 q6, d16, d28
278 vmlal.u8 q7, d17, d28
303 vmlal.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1
    [all...]
vpx_convolve8_vert_filter_type1_neon.asm.S 67 vdup.u8 d28, d0[6] @coeffabs_6 = vdup_lane_u8(coeffabs,
108 vmlsl.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1,
135 vmlsl.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2,
153 vmlsl.u8 q6, d16, d28
171 vmlsl.u8 q7, d17, d28
202 vmlsl.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1,
228 vmlsl.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2,
248 vmlsl.u8 q6, d16, d28
266 vmlsl.u8 q7, d17, d28
289 vmlsl.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1
    [all...]
vpx_convolve8_vert_filter_type2_neon.asm.S 67 vdup.u8 d28, d0[6] @coeffabs_6 = vdup_lane_u8(coeffabs,
108 vmlal.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1,
135 vmlal.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2,
154 vmlal.u8 q6, d16, d28
172 vmlal.u8 q7, d17, d28
203 vmlal.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1,
229 vmlal.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2,
249 vmlal.u8 q6, d16, d28
267 vmlal.u8 q7, d17, d28
289 vmlal.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1
    [all...]
  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s 254 vmlsl.s16 q9, d28, d24
287 vmlsl.s16 q9, d28, d24
289 vqrshrun.s16 d28, q4, #5
308 vrhadd.u8 d28, d28, d18
314 vst1.32 d28, [r1], r3 @ store row 1
344 vaddl.s16 q9, d12, d28
484 vmlsl.s16 q9, d28, d24
516 vmlsl.s16 q9, d28, d24
518 vqrshrun.s16 d28, q4, #
    [all...]
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s 194 vmlal.s16 q13, d0, d28
198 vmlal.s16 q11, d1, d28
216 vmlal.s16 q13, d18, d28
220 vmlal.s16 q11, d19, d28
271 vmlal.s16 q13, d2, d28
275 vmlal.s16 q11, d3, d28
293 vmlal.s16 q13, d18, d28
297 vmlal.s16 q11, d19, d28
375 vaddl.s16 q15, d28, d22
465 vaddl.s16 q15, d28, d2
    [all...]
  /external/vixl/test/aarch32/
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc 392 {{F64, d31, d28, d30},
393 "F64 d31 d28 d30",
432 {{F64, d28, d10, d8},
433 "F64 d28 d10 d8",
437 {{F64, d8, d28, d11},
438 "F64 d8 d28 d11",
477 {{F64, d28, d17, d14},
478 "F64 d28 d17 d14",
507 {{F64, d6, d28, d7},
508 "F64 d6 d28 d7"
    [all...]
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc 392 {{F64, d31, d28, d30},
393 "F64 d31 d28 d30",
432 {{F64, d28, d10, d8},
433 "F64 d28 d10 d8",
437 {{F64, d8, d28, d11},
438 "F64 d8 d28 d11",
477 {{F64, d28, d17, d14},
478 "F64 d28 d17 d14",
507 {{F64, d6, d28, d7},
508 "F64 d6 d28 d7"
    [all...]
  /external/boringssl/ios-arm/crypto/fipsmodule/
ghash-armv4.S 418 veor d28,d26,d27 @ Karatsuba pre-processing
439 veor d28,d26,d27 @ Karatsuba pre-processing
487 vext.8 d16, d28, d28, #1 @ A1
490 vmull.p8 q1, d28, d2 @ E = A*B1
491 vext.8 d18, d28, d28, #2 @ A2
494 vmull.p8 q11, d28, d22 @ G = A*B2
495 vext.8 d20, d28, d28, #3 @ A
    [all...]
  /external/boringssl/linux-arm/crypto/fipsmodule/
ghash-armv4.S 409 veor d28,d26,d27 @ Karatsuba pre-processing
428 veor d28,d26,d27 @ Karatsuba pre-processing
476 vext.8 d16, d28, d28, #1 @ A1
479 vmull.p8 q1, d28, d2 @ E = A*B1
480 vext.8 d18, d28, d28, #2 @ A2
483 vmull.p8 q11, d28, d22 @ G = A*B2
484 vext.8 d20, d28, d28, #3 @ A
    [all...]
  /external/boringssl/src/crypto/curve25519/asm/
x25519-asm-arm.S 267 vld1.8 {d28-d29},[r7,: 128]!
521 vld1.8 {d28-d29},[r2,: 128]!
551 vmlal.s32 q8,d28,d2
572 vmlal.s32 q7,d28,d1
589 vmlal.s32 q4,d28,d0
601 vmlal.s32 q8,d28,d20
617 vmlal.s32 q7,d28,d27
620 vld1.8 {d28-d29},[r2,: 128]
623 vmlal.s32 q8,d24,d28
625 vmlal.s32 q7,d23,d28
    [all...]

Completed in 1433 milliseconds

12 3 4 5 6