HomeSort by relevance Sort by last modified time
    Searched refs:d24 (Results 26 - 50 of 148) sorted by null

12 3 4 5 6

  /external/vixl/test/aarch32/
test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc 123 {{F64, d24, d16, d28}, false, al, "F64 d24 d16 d28", "F64_d24_d16_d28"},
135 {{F64, d10, d22, d24}, false, al, "F64 d10 d22 d24", "F64_d10_d22_d24"},
138 {{F32, d5, d26, d24}, false, al, "F32 d5 d26 d24", "F32_d5_d26_d24"},
148 {{F32, d4, d24, d28}, false, al, "F32 d4 d24 d28", "F32_d4_d24_d28"},
179 {{F64, d25, d23, d24}, false, al, "F64 d25 d23 d24", "F64_d25_d23_d24"}
    [all...]
test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc 129 {{F32, d24, d18, d8}, false, al, "F32 d24 d18 d8", "F32_d24_d18_d8"},
133 {{F32, d14, d24, d11}, false, al, "F32 d14 d24 d11", "F32_d14_d24_d11"},
148 {{F32, d29, d30, d24}, false, al, "F32 d29 d30 d24", "F32_d29_d30_d24"},
151 {{F32, d6, d24, d17}, false, al, "F32 d6 d24 d17", "F32_d6_d24_d17"},
183 {{F32, d20, d24, d4}, false, al, "F32 d20 d24 d4", "F32_d20_d24_d4"}
    [all...]
test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc 129 {{F32, d24, d18, d8}, false, al, "F32 d24 d18 d8", "F32_d24_d18_d8"},
133 {{F32, d14, d24, d11}, false, al, "F32 d14 d24 d11", "F32_d14_d24_d11"},
148 {{F32, d29, d30, d24}, false, al, "F32 d29 d30 d24", "F32_d29_d30_d24"},
151 {{F32, d6, d24, d17}, false, al, "F32 d6 d24 d17", "F32_d6_d24_d17"},
183 {{F32, d20, d24, d4}, false, al, "F32 d20 d24 d4", "F32_d20_d24_d4"}
    [all...]
  /external/libhevc/common/arm/
ihevc_inter_pred_filters_luma_vert_w16inp.s 130 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
157 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
173 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
189 vmlal.s16 q6,d4,d24
201 vmlal.s16 q7,d5,d24
229 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
243 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
263 vmlal.s16 q6,d4,d24
286 vmlal.s16 q7,d5,d24
312 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)
    [all...]
ihevc_inter_pred_luma_vert_w16inp_w16out.s 138 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
167 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
183 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
199 vmlal.s16 q6,d4,d24
212 vmlal.s16 q7,d5,d24
242 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
257 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
278 vmlal.s16 q6,d4,d24
302 vmlal.s16 q7,d5,d24
329 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)
    [all...]
ihevc_intra_pred_chroma_mode2.s 157 vrev64.8 d24,d8
183 vst2.8 {d24,d25},[r6],r5
222 vrev64.8 d24,d8
245 vst2.8 {d24,d25},[r6],r5
ihevc_inter_pred_filters_luma_vert.s 139 vdup.u8 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
168 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@
188 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@
211 vmlsl.u8 q6,d4,d24
225 vmlsl.u8 q7,d5,d24
253 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@
278 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@
304 vmlsl.u8 q6,d4,d24
331 vmlsl.u8 q7,d5,d24
355 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)
    [all...]
ihevc_intra_pred_filters_luma_mode_11_to_17.s 330 vrshrn.i16 d24, q12, #5 @round shft (row 0)
340 vst1.8 d24, [r2], r3 @st (row 0)
374 vrshrn.i16 d24, q12, #5 @round shft (row 4)
384 vst1.8 d24, [r2], r3 @st (row 4)
452 vst1.8 d24, [r5], r3 @st (row 4)
453 vrshrn.i16 d24, q11, #5 @round shft (row 5)
473 vst1.8 d24, [r5], r3 @(from previous loop)st (row 5)
499 vrshrn.i16 d24, q12, #5 @round shft (row 0)
515 vst1.8 d24, [r2], r3 @st (row 0)
558 vrshrn.i16 d24, q12, #5 @round shft (row 4
    [all...]
ihevc_deblk_luma_horz.s 120 vdup.32 d24,r10 @ -2 value
215 vaddl.u8 q5,d24,d28
275 vaddl.u8 q3,d25,d24
287 vqadd.u8 d16,d24,d1
291 vqsub.u8 d17,d24,d1
422 @ vdup.32 d24,r11 @ -2 value
444 vsubl.u8 q6,d27,d24
487 vmov d18,d24
500 vsubl.u8 q7,d14,d24
507 vmovl.u8 q8,d24
    [all...]
ihevc_intra_pred_chroma_mode_3_to_9.s 218 vrshrn.i16 d24, q12, #5 @round shft (row 0)
228 vst1.8 d24, [r2], r3 @st (row 0)
264 vrshrn.i16 d24, q12, #5 @round shft (row 4)
274 vst1.8 d24, [r2], r3 @st (row 4)
351 vst1.8 d24, [r5], r3 @st (row 4)
398 vrshrn.i16 d24, q12, #5 @round shft (row 0)
413 vst1.8 d24, [r2], r3 @st (row 0)
457 vrshrn.i16 d24, q12, #5 @round shft (row 4)
478 vst1.8 d24, [r5], r3 @st (row 4)
479 vrshrn.i16 d24, q11, #5 @round shft (row 5
    [all...]
  /external/llvm/test/MC/ARM/
neont2-pairwise-encoding.s 74 vpmin.u32 d21, d24, d15
82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a]
90 vpmax.u16 d7, d24, d13
98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]
eh-directive-vsave.s 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
  /external/swiftshader/third_party/LLVM/test/MC/ARM/
neont2-pairwise-encoding.s 74 vpmin.u32 d21, d24, d15
82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a]
90 vpmax.u16 d7, d24, d13
98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]
  /external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
neont2-pairwise-encoding.s 74 vpmin.u32 d21, d24, d15
82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a]
90 vpmax.u16 d7, d24, d13
98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]
eh-directive-vsave.s 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s 254 vmlsl.s16 q9, d28, d24
256 vmlsl.s16 q3, d29, d24
287 vmlsl.s16 q9, d28, d24
292 vmlsl.s16 q3, d29, d24
326 vmlsl.s16 q9, d26, d24
331 vmlsl.s16 q3, d27, d24
350 vmlsl.s16 q9, d10, d24
352 vmlsl.s16 q3, d11, d24
484 vmlsl.s16 q9, d28, d24
486 vmlsl.s16 q3, d29, d24
    [all...]
ih264_resi_trans_quant_a9.s 130 vld1.u8 d24, [r0], r3 @load first 8 pix src row 4
136 vsubl.u8 q3, d24, d25 @find residue row 4
174 vadd.s16 d24, d18, d19 @x5 = x0 + x1;
180 vst1.s16 d24[0], [r10] @Store the dc value to alternate dc sddress
230 vpadd.u8 d24, d22, d23 @I Pair add nnz4
234 vsub.u8 d26, d25, d24 @I invert current nnz
327 vld2.u8 {d23, d24}, [r1], r4 @load first 8 pix pred row 4
369 vadd.s16 d24, d18, d19 @x5 = x0 + x1;
375 vst1.s16 d24[0], [r10] @Store Unquantized dc value to dc alte address
424 vpadd.u8 d24, d22, d23 @I Pair add nnz
    [all...]
  /external/libvpx/libvpx/vpx_dsp/arm/
vpx_convolve8_avg_vert_filter_type1_neon.asm 52 vdup.u8 d24, d0[2] ;coeffabs_2 = vdup_lane_u8(coeffabs,
88 vmlal.u8 q4, d2, d24 ;mul_res1 = vmlsl_u8(mul_res1,
113 vmlal.u8 q5, d3, d24 ;mul_res2 = vmlsl_u8(mul_res2,
141 vmlal.u8 q6, d4, d24
157 vmlal.u8 q7, d5, d24
186 vmlal.u8 q4, d2, d24 ;mul_res1 = vmlsl_u8(mul_res1,
214 vmlal.u8 q5, d3, d24 ;mul_res2 = vmlsl_u8(mul_res2,
240 vmlal.u8 q6, d4, d24
262 vmlal.u8 q7, d5, d24
285 vmlal.u8 q4, d2, d24 ;mul_res1 = vmlsl_u8(mul_res1
    [all...]
vpx_convolve8_avg_vert_filter_type2_neon.asm 52 vdup.u8 d24, d0[2] ;coeffabs_2 = vdup_lane_u8(coeffabs,
89 vmlsl.u8 q4, d2, d24 ;mul_res1 = vmlsl_u8(mul_res1,
114 vmlsl.u8 q5, d3, d24 ;mul_res2 = vmlsl_u8(mul_res2,
142 vmlsl.u8 q6, d4, d24
158 vmlsl.u8 q7, d5, d24
187 vmlsl.u8 q4, d2, d24 ;mul_res1 = vmlsl_u8(mul_res1,
215 vmlsl.u8 q5, d3, d24 ;mul_res2 = vmlsl_u8(mul_res2,
241 vmlsl.u8 q6, d4, d24
262 vmlsl.u8 q7, d5, d24
285 vmlsl.u8 q4, d2, d24 ;mul_res1 = vmlsl_u8(mul_res1
    [all...]
vpx_convolve8_vert_filter_type1_neon.asm 52 vdup.u8 d24, d0[2] ;coeffabs_2 = vdup_lane_u8(coeffabs,
89 vmlal.u8 q4, d2, d24 ;mul_res1 = vmlsl_u8(mul_res1,
114 vmlal.u8 q5, d3, d24 ;mul_res2 = vmlsl_u8(mul_res2,
140 vmlal.u8 q6, d4, d24
155 vmlal.u8 q7, d5, d24
182 vmlal.u8 q4, d2, d24 ;mul_res1 = vmlsl_u8(mul_res1,
207 vmlal.u8 q5, d3, d24 ;mul_res2 = vmlsl_u8(mul_res2,
231 vmlal.u8 q6, d4, d24
250 vmlal.u8 q7, d5, d24
272 vmlal.u8 q4, d2, d24 ;mul_res1 = vmlsl_u8(mul_res1
    [all...]
vpx_convolve8_vert_filter_type2_neon.asm 52 vdup.u8 d24, d0[2] ;coeffabs_2 = vdup_lane_u8(coeffabs,
89 vmlsl.u8 q4, d2, d24 ;mul_res1 = vmlsl_u8(mul_res1,
114 vmlsl.u8 q5, d3, d24 ;mul_res2 = vmlsl_u8(mul_res2,
141 vmlsl.u8 q6, d4, d24
156 vmlsl.u8 q7, d5, d24
183 vmlsl.u8 q4, d2, d24 ;mul_res1 = vmlsl_u8(mul_res1,
208 vmlsl.u8 q5, d3, d24 ;mul_res2 = vmlsl_u8(mul_res2,
232 vmlsl.u8 q6, d4, d24
251 vmlsl.u8 q7, d5, d24
272 vmlsl.u8 q4, d2, d24 ;mul_res1 = vmlsl_u8(mul_res1
    [all...]
  /external/libvpx/config/arm-neon/vpx_dsp/arm/
vpx_convolve8_avg_vert_filter_type1_neon.asm.S 59 vdup.u8 d24, d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs,
95 vmlal.u8 q4, d2, d24 @mul_res1 = vmlsl_u8(mul_res1,
120 vmlal.u8 q5, d3, d24 @mul_res2 = vmlsl_u8(mul_res2,
148 vmlal.u8 q6, d4, d24
164 vmlal.u8 q7, d5, d24
193 vmlal.u8 q4, d2, d24 @mul_res1 = vmlsl_u8(mul_res1,
221 vmlal.u8 q5, d3, d24 @mul_res2 = vmlsl_u8(mul_res2,
247 vmlal.u8 q6, d4, d24
269 vmlal.u8 q7, d5, d24
292 vmlal.u8 q4, d2, d24 @mul_res1 = vmlsl_u8(mul_res1
    [all...]
vpx_convolve8_avg_vert_filter_type2_neon.asm.S 59 vdup.u8 d24, d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs,
96 vmlsl.u8 q4, d2, d24 @mul_res1 = vmlsl_u8(mul_res1,
121 vmlsl.u8 q5, d3, d24 @mul_res2 = vmlsl_u8(mul_res2,
149 vmlsl.u8 q6, d4, d24
165 vmlsl.u8 q7, d5, d24
194 vmlsl.u8 q4, d2, d24 @mul_res1 = vmlsl_u8(mul_res1,
222 vmlsl.u8 q5, d3, d24 @mul_res2 = vmlsl_u8(mul_res2,
248 vmlsl.u8 q6, d4, d24
269 vmlsl.u8 q7, d5, d24
292 vmlsl.u8 q4, d2, d24 @mul_res1 = vmlsl_u8(mul_res1
    [all...]
vpx_convolve8_vert_filter_type1_neon.asm.S 59 vdup.u8 d24, d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs,
96 vmlal.u8 q4, d2, d24 @mul_res1 = vmlsl_u8(mul_res1,
121 vmlal.u8 q5, d3, d24 @mul_res2 = vmlsl_u8(mul_res2,
147 vmlal.u8 q6, d4, d24
162 vmlal.u8 q7, d5, d24
189 vmlal.u8 q4, d2, d24 @mul_res1 = vmlsl_u8(mul_res1,
214 vmlal.u8 q5, d3, d24 @mul_res2 = vmlsl_u8(mul_res2,
238 vmlal.u8 q6, d4, d24
257 vmlal.u8 q7, d5, d24
279 vmlal.u8 q4, d2, d24 @mul_res1 = vmlsl_u8(mul_res1
    [all...]
vpx_convolve8_vert_filter_type2_neon.asm.S 59 vdup.u8 d24, d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs,
96 vmlsl.u8 q4, d2, d24 @mul_res1 = vmlsl_u8(mul_res1,
121 vmlsl.u8 q5, d3, d24 @mul_res2 = vmlsl_u8(mul_res2,
148 vmlsl.u8 q6, d4, d24
163 vmlsl.u8 q7, d5, d24
190 vmlsl.u8 q4, d2, d24 @mul_res1 = vmlsl_u8(mul_res1,
215 vmlsl.u8 q5, d3, d24 @mul_res2 = vmlsl_u8(mul_res2,
239 vmlsl.u8 q6, d4, d24
258 vmlsl.u8 q7, d5, d24
279 vmlsl.u8 q4, d2, d24 @mul_res1 = vmlsl_u8(mul_res1
    [all...]

Completed in 751 milliseconds

12 3 4 5 6