HomeSort by relevance Sort by last modified time
    Searched refs:d26 (Results 26 - 50 of 145) sorted by null

12 3 4 5 6

  /external/vixl/test/aarch32/
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc 447 {{F64, d27, d26, d30},
448 "F64 d27 d26 d30",
592 {{F64, d17, d26, d0},
593 "F64 d17 d26 d0",
    [all...]
  /external/llvm/test/MC/ARM/
neont2-pairwise-encoding.s 72 vpmin.u8 d19, d26, d13
80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a]
92 vpmax.f32 d9, d26, d11
100 @ CHECK: vpmax.f32 d9, d26, d11 @ encoding: [0x0a,0xff,0x8b,0x9f]
eh-directive-vsave.s 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
neon-shiftaccum-encoding.s 72 vrsra.s8 d5, d26, #8
90 vrsra.s8 d26, #8
107 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x3a,0x53,0x88,0xf2]
124 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0x3a,0xa3,0xc8,0xf2]
151 vsri.16 d26, d12, #16
186 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0x1c,0xa4,0xd0,0xf3]
neont2-shiftaccum-encoding.s 75 vrsra.s8 d5, d26, #8
93 vrsra.s8 d26, #8
110 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x88,0xef,0x3a,0x53]
127 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0xc8,0xef,0x3a,0xa3]
154 vsri.16 d26, d12, #16
189 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0xd0,0xff,0x1c,0xa4]
  /external/swiftshader/third_party/LLVM/test/MC/ARM/
neont2-pairwise-encoding.s 72 vpmin.u8 d19, d26, d13
80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a]
92 vpmax.f32 d9, d26, d11
100 @ CHECK: vpmax.f32 d9, d26, d11 @ encoding: [0x0a,0xff,0x8b,0x9f]
  /external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
neont2-pairwise-encoding.s 72 vpmin.u8 d19, d26, d13
80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a]
92 vpmax.f32 d9, d26, d11
100 @ CHECK: vpmax.f32 d9, d26, d11 @ encoding: [0x0a,0xff,0x8b,0x9f]
eh-directive-vsave.s 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
neon-shiftaccum-encoding.s 72 vrsra.s8 d5, d26, #8
90 vrsra.s8 d26, #8
107 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x3a,0x53,0x88,0xf2]
124 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0x3a,0xa3,0xc8,0xf2]
151 vsri.16 d26, d12, #16
186 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0x1c,0xa4,0xd0,0xf3]
neont2-shiftaccum-encoding.s 75 vrsra.s8 d5, d26, #8
93 vrsra.s8 d26, #8
110 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x88,0xef,0x3a,0x53]
127 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0xc8,0xef,0x3a,0xa3]
154 vsri.16 d26, d12, #16
189 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0xd0,0xff,0x1c,0xa4]
  /external/libhevc/common/arm/
ihevc_intra_pred_chroma_mode2.s 160 vrev64.8 d26,d10
185 vst2.8 {d26,d27},[r7],r5
226 vrev64.8 d26,d10
246 vst2.8 {d26,d27},[r7],r5
ihevc_inter_pred_filters_luma_vert.s 141 vdup.u8 d26,d0[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@
172 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
193 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
213 vmlal.u8 q6,d6,d26
228 vmlal.u8 q7,d7,d26
259 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
284 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@
309 vmlal.u8 q6,d6,d26
335 vmlal.u8 q7,d7,d26
357 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)
    [all...]
ihevc_intra_pred_chroma_horz.s 208 @vmovl.u8 q13,d26
285 vdup.16 d26,d0[3]
289 vmovl.u8 q13,d26
329 vdup.8 d26,d0[3]
330 vmovl.u8 q13,d26
  /external/libvpx/libvpx/vpx_dsp/arm/
vpx_convolve8_avg_vert_filter_type1_neon.asm 56 vdup.u8 d26, d0[4] ;coeffabs_4 = vdup_lane_u8(coeffabs,
94 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1,
122 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2,
145 vmlal.u8 q6, d6, d26
163 vmlal.u8 q7, d7, d26
195 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1,
222 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2,
245 vmlal.u8 q6, d6, d26
267 vmlal.u8 q7, d7, d26
292 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1
    [all...]
vpx_convolve8_avg_vert_filter_type2_neon.asm 56 vdup.u8 d26, d0[4] ;coeffabs_4 = vdup_lane_u8(coeffabs,
95 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1,
123 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2,
146 vmlal.u8 q6, d6, d26
164 vmlal.u8 q7, d7, d26
196 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1,
223 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2,
246 vmlal.u8 q6, d6, d26
267 vmlal.u8 q7, d7, d26
292 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1
    [all...]
vpx_convolve8_vert_filter_type1_neon.asm 56 vdup.u8 d26, d0[4] ;coeffabs_4 = vdup_lane_u8(coeffabs,
95 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1,
122 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2,
144 vmlal.u8 q6, d6, d26
160 vmlal.u8 q7, d7, d26
190 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1,
215 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2,
236 vmlal.u8 q6, d6, d26
255 vmlal.u8 q7, d7, d26
278 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1
    [all...]
vpx_convolve8_vert_filter_type2_neon.asm 56 vdup.u8 d26, d0[4] ;coeffabs_4 = vdup_lane_u8(coeffabs,
95 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1,
122 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2,
145 vmlal.u8 q6, d6, d26
161 vmlal.u8 q7, d7, d26
191 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1,
216 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2,
237 vmlal.u8 q6, d6, d26
256 vmlal.u8 q7, d7, d26
278 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1
    [all...]
vpx_convolve8_avg_horiz_filter_type1_neon.asm 51 vdup.8 d26, d2[2] ;coeffabs_2 = vdup_lane_u8(coeffabs,
116 vmlal.u8 q4, d2, d26 ;mul_res = vmlsl_u8(src[0_2],
135 vmlal.u8 q5, d14, d26 ;mul_res = vmlsl_u8(src[0_2],
203 vmlal.u8 q4, d4, d26 ;mul_res = vmlsl_u8(src[0_2],
225 vmlal.u8 q10, d5, d26
251 vmlal.u8 q5, d4, d26 ;mul_res = vmlsl_u8(src[0_2],
274 vmlal.u8 q11, d5, d26
312 vmlal.u8 q4, d4, d26 ;mul_res = vmlsl_u8(src[0_2],
404 vmlal.u8 q4, d2, d26
vpx_convolve8_avg_horiz_filter_type2_neon.asm 51 vdup.8 d26, d2[2] ;coeffabs_2 = vdup_lane_u8(coeffabs,
117 vmlsl.u8 q4, d2, d26 ;mul_res = vmlsl_u8(src[0_2],
136 vmlsl.u8 q5, d14, d26 ;mul_res = vmlsl_u8(src[0_2],
204 vmlsl.u8 q4, d4, d26 ;mul_res = vmlsl_u8(src[0_2],
226 vmlsl.u8 q10, d5, d26
252 vmlsl.u8 q5, d4, d26 ;mul_res = vmlsl_u8(src[0_2],
275 vmlsl.u8 q11, d5, d26
313 vmlsl.u8 q4, d4, d26 ;mul_res = vmlsl_u8(src[0_2],
405 vmlsl.u8 q4, d2, d26
vpx_convolve8_horiz_filter_type1_neon.asm 50 vdup.8 d26, d2[2] ;coeffabs_2 = vdup_lane_u8(coeffabs,
116 vmlal.u8 q4, d2, d26 ;mul_res = vmlsl_u8(src[0_2],
135 vmlal.u8 q5, d14, d26 ;mul_res = vmlsl_u8(src[0_2],
199 vmlal.u8 q4, d4, d26 ;mul_res = vmlsl_u8(src[0_2],
221 vmlal.u8 q10, d5, d26
245 vmlal.u8 q5, d4, d26 ;mul_res = vmlsl_u8(src[0_2],
266 vmlal.u8 q11, d5, d26
300 vmlal.u8 q4, d4, d26 ;mul_res = vmlsl_u8(src[0_2],
384 vmlal.u8 q4, d2, d26
vpx_convolve8_horiz_filter_type2_neon.asm 51 vdup.8 d26, d2[2] ;coeffabs_2 = vdup_lane_u8(coeffabs,
116 vmlsl.u8 q4, d2, d26 ;mul_res = vmlsl_u8(src[0_2],
135 vmlsl.u8 q5, d14, d26 ;mul_res = vmlsl_u8(src[0_2],
199 vmlsl.u8 q4, d4, d26 ;mul_res = vmlsl_u8(src[0_2],
221 vmlsl.u8 q10, d5, d26
245 vmlsl.u8 q5, d4, d26 ;mul_res = vmlsl_u8(src[0_2],
266 vmlsl.u8 q11, d5, d26
300 vmlsl.u8 q4, d4, d26 ;mul_res = vmlsl_u8(src[0_2],
384 vmlsl.u8 q4, d2, d26
  /external/libvpx/config/arm-neon/vpx_dsp/arm/
vpx_convolve8_avg_vert_filter_type1_neon.asm.S 63 vdup.u8 d26, d0[4] @coeffabs_4 = vdup_lane_u8(coeffabs,
101 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1,
129 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2,
152 vmlal.u8 q6, d6, d26
170 vmlal.u8 q7, d7, d26
202 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1,
229 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2,
252 vmlal.u8 q6, d6, d26
274 vmlal.u8 q7, d7, d26
299 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1
    [all...]
vpx_convolve8_avg_vert_filter_type2_neon.asm.S 63 vdup.u8 d26, d0[4] @coeffabs_4 = vdup_lane_u8(coeffabs,
102 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1,
130 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2,
153 vmlal.u8 q6, d6, d26
171 vmlal.u8 q7, d7, d26
203 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1,
230 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2,
253 vmlal.u8 q6, d6, d26
274 vmlal.u8 q7, d7, d26
299 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1
    [all...]
vpx_convolve8_vert_filter_type1_neon.asm.S 63 vdup.u8 d26, d0[4] @coeffabs_4 = vdup_lane_u8(coeffabs,
102 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1,
129 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2,
151 vmlal.u8 q6, d6, d26
167 vmlal.u8 q7, d7, d26
197 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1,
222 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2,
243 vmlal.u8 q6, d6, d26
262 vmlal.u8 q7, d7, d26
285 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1
    [all...]
vpx_convolve8_vert_filter_type2_neon.asm.S 63 vdup.u8 d26, d0[4] @coeffabs_4 = vdup_lane_u8(coeffabs,
102 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1,
129 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2,
152 vmlal.u8 q6, d6, d26
168 vmlal.u8 q7, d7, d26
198 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1,
223 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2,
244 vmlal.u8 q6, d6, d26
263 vmlal.u8 q7, d7, d26
285 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1
    [all...]

Completed in 953 milliseconds

12 3 4 5 6