HomeSort by relevance Sort by last modified time
    Searched refs:d14 (Results 1 - 25 of 175) sorted by null

1 2 3 4 5 6 7

  /external/llvm/test/MC/AArch64/
neon-scalar-cvt.s 20 ucvtf d21, d14
23 // CHECK: ucvtf d21, d14 // encoding: [0xd5,0xd9,0x61,0x7e]
40 ucvtf d21, d14, #64
43 // CHECK: ucvtf d21, d14, #64 // encoding: [0xd5,0xe5,0x40,0x7f]
80 fcvtas d21, d14
83 // CHECK: fcvtas d21, d14 // encoding: [0xd5,0xc9,0x61,0x5e]
91 fcvtau d21, d14
94 // CHECK: fcvtau d21, d14 // encoding: [0xd5,0xc9,0x61,0x7e]
102 fcvtms d21, d14
105 // CHECK: fcvtms d21, d14 // encoding: [0xd5,0xb9,0x61,0x5e
    [all...]
neon-scalar-extract-narrow.s 23 sqxtn s19, d14
27 // CHECK: sqxtn s19, d14 // encoding: [0xd3,0x49,0xa1,0x5e]
36 uqxtn s19, d14
40 // CHECK: uqxtn s19, d14 // encoding: [0xd3,0x49,0xa1,0x7e]
  /external/libhevc/common/arm64/
ihevc_neon_macros.s 42 stp d14,d15,[sp,#-16]!
45 ldp d14,d15,[sp],#16
  /external/libhevc/common/arm/
ihevc_itrans_recon_32x32.s 241 vld1.16 d14,[r0],r6
251 vmlal.s16 q12,d14,d1[1]
252 vmlal.s16 q13,d14,d3[3]
253 vmlal.s16 q14,d14,d6[1]
254 vmlsl.s16 q15,d14,d7[1]
313 vld1.16 d14,[r0],r6
325 vmlal.s16 q12,d14,d3[1]
326 vmlsl.s16 q13,d14,d6[1]
327 vmlsl.s16 q14,d14,d0[1]
328 vmlsl.s16 q15,d14,d6[3
    [all...]
ihevc_itrans_recon_4x4_ttype1.s 162 vqrshrn.s32 d14,q3,#shift_stage1_idct @ (pi2_out[0] + rounding ) >> shift_stage1_idct
168 vtrn.16 d14,d15
170 vtrn.32 d14,d16
172 @ output in d14,d15,d16,d17
177 @ d14 - d0
183 vmlal.s16 q3,d14,d4[0] @74 * pi2_src[1] + 29 * pi2_src[0]
188 vmlal.s16 q4,d14,d4[1] @74 * pi2_src[1] + 55 * pi2_src[0]
192 vmull.s16 q5,d14,d4[2] @ 74 * pi2_src[0]
200 vmlal.s16 q6,d14,d4[3] @pi2_out[3] = 84 * pi2_src[0] - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3]
ihevc_itrans_recon_8x8.s 138 @// row 5 first half - d14 - y5
205 vld1.16 d14,[r0]!
226 @// vld1.16 d14,[r0]!
234 vmlal.s16 q12,d14,d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0)
235 vmlsl.s16 q13,d14,d0[1] @// y1 * cos3 - y3 * sin1 - y5 * cos1(part of b1)
236 vmlal.s16 q14,d14,d1[3] @// y1 * sin3 - y3 * cos1 + y5 * sin1(part of b2)
237 vmlal.s16 q15,d14,d0[3] @// y1 * sin1 - y3 * sin3 + y5 * cos3(part of b3)
270 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct)
338 vqrshrn.s32 d14,q11,#shift_stage1_idct @// r5 = (a2 - b2 + rnd) >> 7(shift_stage1_idct)
428 vtrn.32 d14,d15 @//r4,r5,r6,r7 third qudrant transposing continued....
    [all...]
ihevc_inter_pred_chroma_vert_w16inp.s 120 vdup.16 d14,d0[2] @coeff_2
149 vmlal.s16 q0,d3,d14
150 vmlal.s16 q4,d6,d14
190 vmlal.s16 q15,d2,d14
199 vmlal.s16 q14,d3,d14
209 vmlal.s16 q13,d4,d14
221 vmlal.s16 q12,d5,d14
237 vmlal.s16 q15,d2,d14
246 vmlal.s16 q14,d3,d14
261 vmlal.s16 q13,d4,d14
    [all...]
ihevc_inter_pred_chroma_vert_w16inp_w16out.s 120 vdup.16 d14,d0[2] @coeff_2
149 vmlal.s16 q0,d3,d14
150 vmlal.s16 q4,d6,d14
189 vmlal.s16 q15,d2,d14
198 vmlal.s16 q14,d3,d14
207 vmlal.s16 q13,d4,d14
219 vmlal.s16 q12,d5,d14
234 vmlal.s16 q15,d2,d14
242 vmlal.s16 q14,d3,d14
256 vmlal.s16 q13,d4,d14
    [all...]
ihevc_deblk_luma_horz.s 490 vrshrn.u16 d14,q7,#1
491 vsubl.u8 q7,d14,d24
493 vqshrn.s16 d14,q7,#1
494 vmin.s8 d15,d14,d0
495 vmax.s8 d14,d1,d15
497 @ d14 has the delta p value
499 vaddw.s8 q8,q8,d14
500 vqmovun.s16 d14,q8
502 @ d14 =tmp_p1 = clip_u8(pu1_src[-2 * src_strd] + delta_p)@
504 vbsl d18,d24,d14
    [all...]
ihevc_intra_pred_chroma_mode2.s 140 vld2.8 {d14,d15},[r10],r8
165 vrev64.8 d30,d14
200 vld2.8 {d14,d15},[r10],r8
230 vrev64.8 d30,d14
261 vld2.8 {d14,d15},[r10],r8
262 vshl.i64 d2,d14,#32
  /external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/
dequant_idct_neon.c 22 int32x2_t d14, d15; local
29 d14 = d15 = vdup_n_s32(0);
45 d14 = vld1_lane_s32((const int32_t *)dst0, d14, 0);
47 d14 = vld1_lane_s32((const int32_t *)dst0, d14, 1);
126 vreinterpret_u8_s32(d14)));
130 d14 = vreinterpret_s32_u8(vqmovun_s16(q1));
134 vst1_lane_s32((int32_t *)dst0, d14, 0);
136 vst1_lane_s32((int32_t *)dst0, d14, 1)
    [all...]
  /external/libvpx/libvpx/vp8/common/arm/neon/
dequant_idct_neon.c 22 int32x2_t d14, d15; local
29 d14 = d15 = vdup_n_s32(0);
45 d14 = vld1_lane_s32((const int32_t *)dst0, d14, 0);
47 d14 = vld1_lane_s32((const int32_t *)dst0, d14, 1);
126 vreinterpret_u8_s32(d14)));
130 d14 = vreinterpret_s32_u8(vqmovun_s16(q1));
134 vst1_lane_s32((int32_t *)dst0, d14, 0);
136 vst1_lane_s32((int32_t *)dst0, d14, 1)
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/
dequant_idct_neon.c 22 int32x2_t d14, d15; local
29 d14 = d15 = vdup_n_s32(0);
45 d14 = vld1_lane_s32((const int32_t *)dst0, d14, 0);
47 d14 = vld1_lane_s32((const int32_t *)dst0, d14, 1);
126 vreinterpret_u8_s32(d14)));
130 d14 = vreinterpret_s32_u8(vqmovun_s16(q1));
134 vst1_lane_s32((int32_t *)dst0, d14, 0);
136 vst1_lane_s32((int32_t *)dst0, d14, 1)
    [all...]
  /external/llvm/test/MC/ARM/
neont2-pairwise-encoding.s 6 vpadd.i32 d14, d1, d13
7 vpadd.f32 d19, d16, d14
11 @ CHECK: vpadd.i32 d14, d1, d13 @ encoding: [0x21,0xef,0x1d,0xeb]
12 @ CHECK: vpadd.f32 d19, d16, d14 @ encoding: [0x40,0xff,0x8e,0x3d]
19 vpaddl.u16 d5, d14
32 @ CHECK: vpaddl.u16 d5, d14 @ encoding: [0xb4,0xff,0x8e,0x52]
45 vpadal.u8 d14, d25
58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6]
73 vpmin.u16 d20, d25, d14
81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a
    [all...]
neon-shiftaccum-encoding.s 4 vsra.s16 d15, d14, #16
12 vsra.u16 d11, d14, #11
22 vsra.s16 d14, #16
30 vsra.u16 d14, #11
39 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x1e,0xf1,0x90,0xf2]
47 @ CHECK: vsra.u16 d11, d14, #11 @ encoding: [0x1e,0xb1,0x95,0xf3]
56 @ CHECK: vsra.s16 d14, d14, #16 @ encoding: [0x1e,0xe1,0x90,0xf2]
64 @ CHECK: vsra.u16 d14, d14, #11 @ encoding: [0x1e,0xe1,0x95,0xf3
    [all...]
neont2-shiftaccum-encoding.s 6 vsra.s16 d15, d14, #16
14 vsra.u16 d11, d14, #11
24 vsra.s16 d14, #16
32 vsra.u16 d14, #11
41 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x90,0xef,0x1e,0xf1]
49 @ CHECK: vsra.u16 d11, d14, #11 @ encoding: [0x95,0xff,0x1e,0xb1]
58 @ CHECK: vsra.s16 d14, d14, #16 @ encoding: [0x90,0xef,0x1e,0xe1]
66 @ CHECK: vsra.u16 d14, d14, #11 @ encoding: [0x95,0xff,0x1e,0xe1
    [all...]
neon-minmax-encoding.s 7 vmax.u16 d13, d14, d15
15 vmax.u16 d14, d15
39 @ CHECK: vmax.u16 d13, d14, d15 @ encoding: [0x0f,0xd6,0x1e,0xf3]
46 @ CHECK: vmax.u16 d14, d14, d15 @ encoding: [0x0f,0xe6,0x1e,0xf3]
69 vmin.u16 d13, d14, d15
77 vmin.u16 d14, d15
101 @ CHECK: vmin.u16 d13, d14, d15 @ encoding: [0x1f,0xd6,0x1e,0xf3]
108 @ CHECK: vmin.u16 d14, d14, d15 @ encoding: [0x1f,0xe6,0x1e,0xf3
    [all...]
neont2-minmax-encoding.s 9 vmax.u16 d13, d14, d15
17 vmax.u16 d14, d15
41 @ CHECK: vmax.u16 d13, d14, d15 @ encoding: [0x1e,0xff,0x0f,0xd6]
48 @ CHECK: vmax.u16 d14, d14, d15 @ encoding: [0x1e,0xff,0x0f,0xe6]
71 vmin.u16 d13, d14, d15
79 vmin.u16 d14, d15
103 @ CHECK: vmin.u16 d13, d14, d15 @ encoding: [0x1e,0xff,0x1f,0xd6]
110 @ CHECK: vmin.u16 d14, d14, d15 @ encoding: [0x1e,0xff,0x1f,0xe6
    [all...]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_Interpolate_Chroma_s.S 62 VDUP.8 d14,r8
78 VMLAL.U8 q2,d2,d14
82 VMLAL.U8 q3,d16,d14
85 VMLAL.U8 q11,d18,d14
88 VMLAL.U8 q12,d0,d14
114 VMLAL.U8 q2,d2,d14
115 VMLAL.U8 q3,d0,d14
137 VMLAL.U8 q2,d2,d14
138 VMLAL.U8 q3,d0,d14
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.S 41 VLD1.8 {d14},[r12],r1
54 VADDL.U8 q2,d9,d14
57 VADDL.U8 q8,d11,d14
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_3DLUT.S 130 1: vst4.u8 {d12,d13,d14,d15}, [r0]!
195 lanepair dst=d14, src=d14, xr0=d1[0], xr1=d1[1], yr0=d2[4], yr1=d2[5], zr0=d5[0], zr1=d5[1]
201 vuzp.u8 d14, d15
202 vuzp.u8 d12, d14
213 vst4.u8 {d12,d13,d14,d15}, [r0]!
238 1: vzip.8 d12, d14
241 vzip.8 d14, d15
247 vst1.u32 {d14}, [r0]!
rsCpuIntrinsics_neon_YuvToRGB.S 39 vmov.i8 d14, #50
41 vmull.u8 q8, d20, d14 // g2 = u * 50 + v * 104
44 vshr.u8 d14, d21, #1
45 vaddw.u8 q0, q1, d14 // r0 = y0 * 149 + (v >> 1)
46 vaddw.u8 q4, q5, d14 // r1 = y1 * 149 + (v >> 1)
52 vmov.i8 d14, #204
54 vmull.u8 q11, d21, d14 // r2 = v * 204
rsCpuIntrinsics_neon_Blend.S 85 vmull.u8 q0, d14, d0
87 vmull.u8 q1, d14, d2
89 vmull.u8 q2, d14, d4
91 vmull.u8 q3, d14, d6
99 vrshrn.u16 d14, q3, #8
108 vaddw.u8 q3, d14
131 vmull.u8 q8, d14, d16
133 vmull.u8 q9, d14, d18
135 vmull.u8 q10, d14, d20
137 vmull.u8 q11, d14, d2
    [all...]
  /bionic/libc/arch-arm64/bionic/
_setjmp.S 59 stp d14, d15, [x0, #(_JB_FLOAT_BASE * 4 + 16 * 0)]
89 ldp d14, d15, [x0, #(_JB_FLOAT_BASE * 4 + 16 * 0)]
setjmp.S 71 stp d14, d15, [x0, #(_JB_FLOAT_BASE * 4 + 16 * 0)]
101 ldp d14, d15, [x0, #(_JB_FLOAT_BASE * 4 + 16 * 0)]

Completed in 409 milliseconds

1 2 3 4 5 6 7