/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
vp9_convolve8_neon.asm | 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 157 vmov d20, d23 206 vld1.u32 {d20[0]}, [r4], r1 207 vld1.u32 {d20[1]}, [r7], r1 212 vmovl.u8 q10, d20 230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 240 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d2 [all...] |
vp9_mb_lpf_neon.asm | 84 vst1.u8 {d20}, [r8@64], r1 ; store op0 102 vst1.u8 {d20}, [r8@64], r1 ; store oq0 209 vst3.8 {d18[0], d19[0], d20[0]}, [r8], r1 211 vst3.8 {d18[1], d19[1], d20[1]}, [r8], r1 213 vst3.8 {d18[2], d19[2], d20[2]}, [r8], r1 215 vst3.8 {d18[3], d19[3], d20[3]}, [r8], r1 217 vst3.8 {d18[4], d19[4], d20[4]}, [r8], r1 219 vst3.8 {d18[5], d19[5], d20[5]}, [r8], r1 221 vst3.8 {d18[6], d19[6], d20[6]}, [r8], r1 223 vst3.8 {d18[7], d19[7], d20[7]}, [r8], r [all...] |
vp9_loopfilter_neon.asm | 190 vabd.u8 d20, d4, d5 ; m2 = abs(p2 - p1) 197 vmax.u8 d19, d19, d20 ; m1 = max(m1, m2) 198 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4) 206 vmax.u8 d23, d19, d20 ; m1 = max(m1, m2) 270 vqsub.s8 d20, d16, d27 ; u = clamp(qs1 - filter) 274 veor d7, d20, d18 ; *oq1 = u^0x80 454 vabd.u8 d20, d4, d5 ; m2 = abs(p2 - p1) 461 vmax.u8 d19, d19, d20 ; m1 = max(m1, m2) 462 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4) 470 vmax.u8 d19, d19, d20 [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
vp9_mb_lpf_neon.asm | 84 vst1.u8 {d20}, [r8@64], r1 ; store op0 102 vst1.u8 {d20}, [r8@64], r1 ; store oq0 209 vst3.8 {d18[0], d19[0], d20[0]}, [r8], r1 211 vst3.8 {d18[1], d19[1], d20[1]}, [r8], r1 213 vst3.8 {d18[2], d19[2], d20[2]}, [r8], r1 215 vst3.8 {d18[3], d19[3], d20[3]}, [r8], r1 217 vst3.8 {d18[4], d19[4], d20[4]}, [r8], r1 219 vst3.8 {d18[5], d19[5], d20[5]}, [r8], r1 221 vst3.8 {d18[6], d19[6], d20[6]}, [r8], r1 223 vst3.8 {d18[7], d19[7], d20[7]}, [r8], r [all...] |
vp9_loopfilter_neon.asm | 190 vabd.u8 d20, d4, d5 ; m2 = abs(p2 - p1) 197 vmax.u8 d19, d19, d20 ; m1 = max(m1, m2) 198 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4) 206 vmax.u8 d23, d19, d20 ; m1 = max(m1, m2) 270 vqsub.s8 d20, d16, d27 ; u = clamp(qs1 - filter) 274 veor d7, d20, d18 ; *oq1 = u^0x80 454 vabd.u8 d20, d4, d5 ; m2 = abs(p2 - p1) 461 vmax.u8 d19, d19, d20 ; m1 = max(m1, m2) 462 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4) 470 vmax.u8 d19, d19, d20 [all...] |
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_mb_lpf_neon.asm | 84 vst1.u8 {d20}, [r8@64], r1 ; store op0 102 vst1.u8 {d20}, [r8@64], r1 ; store oq0 209 vst3.8 {d18[0], d19[0], d20[0]}, [r8], r1 211 vst3.8 {d18[1], d19[1], d20[1]}, [r8], r1 213 vst3.8 {d18[2], d19[2], d20[2]}, [r8], r1 215 vst3.8 {d18[3], d19[3], d20[3]}, [r8], r1 217 vst3.8 {d18[4], d19[4], d20[4]}, [r8], r1 219 vst3.8 {d18[5], d19[5], d20[5]}, [r8], r1 221 vst3.8 {d18[6], d19[6], d20[6]}, [r8], r1 223 vst3.8 {d18[7], d19[7], d20[7]}, [r8], r [all...] |
vp9_loopfilter_neon.asm | 190 vabd.u8 d20, d4, d5 ; m2 = abs(p2 - p1) 197 vmax.u8 d19, d19, d20 ; m1 = max(m1, m2) 198 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4) 206 vmax.u8 d23, d19, d20 ; m1 = max(m1, m2) 270 vqsub.s8 d20, d16, d27 ; u = clamp(qs1 - filter) 274 veor d7, d20, d18 ; *oq1 = u^0x80 454 vabd.u8 d20, d4, d5 ; m2 = abs(p2 - p1) 461 vmax.u8 d19, d19, d20 ; m1 = max(m1, m2) 462 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4) 470 vmax.u8 d19, d19, d20 [all...] |
/external/llvm/test/MC/ARM/ |
neon-vst-encoding.s | 57 @ CHECK: vst2.16 {d18, d19, d20, d21}, [r0:128]! @ encoding: [0x6d,0x23,0x40,0xf4] 64 vst3.8 {d16, d18, d20}, [r0:64] 73 vst3.i32 {d16, d18, d20}, [r10], r5 78 vst3.8 {d16, d18, d20}, [r0:64]! 79 vst3.p16 {d20, d22, d24}, [r5]! 85 @ CHECK: vst3.8 {d16, d18, d20}, [r0:64] @ encoding: [0x1f,0x05,0x40,0xf4] 93 @ CHECK: vst3.32 {d16, d18, d20}, [r10], r5 @ encoding: [0x85,0x05,0x4a,0xf4] 97 @ CHECK: vst3.8 {d16, d18, d20}, [r0:64]! @ encoding: [0x1d,0x05,0x40,0xf4] 98 @ CHECK: vst3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x45,0xf4] 107 vst4.32 {d16, d18, d20, d22}, [r8 [all...] |
neon-minmax-encoding.s | 9 vmax.f32 d19, d20, d21 17 vmax.f32 d20, d21 41 @ CHECK: vmax.f32 d19, d20, d21 @ encoding: [0xa5,0x3f,0x44,0xf2] 48 @ CHECK: vmax.f32 d20, d20, d21 @ encoding: [0xa5,0x4f,0x44,0xf2] 71 vmin.f32 d19, d20, d21 79 vmin.f32 d20, d21 103 @ CHECK: vmin.f32 d19, d20, d21 @ encoding: [0xa5,0x3f,0x64,0xf2] 110 @ CHECK: vmin.f32 d20, d20, d21 @ encoding: [0xa5,0x4f,0x64,0xf2 [all...] |
neont2-minmax-encoding.s | 11 vmax.f32 d19, d20, d21 19 vmax.f32 d20, d21 43 @ CHECK: vmax.f32 d19, d20, d21 @ encoding: [0x44,0xef,0xa5,0x3f] 50 @ CHECK: vmax.f32 d20, d20, d21 @ encoding: [0x44,0xef,0xa5,0x4f] 73 vmin.f32 d19, d20, d21 81 vmin.f32 d20, d21 105 @ CHECK: vmin.f32 d19, d20, d21 @ encoding: [0x64,0xef,0xa5,0x3f] 112 @ CHECK: vmin.f32 d20, d20, d21 @ encoding: [0x64,0xef,0xa5,0x4f [all...] |
neont2-pairwise-encoding.s | 43 vpadal.s16 d20, d9 56 @ CHECK: vpadal.s16 d20, d9 @ encoding: [0xf4,0xff,0x09,0x46] 73 vpmin.u16 d20, d25, d14 81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a] 86 vpmax.s8 d3, d20, d17 94 @ CHECK: vpmax.s8 d3, d20, d17 @ encoding: [0x04,0xef,0xa1,0x3a]
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
omxVCM4P10_InterpolateLuma_s.S | 81 VRHADD.U8 d28,d28,d20 151 VQRSHRUN.S16 d20,q10,#5 155 VRHADD.U8 d6,d6,d20 196 VEXT.8 d20,d20,d21,#4 202 VQRSHRUN.S16 d20,q12,#5 206 VRHADD.U8 d6,d6,d20 230 VEXT.8 d20,d20,d21,#6 236 VQRSHRUN.S16 d20,q12,# [all...] |
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.S | 46 VMUL.I16 d20,d18,d31 61 VADD.I16 d0,d0,d20
|
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 94 VEXT.8 d27,d20,d21,#4 95 VEXT.8 d28,d20,d21,#6 98 VEXT.8 d26,d20,d21,#2 99 VADDL.S16 q1,d20,d29
|
armVCM4P10_InterpolateLuma_HalfDiagHorVer4x4_unsafe_s.S | 104 VMLA.I16 d20,d2,d31 115 VSUB.I16 d20,d20,d8 143 VADDL.S16 q5,d10,d20 151 VADDL.S16 q0,d14,d20 156 VADDL.S16 q1,d18,d20 162 VADDL.S16 q1,d20,d22
|
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 70 VEXT.8 d20,d28,d29,#2 75 VADDL.U8 q4,d20,d21
|
/external/chromium_org/third_party/boringssl/linux-arm/crypto/modes/ |
ghash-armv4.S | 390 vext.8 d20, d26, d26, #3 @ A3 392 vmull.p8 q10, d20, d6 @ J = A3*B 405 veor d20, d20, d21 @ t2 = (N) (P4 + P5) << 24 411 veor d20, d20, d21 428 vext.8 d20, d28, d28, #3 @ A3 430 vmull.p8 q10, d20, d6 @ J = A3*B 443 veor d20, d20, d21 @ t2 = (N) (P4 + P5) << 2 [all...] |
/external/openssl/crypto/modes/asm/ |
ghash-armv4.S | 382 vext.8 d20, d26, d26, #3 @ A3 384 vmull.p8 q10, d20, d6 @ J = A3*B 397 veor d20, d20, d21 @ t2 = (N) (P4 + P5) << 24 403 veor d20, d20, d21 420 vext.8 d20, d28, d28, #3 @ A3 422 vmull.p8 q10, d20, d6 @ J = A3*B 435 veor d20, d20, d21 @ t2 = (N) (P4 + P5) << 2 [all...] |
/external/libhevc/common/arm/ |
ihevc_intra_pred_luma_dc.s | 251 vmov.i64 d20, #0x00000000000000ff @byte mask row 1 (prol) 255 vbsl d20, d3, d16 @row 1 (prol) 260 vst1.8 d20, [r2], r3 @store row 1 (prol) 266 vmov.i64 d20, #0x00000000000000ff @byte mask row 3 (prol) 272 vbsl d20, d3, d16 @row 3 (prol) 277 vst1.8 d20, [r2], r3 @store row 3 (prol) 282 vmov.i64 d20, #0x00000000000000ff @byte mask row 5 (prol) 288 vbsl d20, d3, d16 @row 5 (prol) 293 vst1.8 d20, [r2], r3 @store row 5 (prol) 301 vmov.i64 d20, #0x00000000000000ff @byte mask row 7 (prol [all...] |
ihevc_weighted_pred_bi_default.s | 187 vqadd.s16 d20,d8,d9 @vaddq_s32(i4_tmp2_t1, i4_tmp2_t2) 188 vqadd.s16 d19,d20,d0 @vaddq_s32(i4_tmp2_t1, tmp_lvl_shift_t) 189 vqshrun.s16 d20,q9,#7 198 vst1.32 {d20[0]},[r2]! @store pu1_dst i iteration 199 vst1.32 {d20[1]},[r14],r5 @store pu1_dst ii iteration 237 vqadd.s16 d20,d8,d9 @vaddq_s32(i4_tmp2_t1, i4_tmp2_t2) 238 vqadd.s16 d19,d20,d0 @vaddq_s32(i4_tmp2_t1, tmp_lvl_shift_t) 239 vqshrun.s16 d20,q9,#7 240 vst1.32 {d20[0]},[r2]! @store pu1_dst i iteration 241 vst1.32 {d20[1]},[r14],r5 @store pu1_dst ii iteratio [all...] |
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Convolve.S | 161 d18, d19, d20, d21, d22, d23, 166 vmlal.s16 q4, d20, d0[2] 177 vmlal.s16 q5, d20, d0[1] 207 d18, d19, d20, d21, d22, d23, 212 vmlal.s16 q4, d20, d3[0] 223 vmlal.s16 q5, d20, d2[3] 247 d18, d19, d20, d21, d22, d23, 253 vmlal.s16 q4, d20, d5[2] 258 vmlal.s16 q5, d20, d5[1]
|
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/encoder/arm/neon/ |
fastquantizeb_neon.asm | 134 vmax.u16 d20, d20, d21 136 vmovl.u16 q10, d20 139 vmax.u32 d20, d20, d21 141 vpmax.u32 d20, d20, d20 147 vst1.8 {d20[0]}, [r5] ; store eob
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
fastquantizeb_neon.asm | 134 vmax.u16 d20, d20, d21 136 vmovl.u16 q10, d20 139 vmax.u32 d20, d20, d21 141 vpmax.u32 d20, d20, d20 147 vst1.8 {d20[0]}, [r5] ; store eob
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/ |
fastquantizeb_neon.asm | 134 vmax.u16 d20, d20, d21 136 vmovl.u16 q10, d20 139 vmax.u32 d20, d20, d21 141 vpmax.u32 d20, d20, d20 147 vst1.8 {d20[0]}, [r5] ; store eob
|
/external/libhevc/common/arm64/ |
ihevc_intra_pred_luma_dc.s | 259 movi d20, #0x00000000000000ff //byte mask row 1 (prol) 274 movi d20, #0x00000000000000ff //byte mask row 3 (prol) 290 movi d20, #0x00000000000000ff //byte mask row 5 (prol) 309 movi d20, #0x00000000000000ff //byte mask row 7 (prol) 326 movi d20, #0x00000000000000ff //byte mask row 9 (prol) 348 movi d20, #0x00000000000000ff //byte mask row 9 (prol) 481 movi d20, #0x00000000000000ff //byte mask row 1 (prol) 501 movi d20, #0x00000000000000ff //byte mask row 3 (prol)
|