/external/chromium_org/third_party/boringssl/linux-arm/crypto/sha/ |
sha512-armv4.S | 456 vshr.u64 d25,d20,#18 463 vsli.64 d25,d20,#46 469 veor d25,d24 472 veor d26,d25 @ Sigma1(e) 474 vshr.u64 d25,d16,#34 479 vsli.64 d25,d16,#30 482 veor d23,d24,d25 493 vshr.u64 d25,d19,#18 500 vsli.64 d25,d19,#46 506 veor d25,d2 [all...] |
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Blur.S | 194 vmlal.u16 q15, d25, d1[3] 200 vmlal.u16 q15, d25, d1[2] 206 vmlal.u16 q15, d25, d1[1] 218 vmlal.u16 q15, d25, d0[3] 224 vmlal.u16 q15, d25, d0[2] 230 vmlal.u16 q15, d25, d0[1] 275 vmlal.u16 q15, d25, d3[3] 281 vmlal.u16 q15, d25, d3[2] 287 vmlal.u16 q15, d25, d3[1] 299 vmlal.u16 q15, d25, d2[3 [all...] |
rsCpuIntrinsics_neon_Convolve.S | 145 vld1.8 {d24, d25, d26}, [r1], r7 @ y0 ( y - 2 ) 154 vmovl.u8 q10, d25 162 d24, d25 171 vmlal.s16 q4, d25, d1[2] 182 vmlal.s16 q5, d25, d1[1] 191 vld1.8 {d24, d25, d26}, [r3], r7 @ y0 ( y ) 200 vmovl.u8 q10, d25 208 d24, d25 217 vmlal.s16 q4, d25, d4[0] 228 vmlal.s16 q5, d25, d3[3 [all...] |
/external/openssl/crypto/sha/asm/ |
sha512-armv4.S | 454 vshr.u64 d25,d20,#18 458 vsli.64 d25,d20,#46 465 veor d24,d25 472 vshr.u64 d25,d16,#34 475 vsli.64 d25,d16,#30 480 veor d23,d24,d25 491 vshr.u64 d25,d19,#18 495 vsli.64 d25,d19,#46 502 veor d24,d25 509 vshr.u64 d25,d23,#3 [all...] |
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 41 VLD1.8 {d24,d25},[r0],r1 44 VEXT.8 d10,d24,d25,#5 45 VEXT.8 d12,d24,d25,#1 46 VEXT.8 d16,d24,d25,#2 47 VEXT.8 d17,d24,d25,#3 48 VEXT.8 d13,d24,d25,#4
|
omxVCM4P10_FilterDeblockingLuma_VerEdge_I_s.S | 93 VZIP.8 d24,d25 98 VZIP.16 d25,d11 102 VTRN.32 d6,d25 109 VST1.8 {d25},[r10],r11 132 VZIP.8 d24,d25 137 VZIP.16 d25,d11 141 VTRN.32 d31,d25 148 VST1.8 {d25},[r10],r11
|
armVCM4P10_DeblockingLuma_unsafe_s.S | 61 VMAX.U8 d25,d27,d21 63 VMIN.U8 d25,d25,d19 67 VBIF d25,d9,d12 104 VQRSHRN.U16 d25,q12,#2 107 VBIF d25,d9,d12
|
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 111 VEXT.8 d28,d24,d25,#6 113 VEXT.8 d27,d24,d25,#4 114 VEXT.8 d29,d25,d6,#2 116 VEXT.8 d8,d24,d25,#2 120 VADD.I16 d8,d8,d25
|
/external/libhevc/common/arm/ |
ihevc_intra_pred_luma_vert.s | 209 @vaddl.s8 q1, d25, d27 211 vqmovun.s16 d25, q0 213 @vmovn.u16 d25, q0 222 vbsl d10, d25, d16 234 vshr.s64 d25, d25, #8 238 vbsl d6, d25, d16 244 vshr.s64 d25, d25, #8 263 vbsl d10, d25, d1 [all...] |
ihevc_inter_pred_chroma_horz.s | 122 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1) 170 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 178 vmull.u8 q14,d3,d25 206 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 233 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 246 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 263 vmull.u8 q14,d3,d25 293 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 307 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 315 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3) [all...] |
ihevc_inter_pred_chroma_horz_w16out.s | 125 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1) 190 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 198 vmull.u8 q14,d3,d25 221 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 249 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 262 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 274 vmull.u8 q14,d3,d25 302 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 316 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 324 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3) [all...] |
ihevc_inter_pred_filters_luma_vert_w16inp.s | 126 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@ 154 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 170 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 185 vmlal.s16 q6,d5,d25 197 vmlal.s16 q7,d6,d25 225 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 239 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 261 vmlal.s16 q6,d5,d25 284 vmlal.s16 q7,d6,d25 308 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3) [all...] |
ihevc_inter_pred_luma_vert_w16inp_w16out.s | 134 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@ 164 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 180 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 195 vmlal.s16 q6,d5,d25 208 vmlal.s16 q7,d6,d25 238 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 253 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 276 vmlal.s16 q6,d5,d25 300 vmlal.s16 q7,d6,d25 325 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3) [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
vp9_mb_lpf_neon.asm | 66 vst1.u8 {d25}, [r8@64], r1 ; store op1 97 vst1.u8 {d25}, [r8@64], r1 ; store op4 188 vswp d23, d25 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r [all...] |
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_mb_lpf_neon.asm | 66 vst1.u8 {d25}, [r8@64], r1 ; store op1 97 vst1.u8 {d25}, [r8@64], r1 ; store op4 188 vswp d23, d25 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r [all...] |
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
vp9_mb_lpf_neon.asm | 66 vst1.u8 {d25}, [r8@64], r1 ; store op1 97 vst1.u8 {d25}, [r8@64], r1 ; store op4 188 vswp d23, d25 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r [all...] |
/external/chromium_org/third_party/webrtc/modules/audio_processing/aecm/ |
aecm_core_neon.S | 48 vld1.16 {d24, d25}, [r6, :128]! @ &aecm->channelStored[i] 52 vmull.u16 q11, d27, d25 104 vld1.16 {d24, d25}, [r3, :128]! @ &aecm->channelAdapt16[i] 106 vst1.16 {d24, d25}, [r0, :128]! @ &aecm->channelStored[i] 108 vmull.u16 q11, d27, d25 133 vld1.16 {d24, d25}, [r0, :128]! 135 vst1.16 {d24, d25}, [r1, :128]! 137 vshll.s16 q11, d25, #16
|
/external/llvm/test/MC/ARM/ |
neont2-pairwise-encoding.s | 45 vpadal.u8 d14, d25 58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6] 73 vpmin.u16 d20, d25, d14 81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
variance_neon.asm | 57 vmlal.s16 q10, d25, d25 127 vmlal.s16 q10, d25, d25 188 vmlal.s16 q10, d25, d25 247 vmlal.s16 q10, d25, d25
|
sixtappredict8x4_neon.asm | 64 vdup.8 d2, d25[0] 68 vdup.8 d3, d25[4] 144 vqrshrun.s16 d25, q10, #7 153 vst1.u8 {d25}, [lr]! 257 vmull.u8 q6, d25, d0 261 vmlsl.u8 q5, d25, d1 270 vmlal.u8 q4, d25, d2 279 vmull.u8 q7, d25, d3 ;(src_ptr[1] * vp8_filter[3]) 314 vdup.8 d2, d25[0] 316 vdup.8 d3, d25[4 [all...] |
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/ |
variance_neon.asm | 57 vmlal.s16 q10, d25, d25 127 vmlal.s16 q10, d25, d25 188 vmlal.s16 q10, d25, d25 247 vmlal.s16 q10, d25, d25
|
sixtappredict8x4_neon.asm | 64 vdup.8 d2, d25[0] 68 vdup.8 d3, d25[4] 144 vqrshrun.s16 d25, q10, #7 153 vst1.u8 {d25}, [lr]! 257 vmull.u8 q6, d25, d0 261 vmlsl.u8 q5, d25, d1 270 vmlal.u8 q4, d25, d2 279 vmull.u8 q7, d25, d3 ;(src_ptr[1] * vp8_filter[3]) 314 vdup.8 d2, d25[0] 316 vdup.8 d3, d25[4 [all...] |
/external/libhevc/common/arm64/ |
ihevc_intra_pred_luma_vert.s | 211 //vaddl.s8 q1, d25, d27 215 //vmovn.u16 d25, q0 236 sshr d25, d25,#8 246 sshr d25, d25,#8 271 sshr d25, d25,#8 284 sshr d25, d25,# [all...] |
/external/chromium_org/third_party/webrtc/common_audio/signal_processing/ |
min_max_operations_neon.S | 50 vmax.u16 d24, d25 101 vmax.u32 d24, d25 145 vmax.s16 d24, d25 187 vpmax.s32 d24, d24, d25 225 vmin.s16 d24, d25 268 vpmin.s32 d24, d24, d25
|
/external/valgrind/main/none/tests/arm/ |
vfpv4_fma.c | 87 TESTINSN_bin_f64("vfma.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0(-45.5687), f2u1(-45.5687)); 88 TESTINSN_bin_f64("vfma.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f2u1(1346)); 90 TESTINSN_bin_f64("vfma.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i32, f2u0(17065), f2u1(17065)); 100 TESTINSN_bin_f64("vfma.f64 d29, d25, d7", d29, d25, i32, f2u0(-INFINITY), f2u1(-INFINITY), d7, i32, f2u0(1752), f2u1(1752)); 137 TESTINSN_bin_f64("vfms.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0(-45.5687), f2u1(-45.5687)) [all...] |