/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 50 VLD1.8 {d28,d29},[r0],r1 53 VEXT.8 d10,d28,d29,#5 54 VEXT.8 d12,d28,d29,#1 55 VEXT.8 d20,d28,d29,#2 56 VEXT.8 d21,d28,d29,#3 57 VEXT.8 d13,d28,d29,#4 58 VADDL.U8 q14,d28,d10 62 VMLA.I16 d28,d8,d31 63 VMLS.I16 d28,d12,d30 67 VQRSHRUN.S16 d28,q14,# [all...] |
armVCM4P10_DeblockingLuma_unsafe_s.S | 71 VHADD.U8 d28,d4,d9 75 VRHADD.U8 d28,d28,d5 79 VBIF d29,d28,d17 85 VHADD.U8 d28,d8,d5 91 VRHADD.U8 d22,d28,d9 95 VQRSHRN.U16 d28,q13,#2 97 VBIF d28,d10,d12
|
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 72 VEXT.8 d28,d18,d19,#6 75 VADD.I16 d27,d27,d28 80 VEXT.8 d28,d20,d21,#6 85 VADD.I16 d27,d27,d28 87 VEXT.8 d28,d22,d23,#6 94 VADD.I16 d27,d27,d28 96 VEXT.8 d28,d24,d25,#6 100 VADD.I16 d27,d27,d28
|
omxVCM4P10_InterpolateLuma_s.S | 66 VRHADD.U8 d28,d28,d20 71 VST1.32 {d28[0]},[r12] 81 VST1.32 {d28[0]},[r12] 90 VRHADD.U8 d28,d28,d21 95 VST1.32 {d28[0]},[r12] 121 VRHADD.U8 d28,d28,d6 126 VST1.32 {d28[0]},[r12 [all...] |
armVCM4P10_DeblockingChroma_unsafe_s.S | 18 VMOV d28,d18 21 VZIP.8 d18,d28
|
omxVCM4P10_FilterDeblockingLuma_VerEdge_I_s.S | 118 VZIP.8 d28,d11 121 VZIP.16 d24,d28 125 VTRN.32 d30,d28 131 VST1.8 {d28},[r10],r11
|
/external/libvpx/vp8/common/arm/neon/ |
bilinearpredict4x4_neon.asm | 65 vqrshrn.u16 d28, q7, #7 ;shift/round/saturate to u8 80 vmull.u8 q1, d28, d0 83 vext.8 d26, d28, d29, #4 ;construct src_ptr[pixel_step] 106 vld1.32 {d28[0]}, [r0], r1 ;load src data 107 vld1.32 {d28[1]}, [r0], r1 116 vst1.32 {d28[0]}, [r4], lr ;store result 117 vst1.32 {d28[1]}, [r4], lr
|
sixtappredict8x4_neon.asm | 85 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1] 90 vmlsl.u8 q7, d28, d1 ;-(src_ptr[-1] * vp8_filter[1]) 95 vext.8 d28, d6, d7, #4 ;construct src_ptr[2] 100 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 105 vext.8 d28, d6, d7, #2 ;construct src_ptr[0] 110 vmlal.u8 q7, d28, d2 ;(src_ptr[0] * vp8_filter[2]) 115 vext.8 d28, d6, d7, #5 ;construct src_ptr[3] 120 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5]) 125 vext.8 d28, d6, d7, #3 ;construct src_ptr[1] 130 vmull.u8 q3, d28, d3 ;(src_ptr[1] * vp8_filter[3] [all...] |
sixtappredict8x8_neon.asm | 77 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1] 82 vmlsl.u8 q7, d28, d1 ;-(src_ptr[-1] * vp8_filter[1]) 87 vext.8 d28, d6, d7, #4 ;construct src_ptr[2] 92 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 97 vext.8 d28, d6, d7, #2 ;construct src_ptr[0] 102 vmlal.u8 q7, d28, d2 ;(src_ptr[0] * vp8_filter[2]) 107 vext.8 d28, d6, d7, #5 ;construct src_ptr[3] 112 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5]) 117 vext.8 d28, d6, d7, #3 ;construct src_ptr[1] 122 vmull.u8 q3, d28, d3 ;(src_ptr[1] * vp8_filter[3] [all...] |
sixtappredict16x16_neon.asm | 97 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1] 101 vmlsl.u8 q8, d28, d1 ;-(src_ptr[-1] * vp8_filter[1]) 105 vext.8 d28, d7, d8, #1 109 vmlsl.u8 q9, d28, d1 ;-(src_ptr[-1] * vp8_filter[1]) 113 vext.8 d28, d6, d7, #4 ;construct src_ptr[2] 117 vmlsl.u8 q8, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 121 vext.8 d28, d7, d8, #4 125 vmlsl.u8 q9, d28, d4 ;-(src_ptr[2] * vp8_filter[4]) 129 vext.8 d28, d6, d7, #5 ;construct src_ptr[3] 133 vmlal.u8 q8, d28, d5 ;(src_ptr[3] * vp8_filter[5] [all...] |
sixtappredict4x4_neon.asm | 135 vqrshrun.s16 d28, q8, #7 210 vext.8 d23, d27, d28, #4 221 vext.8 d24, d28, d29, #4 233 vmull.u8 q4, d28, d0 244 vmlal.u8 q3, d28, d2 ;(src_ptr[0] * vp8_filter[2]) 345 vqrshrun.s16 d28, q8, #7 349 vst1.32 {d28[0]}, [r1] 350 vst1.32 {d28[1]}, [r2] 364 vld1.32 {d28[0]}, [r0], r1 366 vld1.32 {d28[1]}, [r0], r [all...] |
bilinearpredict8x8_neon.asm | 93 vqrshrn.u16 d28, q8, #7 117 vmull.u8 q7, d28, d0 125 vmlal.u8 q6, d28, d1 157 vld1.u8 {d28}, [r0], r1 171 vst1.u8 {d28}, [r4], lr
|
bilinearpredict16x16_neon.asm | 188 vld1.u8 {d28, d29}, [lr]! 195 vmull.u8 q7, d28, d0 202 vmlal.u8 q5, d28, d1 312 vld1.u8 {d28, d29}, [r0], r1 319 vmull.u8 q7, d28, d0 326 vmlal.u8 q5, d28, d1
|
recon16x16mb_neon.asm | 39 vmovl.u8 q4, d28 90 vmovl.u8 q4, d28
|
/system/core/debuggerd/ |
vfp.S | 35 fconstd d28, #28
|
/external/libvpx/vp8/encoder/arm/neon/ |
vp8_mse16x16_neon.asm | 58 vmlal.s16 q9, d28, d28 115 vmlal.s16 q9, d28, d28 159 vmull.s16 q10, d28, d28
|
shortfdct_neon.asm | 58 vrshrn.i32 d28, q14, #14 76 vmlal.s16 q4, d28, d7[0] ;sumtemp for i=0 77 vmlal.s16 q5, d28, d7[1] ;sumtemp for i=1 78 vmlal.s16 q6, d28, d7[2] ;sumtemp for i=2 79 vmlal.s16 q7, d28, d7[3] ;sumtemp for i=3
|
variance_neon.asm | 62 vmlal.s16 q9, d28, d28 132 vmlal.s16 q9, d28, d28 252 vmlal.s16 q9, d28, d28
|
vp8_subpixelvariance8x8_neon.asm | 96 vqrshrn.u16 d28, q8, #7 119 vmull.u8 q7, d28, d0 127 vmlal.u8 q6, d28, d1 137 vqrshrn.u16 d28, q7, #7 150 vld1.u8 {d28}, [r0], r1
|
vp8_subpixelvariance16x16_neon.asm | 194 vld1.u8 {d28, d29}, [lr]! 201 vmull.u8 q7, d28, d0 208 vmlal.u8 q5, d28, d1 321 vld1.u8 {d28, d29}, [r0], r1 328 vmull.u8 q7, d28, d0 335 vmlal.u8 q5, d28, d1 394 vmlal.s16 q9, d28, d28
|
fastfdct8x4_neon.asm | 81 vshr.s16 q14, q14, #1 ;d28:temp1 = ( c1 * x_c3)>>16; d29:temp1 = (d1 * x_c3)>>16 90 vadd.s16 d5, d28, d31 ;op[1] = temp1 + temp2 -- q is not necessary, just for protection 132 vshr.s16 q14, q14, #1 ;d28:temp1 = ( c1 * x_c3)>>16; d29:temp1 = (d1 * x_c3)>>16 141 vadd.s16 d7, d28, d31 ;b2 = temp1 + temp2 -- q is not necessary, just for protection
|
/external/openssl/crypto/sha/asm/ |
sha512-armv4.s | 456 vld1.64 {d28},[r3,:64]! @ K[i++] 463 vadd.i64 d27,d28,d23 493 vld1.64 {d28},[r3,:64]! @ K[i++] 500 vadd.i64 d27,d28,d22 530 vld1.64 {d28},[r3,:64]! @ K[i++] 537 vadd.i64 d27,d28,d21 567 vld1.64 {d28},[r3,:64]! @ K[i++] 574 vadd.i64 d27,d28,d20 604 vld1.64 {d28},[r3,:64]! @ K[i++] 611 vadd.i64 d27,d28,d1 [all...] |
/external/openssl/crypto/modes/asm/ |
ghash-armv4.s | 319 vld1.64 d28,[r0,:64]! 332 vdup.8 d4,d28[0] @ broadcast lowest byte 353 vld1.64 d28,[r2]! 362 vdup.8 d4,d28[0] @ broadcast lowest byte 371 vdup.8 d4,d28[0] @ broadcast lowest byte
|
/frameworks/rs/driver/ |
rsdIntrinsics_Convolve.S | 59 vmovl.u8 q4, d28 142 vmlal.s16 q8, d28, d6[0] 143 vmlal.s16 q9, d28, d6[1] 144 vmlal.s16 q10, d28, d6[2] 145 vmlal.s16 q11, d28, d6[3] 154 vshrn.i32 d28, q10, #8 207 vmlal.s16 q8, d28, d6[0] 208 vmlal.s16 q9, d28, d6[1] 209 vmlal.s16 q10, d28, d6[2] 213 vshrn.i32 d28, q10, # [all...] |
/frameworks/support/renderscript/v8/rs_support/driver/ |
rsdIntrinsics_Convolve.S | 59 vmovl.u8 q4, d28 142 vmlal.s16 q8, d28, d6[0] 143 vmlal.s16 q9, d28, d6[1] 144 vmlal.s16 q10, d28, d6[2] 145 vmlal.s16 q11, d28, d6[3] 154 vshrn.i32 d28, q10, #8 207 vmlal.s16 q8, d28, d6[0] 208 vmlal.s16 q9, d28, d6[1] 209 vmlal.s16 q10, d28, d6[2] 213 vshrn.i32 d28, q10, # [all...] |