/external/kernel-headers/original/asm-generic/ |
xor.h | 109 register long d0, d1, d2, d3, d4, d5, d6, d7; local 115 d5 = p1[5]; 123 d5 ^= p2[5]; 131 p1[5] = d5; 146 register long d0, d1, d2, d3, d4, d5, d6, d7; local 152 d5 = p1[5]; 160 d5 ^= p2[5]; 168 d5 ^= p3[5]; 176 p1[5] = d5; 192 register long d0, d1, d2, d3, d4, d5, d6, d7 local 247 register long d0, d1, d2, d3, d4, d5, d6, d7; local 440 register long d0, d1, d2, d3, d4, d5, d6, d7; local 487 register long d0, d1, d2, d3, d4, d5, d6, d7; local 545 register long d0, d1, d2, d3, d4, d5, d6, d7; local 614 register long d0, d1, d2, d3, d4, d5, d6, d7; local [all...] |
/external/libvpx/vp8/encoder/arm/neon/ |
fastfdct4x4_neon.asm | 36 vld1.16 {d5}, [r0], r2 39 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[1], d4=ip[2], d5=ip[3] 41 vtrn.32 d3, d5 43 vtrn.16 d4, d5 45 vadd.s16 d6, d2, d5 ;ip[0]+ip[3] 48 vsub.s16 d9, d2, d5 ;ip[0]-ip[3] 67 vsub.s16 d5, d15, d16 ;op[3] = temp1 - temp2 70 ;transpose d2, d3, d4, d5. Then, d2=ip[0], d3=ip[4], d4=ip[8], d5=ip[12 [all...] |
fastfdct8x4_neon.asm | 40 ;transpose d3, d5, d7, d9. Then, d3=ip[0], d5=ip[1], d7=ip[2], d9=ip[3] 44 vtrn.32 d5, d9 46 vtrn.16 d3, d5 55 vadd.s16 d23, d5, d7 56 vsub.s16 d24, d5, d7 90 vadd.s16 d5, d28, d31 ;op[1] = temp1 + temp2 -- q is not necessary, just for protection 96 ;transpose d3, d5, d7, d9. Then, d3=ip[0], d5=ip[4], d7=ip[8], d9=ip[12] 100 vtrn.32 d5, d [all...] |
shortfdct_neon.asm | 39 vmlal.s16 q11, d5, d0[1] 40 vmlal.s16 q12, d5, d1[1] 41 vmlal.s16 q13, d5, d2[1] 42 vmlal.s16 q14, d5, d3[1] 66 vmlal.s16 q4, d24, d5[0] 67 vmlal.s16 q5, d24, d5[1] 68 vmlal.s16 q6, d24, d5[2] 69 vmlal.s16 q7, d24, d5[3]
|
vp8_subpixelvariance16x16_neon.asm | 49 vld1.u8 {d5, d6, d7}, [r0], r1 67 vmull.u8 q9, d5, d0 75 vext.8 d5, d5, d6, #1 80 vmlal.u8 q9, d5, d1 106 vld1.u8 {d5, d6, d7}, [r0], r1 120 vmull.u8 q11, d5, d0 126 vext.8 d5, d5, d6, #1 130 vmlal.u8 q11, d5, d [all...] |
subtract_neon.asm | 31 vld1.8 {d5}, [r2], r12 37 vsubl.u8 q12, d4, d5 68 vsubl.u8 q11, d5, d7 103 vld1.8 {d5}, [r3]! 117 vsubl.u8 q10, d4, d5 139 vld1.8 {d5}, [r3]! 153 vsubl.u8 q10, d4, d5
|
vp8_subpixelvariance16x16s_neon.asm | 45 vld1.u8 {d4, d5, d6, d7}, [r0], r1 71 vsubl.u8 q1, d5, d27 99 vmlal.s16 q10, d5, d5 162 vsubl.u8 q14, d5, d7 192 vmlal.s16 q10, d5, d5 245 vld1.u8 {d4, d5, d6, d7}, [r0], r1 279 vsubl.u8 q1, d5, d15 372 vld1.u8 {d4, d5, d6, d7}, [r0], r [all...] |
vp8_mse16x16_neon.asm | 45 vsubl.u8 q12, d1, d5 98 vsubl.u8 q12, d1, d5 145 vld1.8 {d5}, [r2], r3 152 vsubl.u8 q12, d1, d5
|
vp8_subpixelvariance8x8_neon.asm | 55 vext.8 d5, d4, d5, #1 60 vmlal.u8 q7, d5, d1 83 vext.8 d5, d4, d5, #1 89 vmlal.u8 q7, d5, d1
|
/external/libvpx/vp8/common/arm/neon/ |
shortidct4x4llm_neon.asm | 63 vqsub.s16 d5, d12, d11 66 vtrn.32 d3, d5 68 vtrn.16 d4, d5 90 vqsub.s16 d5, d12, d11 95 vrshr.s16 d5, d5, #3 102 vtrn.32 d3, d5 104 vtrn.16 d4, d5 109 vst1.16 {d5}, [r0]
|
sixtappredict8x4_neon.asm | 51 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 61 vdup.8 d5, d26[4] 108 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5]) 109 vmlal.u8 q8, d29, d5 110 vmlal.u8 q9, d30, d5 111 vmlal.u8 q10, d31, d5 193 vmlal.u8 q8, d27, d5 ;(src_ptr[3] * vp8_filter[5]) 194 vmlal.u8 q9, d28, d5 195 vmlal.u8 q10, d29, d5 196 vmlal.u8 q11, d30, d5 [all...] |
sixtappredict8x8_neon.asm | 54 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 64 vdup.8 d5, d26[4] 112 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5]) 113 vmlal.u8 q8, d29, d5 114 vmlal.u8 q9, d30, d5 115 vmlal.u8 q10, d31, d5 206 vmlal.u8 q8, d27, d5 ;(src_ptr[3] * vp8_filter[5]) 207 vmlal.u8 q9, d28, d5 208 vmlal.u8 q10, d29, d5 209 vmlal.u8 q11, d30, d5 [all...] |
bilinearpredict16x16_neon.asm | 46 vld1.u8 {d5, d6, d7}, [r0], r1 64 vmull.u8 q9, d5, d0 72 vext.8 d5, d5, d6, #1 77 vmlal.u8 q9, d5, d1 103 vld1.u8 {d5, d6, d7}, [r0], r1 117 vmull.u8 q11, d5, d0 123 vext.8 d5, d5, d6, #1 127 vmlal.u8 q11, d5, d [all...] |
sixtappredict4x4_neon.asm | 50 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 58 vdup.8 d5, d26[4] 74 vmull.u8 q7, d18, d5 ;(src_ptr[3] * vp8_filter[5]) 75 vmull.u8 q8, d20, d5 139 vmull.u8 q7, d18, d5 ;(src_ptr[3] * vp8_filter[5]) 140 vmull.u8 q8, d20, d5 141 vmull.u8 q12, d31, d5 ;(src_ptr[3] * vp8_filter[5]) 213 vdup.8 d0, d14[0] ;second_pass filter parameters (d0-d5) 218 vdup.8 d5, d16[4] 223 vmull.u8 q5, d25, d5 ;(src_ptr[3] * vp8_filter[5] [all...] |
sixtappredict16x16_neon.asm | 61 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 66 vdup.8 d5, d26[4] 121 vmlal.u8 q8, d28, d5 ;(src_ptr[3] * vp8_filter[5]) 122 vmlal.u8 q10, d29, d5 123 vmlal.u8 q12, d30, d5 129 vmlal.u8 q9, d28, d5 ;(src_ptr[3] * vp8_filter[5]) 130 vmlal.u8 q11, d29, d5 131 vmlal.u8 q13, d30, d5 200 vdup.8 d0, d14[0] ;second_pass filter parameters (d0-d5) 205 vdup.8 d5, d16[4 [all...] |
bilinearpredict8x8_neon.asm | 52 vext.8 d5, d4, d5, #1 57 vmlal.u8 q7, d5, d1 80 vext.8 d5, d4, d5, #1 86 vmlal.u8 q7, d5, d1 132 vqrshrn.u16 d5, q4, #7 141 vst1.u8 {d5}, [r1], lr
|
bilinearpredict8x4_neon.asm | 54 vext.8 d5, d4, d5, #1 60 vmlal.u8 q7, d5, d1 100 vqrshrn.u16 d5, q4, #7 105 vst1.u8 {d5}, [r2]
|
bilinearpredict4x4_neon.asm | 44 vld1.u8 {d5}, [r0], r1 53 vzip.32 d4, d5 77 vdup.8 d0, d31[0] ;second_pass filter parameters (d0-d5)
|
/external/libvpx/vp8/decoder/arm/neon/ |
dequant_dc_idct_neon.asm | 71 vqsub.s16 d5, d12, d11 74 vtrn.32 d3, d5 76 vtrn.16 d4, d5 102 vqsub.s16 d5, d12, d11 109 vrshr.s16 d5, d5, #3 112 vtrn.32 d3, d5 114 vtrn.16 d4, d5
|
dequant_idct_neon.asm | 65 vqsub.s16 d5, d12, d11 68 vtrn.32 d3, d5 70 vtrn.16 d4, d5 96 vqsub.s16 d5, d12, d11 103 vrshr.s16 d5, d5, #3 106 vtrn.32 d3, d5 108 vtrn.16 d4, d5
|
/system/core/debuggerd/ |
vfp.S | 11 fconstd d5, #5
|
/external/qemu/distrib/sdl-1.2.12/src/video/ataricommon/ |
SDL_ataric2p.S | 54 movel #0x00ff00ff,d5 98 andl d5,d7 106 andl d5,d7 151 andl d5,d7 160 andl d5,d7 324 moveq #7,d5 337 dbra d5,c2p4_bcl07 346 moveq #7,d5 359 dbra d5,c2p4_bcl815
|
/dalvik/tests/080-oom-throw/src/ |
Main.java | 37 double d1, d2, d3, d4, d5, d6, d7, d8; field in class:Main.InstanceMemEater
|
/frameworks/base/media/libstagefright/codecs/aacenc/src/asm/ARMV7/ |
PrePostMDCT_v7.s | 38 VLD4.I32 {d1, d3, d5, d7}, [r2]! @ cosb = *csptr++@ sinb = *csptr++@
69 VST2.I32 {d5, d7}, [r3]!
94 VLD4.I32 {d1, d3, d5, d7}, [r2]! @ cosb = *csptr++@ sinb = *csptr++@
124 VST2.I32 {d5, d7}, [r3]!
|
R4R8First_v7.s | 41 VSUB.S32 d5, d0, d1 @ r1 = buf[0] - buf[2]@i1 = buf[1] - buf[3]@
55 VSUB.S32 d5, d8, d9 @ r3 = buf[ 8] - buf[10]@i3 = buf[ 9] - buf[11]@
80 VADD.S32 d5, d11, d9
125 VSUB.S32 d5, d0, d1 @ r2 = buf[0] - buf[2]@ r3 = buf[1] - buf[3]@
|