HomeSort by relevance Sort by last modified time
    Searched refs:d10 (Results 26 - 50 of 66) sorted by null

12 3

  /external/libvpx/libvpx/vp8/common/arm/neon/
vp8_subpixelvariance16x16_neon.asm 57 vld1.u8 {d8, d9, d10}, [r0], r1
91 vext.8 d9, d9, d10, #1
114 vld1.u8 {d8, d9, d10}, [r0], r1
140 vext.8 d9, d9, d10, #1
163 vqrshrn.u16 d10, q9, #7 ;shift/round/saturate to u8
174 vst1.u8 {d10, d11, d12, d13}, [lr]! ;store result
251 vld1.u8 {d8, d9, d10}, [r0], r1
279 vext.8 d9, d9, d10, #1
413 vshr.u32 d10, d10, #
    [all...]
bilinearpredict16x16_neon.asm 49 vld1.u8 {d8, d9, d10}, [r0], r1
83 vext.8 d9, d9, d10, #1
106 vld1.u8 {d8, d9, d10}, [r0], r1
132 vext.8 d9, d9, d10, #1
155 vqrshrn.u16 d10, q9, #7 ;shift/round/saturate to u8
166 vst1.u8 {d10, d11, d12, d13}, [lr]! ;store result
240 vld1.u8 {d8, d9, d10}, [r0], r1
268 vext.8 d9, d9, d10, #1
bilinearpredict4x4_neon.asm 55 vzip.32 d10, d11
62 vmlal.u8 q8, d10, d1
bilinearpredict8x4_neon.asm 51 vmull.u8 q10, d10, d0
57 vext.8 d11, d10, d11, #1
bilinearpredict8x8_neon.asm 77 vmull.u8 q10, d10, d0
83 vext.8 d11, d10, d11, #1
  /external/clang/test/CodeGenCXX/
mangle-ms-return-qualifiers.cpp 118 volatile B<A>& d10() { return *(B<A>*)0; } function
119 // CHECK: "\01?d10@@YAACV?$B@VA@@@@XZ"
  /external/valgrind/main/none/tests/arm/
neon64.stdout.exp 12 vmov.i32 d10, #0x70000 :: Qd 0x00070000 0x00070000
13 vmov.i32 d10, #0x70000 :: Qd 0x00070000 0x00070000
37 vmvn.i32 d10, #0x70000 :: Qd 0xfff8ffff 0xfff8ffff
38 vmvn.i32 d10, #0x70000 :: Qd 0xfff8ffff 0xfff8ffff
69 vbic.i32 d10, #0x70000 :: Qd 0x55505555 0x55505555
70 vbic.i32 d10, #0x70000 :: Qd 0x13181a1b 0x12181e1f
76 vmvn d10, d15 :: Qd 0xffffffe7 0xffffffe7 Qm (i32)0x00000018
77 vmvn d10, d15 :: Qd 0xeae2e6e2 0xebe3e0e3 Qm (i32)0x00000018
83 vmov d10, d15 :: Qd 0x00000018 0x00000018 Qm (i32)0x00000018
84 vmov d10, d15 :: Qd 0x151d191d 0x141c1f1c Qm (i32)0x0000001
    [all...]
vfp.c 1025 "vmov d10, r0, r1\n\t"
1028 "vstmia r1, {d10}\n\t"
1036 "vmov d10, r0, r1\n\t"
1039 "vstmdb r1!, {d10}\n\t"
1048 "d10", "d30", "d31"
1078 TESTINSN_core_to_scalar("vmov.8 d10[1], r5", d10, r5, f2u(NAN));
1089 TESTINSN_scalar_to_core("vmov.32 r4, d10[0]", r4, d10, i32, f2u(-INFINITY));
1100 TESTINSN_scalar_to_core("vmov.u16 r0, d10[1]", r0, d10, i32, 0x11223344)
    [all...]
vfp.stdout.exp 69 vmov.8 d10[1], r5 :: Dd 0x55555555 0x55550055 Dm 0x7fc00000
79 vmov.32 r4, d10[0] :: Rd 0xff800000 Qm (i32)0xff800000
90 vmov.u16 r0, d10[1] :: Rd 0x00001122 Qm (i32)0x11223344
106 vmov.s16 r0, d10[1] :: Rd 0x00001122 Qm (i32)0x11223344
121 vmla.f64 d10, d13, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0x00000000 00000000
122 vmla.f64 d10, d13, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0x7ff80000 00000000
129 vmla.f64 d10, d11, d2 :: Qd 0x41895139 0x98100000 Qm 0x40e7ce60 00000000 Qn 0x40910400 00000000
135 vmla.f64 d10, d11, d2 :: Qd 0x40e9f35f 0xb4bc6b7d Qm 0x407e7964 5a1cac08 Qn 0x405b4000 00000000
141 vmla.f64 d10, d23, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff00000 00000000 Qn 0x00000000 00000000
170 vnmla.f64 d10, d13, d15 :: Qd 0xfff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0x00000000 0000000
    [all...]
  /external/libvpx/libvpx/vp8/encoder/arm/neon/
subtract_neon.asm 87 vsubl.u8 q12, d8, d10
133 vld1.8 {d10}, [r1], r3
145 vsubl.u8 q13, d10, d11
169 vld1.8 {d10}, [r2], r3
181 vsubl.u8 q13, d10, d11
  /external/libvpx/libvpx/vp8/encoder/x86/
fwalsh_sse2.asm 78 pmaddwd xmm0, [GLOBAL(c1)] ; d11 a11 d10 a10
84 pshufd xmm4, xmm0, 0xd8 ; d11 d10 a11 a10
91 punpckhqdq xmm4, xmm5 ; c11 c10 d11 d10
  /external/llvm/test/MC/ARM/
neon-shift-encoding.s 111 vsra.s32 d11, d10, #31
129 @ CHECK: vsra.s32 d11, d10, #31 @ encoding: [0x1a,0xb1,0xa1,0xf2]
147 vsra.u32 d11, d10, #31
165 @ CHECK: vsra.u32 d11, d10, #31 @ encoding: [0x1a,0xb1,0xa1,0xf3]
183 vsri.32 d11, d10, #31
201 @ CHECK: vsri.32 d11, d10, #31 @ encoding: [0x1a,0xb4,0xa1,0xf3]
219 vsli.32 d11, d10, #31
237 @ CHECK: vsli.32 d11, d10, #31 @ encoding: [0x1a,0xb5,0xbf,0xf3]
439 vrshl.u32 d17, d10
456 @ CHECK: vrshl.u32 d17, d17, d10 @ encoding: [0x21,0x15,0x6a,0xf3
    [all...]
neon-vst-encoding.s 58 @ CHECK: vst2.32 {d8, d9, d10, d11}, [r0:256]! @ encoding: [0xbd,0x83,0x00,0xf4]
66 vst3.i32 {d6, d8, d10}, [r5]
76 vst3.16 {d9, d10, d11}, [r7]!
87 @ CHECK: vst3.32 {d6, d8, d10}, [r5] @ encoding: [0x8f,0x65,0x05,0xf4]
95 @ CHECK: vst3.16 {d9, d10, d11}, [r7]! @ encoding: [0x4d,0x94,0x07,0xf4]
182 vst3.i32 {d6[1], d8[1], d10[1]}, [r5]
191 vst3.16 {d9[1], d10[1], d11[1]}, [r7]!
200 @ CHECK: vst3.32 {d6[1], d8[1], d10[1]}, [r5] @ encoding: [0xcf,0x6a,0x85,0xf4]
207 @ CHECK: vst3.16 {d9[1], d10[1], d11[1]}, [r7]! @ encoding: [0x4d,0x96,0x87,0xf4]
269 vst2.8 {d8, d10}, [r4
    [all...]
neon-minmax-encoding.s 6 vmax.u8 d10, d11, d12
38 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0c,0xa6,0x0b,0xf3]
68 vmin.u8 d10, d11, d12
100 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x1c,0xa6,0x0b,0xf3]
neont2-minmax-encoding.s 8 vmax.u8 d10, d11, d12
40 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x0c,0xa6]
70 vmin.u8 d10, d11, d12
102 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x1c,0xa6]
neon-shiftaccum-encoding.s 6 vsra.s64 d11, d10, #64
24 vsra.s64 d10, #64
41 @ CHECK: vsra.s64 d11, d10, #64 @ encoding: [0x9a,0xb1,0x80,0xf2]
58 @ CHECK: vsra.s64 d10, d10, #64 @ encoding: [0x9a,0xa1,0x80,0xf2]
neont2-shiftaccum-encoding.s 8 vsra.s64 d11, d10, #64
26 vsra.s64 d10, #64
43 @ CHECK: vsra.s64 d11, d10, #64 @ encoding: [0x80,0xef,0x9a,0xb1]
60 @ CHECK: vsra.s64 d10, d10, #64 @ encoding: [0x80,0xef,0x9a,0xa1]
neon-vld-encoding.s 162 vld3.i32 {d6, d8, d10}, [r5]
172 vld3.16 {d9, d10, d11}, [r7]!
184 @ CHECK: vld3.32 {d6, d8, d10}, [r5] @ encoding: [0x8f,0x65,0x25,0xf4]
192 @ CHECK: vld3.16 {d9, d10, d11}, [r7]! @ encoding: [0x4d,0x94,0x27,0xf4]
282 vld2.32 {d10[ ],d11[ ]}, [r3]!
298 @ CHECK: vld2.32 {d10[], d11[]}, [r3]! @ encoding: [0x8d,0xad,0xa3,0xf4]
308 vld3.i32 {d6[0], d8[0], d10[0]}, [r5]
317 vld3.16 {d9[2], d10[2], d11[2]}, [r7]!
326 @ CHECK: vld3.32 {d6[0], d8[0], d10[0]}, [r5] @ encoding: [0x4f,0x6a,0xa5,0xf4]
333 @ CHECK: vld3.16 {d9[2], d10[2], d11[2]}, [r7]! @ encoding: [0x8d,0x96,0xa7,0xf4
    [all...]
neont2-mul-accum-encoding.s 32 vmlal.s32 q0, d5, d10[0]
40 @ CHECK: vmlal.s32 q0, d5, d10[0] @ encoding: [0xa5,0xef,0x4a,0x02]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_InterpolateLuma_HalfDiagHorVer4x4_unsafe_s.S 29 VMLA.I16 d10,d2,d31
40 VSUB.I16 d10,d10,d8
128 VADDL.S16 q5,d10,d20
omxVCM4P10_PredictIntraChroma_8x8_s.S 157 VLD1.16 {d10},[r2]!
160 VMUL.I16 d11,d9,d10
161 VMUL.I16 d3,d16,d10
166 VLD1.16 {d10,d11},[r2]
omxVCM4P10_InterpolateLuma_s.S 51 VLD1.8 {d10},[r0]
56 VST1.32 {d10[0]},[r2]
103 VRHADD.U8 d2,d2,d10
236 VRHADD.U8 d0,d0,d10
  /hardware/samsung_slsi/exynos5/libswconverter/
csc_ARGB8888_to_YUV420SP_NEON.s 73 vmov.u16 d10,d1
115 vmov.u16 d10,d1
145 vmov.u16 d10,d1
165 vmov.u16 d10,d1
  /frameworks/av/media/libstagefright/codecs/aacenc/src/asm/ARMV7/
PrePostMDCT_v7.s 43 VLD2.I32 {d8, d9, d10, d11}, [r0] @ tr1 = *(buf0 + 0)@ ti2 = *(buf0 + 1)@
105 VLD2.I32 {d8, d9, d10, d11}, [r0] @ tr1 = *(zbuf1 + 0)@ ti1 = *(zbuf1 + 1)@
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon.S 67 d8, d9, d10, d11
76 vmlal.s16 q8, d10, d1[1]
85 vmlal.s16 q9, d10, d1[0]
444 vld1.8 {d10}, [r1]! @ get Y (r1->Y)
449 vsubl.u8 Q5, d10, d6 @ Y to 16 bit - 16 (in 16bit) (n to n+7)
450 vmull.s16 Q8, d10, d4[0] @ Y(n,n+1,n+2,n+3) * 298 = Q8 (to 32bit)
455 vmov.u16 d11, d10 @ Copying V to d11
457 vzip.u16 d10, d11 @ Q5 = V (n,n n+1, n+1) V(n+2, n+2, n+3, n+3)
472 vmlal.s16 Q8, d10, d4[1] @ R : Q8 = Q8(Y-16) + (V-128) * 409
473 vmlal.s16 Q9, d10, d5[0] @ G : Q9 = Q9(Y-16) + (V-128) * (-208
    [all...]

Completed in 570 milliseconds

12 3