HomeSort by relevance Sort by last modified time
    Searched refs:U16 (Results 1 - 25 of 109) sorted by null

1 2 3 4 5

  /external/libhevc/encoder/
hme_datatype.h 43 typedef UWORD16 U16;
hme_common_utils.c 91 U32 hme_compute_2d_sum_u16(U16 *pu2_inp, S32 i4_wd, S32 i4_ht, S32 i4_stride)
151 else if(i4_datatype == sizeof(U16))
152 return (hme_compute_2d_sum_u16((U16 *)pv_inp, i4_blk_wd, i4_blk_ht, i4_stride));
  /external/skia/src/opts/
SkRasterPipeline_opts.h 130 using U16 = uint16_t;
142 SI U16 pack(U32 v) { return (U16)v; }
143 SI U8 pack(U16 v) { return (U8)v; }
150 SI void load3(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b) {
155 SI void load4(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b, U16* a)
    [all...]
  /external/skqp/src/opts/
SkRasterPipeline_opts.h 130 using U16 = uint16_t;
142 SI U16 pack(U32 v) { return (U16)v; }
143 SI U8 pack(U16 v) { return (U8)v; }
150 SI void load3(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b) {
155 SI void load4(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b, U16* a)
    [all...]
  /external/skia/third_party/skcms/src/
Transform_inl.h 17 // U16: a vector of N uint16_t
77 // x86, GCC tends to pass U16 (4x uint16_t vector) function arguments in the
138 SI F F_from_Half(U16 half) {
165 SI U16 Half_from_F(F f) {
167 return (U16)vcvt_f16_f32(f);
169 return (U16)_mm512_cvtps_ph((__m512 )f, _MM_FROUND_CUR_DIRECTION );
171 return (U16)__builtin_ia32_vcvtps2ph256(f, 0x04/*_MM_FROUND_CUR_DIRECTION*/);
179 return cast<U16>(if_then_else(em < 0x38800000, (U32)F0
186 SI U16 swap_endian_16(U16 v)
    [all...]
  /external/skqp/third_party/skcms/src/
Transform_inl.h 17 // U16: a vector of N uint16_t
77 // x86, GCC tends to pass U16 (4x uint16_t vector) function arguments in the
138 SI F F_from_Half(U16 half) {
165 SI U16 Half_from_F(F f) {
167 return (U16)vcvt_f16_f32(f);
169 return (U16)_mm512_cvtps_ph((__m512 )f, _MM_FROUND_CUR_DIRECTION );
171 return (U16)__builtin_ia32_vcvtps2ph256(f, 0x04/*_MM_FROUND_CUR_DIRECTION*/);
179 return cast<U16>(if_then_else(em < 0x38800000, (U32)F0
186 SI U16 swap_endian_16(U16 v)
    [all...]
  /external/libxaac/decoder/armv7/
ixheaacd_dct3_32.s 72 VMULL.U16 Q15, D4, D12
75 VMULL.U16 Q14, D4, D13
85 VMLAL.U16 Q15, D10, D13
87 VMLSL.U16 Q14, D10, D12
128 VMULL.U16 Q15, D4, D12
129 VMLAL.U16 Q15, D10, D13
130 VMULL.U16 Q14, D4, D13
132 VMLSL.U16 Q14, D10, D12
171 VMULL.U16 Q15, D4, D12
173 VMLAL.U16 Q15, D10, D1
    [all...]
ixheaacd_pre_twiddle_compute.s 124 VMULL.U16 Q15, D2, D9
125 VMULL.U16 Q14, D4, D9
126 VMULL.U16 Q13, D2, D8
127 VMULL.U16 Q12, D4, D8
143 VMULL.U16 Q11, D0, D11
144 VMULL.U16 Q10, D6, D11
145 VMULL.U16 Q9, D0, D10
146 VMULL.U16 Q8, D6, D10
190 VMULL.U16 Q15, D2, D9
192 VMULL.U16 Q14, D4, D
    [all...]
ixheaacd_post_twiddle.s 112 VMULL.U16 Q15, D2, D13
113 VMULL.U16 Q14, D0, D13
114 VMULL.U16 Q13, D2, D12
115 VMULL.U16 Q12, D0, D12
127 VMULL.U16 Q11, D6, D9
128 VMULL.U16 Q10, D4, D9
135 VMULL.U16 Q9, D6, D8
136 VMULL.U16 Q8, D4, D8
157 VMULL.U16 Q0, D26, D10
160 VMULL.U16 Q1, D24, D1
    [all...]
ixheaacd_overlap_add2.s 63 VMULL.U16 Q13, D0, D2
64 VMLSL.U16 Q13, D4, D3
80 VMULL.U16 Q9, D8, D10
82 VMLSL.U16 Q9, D12, D11
84 VMULL.U16 Q13, D0, D2
86 VMLSL.U16 Q13, D4, D3
124 VMULL.U16 Q9, D8, D10
125 VMLSL.U16 Q9, D12, D11
171 VMULL.U16 Q13, D1, D3
172 VMLSL.U16 Q13, D4, D
    [all...]
ixheaacd_post_twiddle_overlap.s 200 VMULL.U16 Q15, D0, D9
203 VMULL.U16 Q14, D2, D8
206 VMULL.U16 Q13, D0, D8
209 VMULL.U16 Q12, D2, D9
237 VMULL.U16 Q11, D4, D8
249 VMULL.U16 Q1, D24, D18
251 VMULL.U16 Q0, D26, D18
261 VMULL.U16 Q12, D4, D9
262 VMULL.U16 Q13, D6, D8
268 VMULL.U16 Q0, D6, D
    [all...]
ixheaacd_dec_DCT2_64_asm.s 104 VMULL.U16 Q15, D20, D8
105 VMLSL.U16 Q15, D18, D10
106 VMULL.U16 Q14, D18, D8
107 VMLAL.U16 Q14, D20, D10
159 VMULL.U16 Q15, D20, D8
161 VMLSL.U16 Q15, D18, D10
163 VMULL.U16 Q14, D18, D8
165 VMLAL.U16 Q14, D20, D10
200 VMULL.U16 Q15, D20, D8
201 VMLSL.U16 Q15, D18, D1
    [all...]
ixheaacd_overlap_add1.s 70 VMULL.U16 Q15, D7, D2
92 VMULL.U16 Q12, D1, D3
125 VMULL.U16 Q15, D7, D2
127 VMULL.U16 Q12, D1, D3
172 VMULL.U16 Q15, D7, D2
177 VMULL.U16 Q12, D1, D3
235 VMULL.U16 Q15, D7, D2
237 VMULL.U16 Q12, D1, D3
  /external/libhevc/encoder/arm/
ihevce_coarse_layer_sad_neon.c 183 U16 *pu2_sad = (U16 *)&pi2_sads_4x4
334 U16 *pu2_sad = (U16 *)&pi2_sads_4x4
493 uint16x8_t mvy_wt = vld1q_u16((U16 *)&gi2_mvy_range[ABS(mvy)][0]);
505 uint16x8_t curr = vld1q_u16((U16 *)pi2_sads_4x4_current + sad_pos);
506 uint16x8_t south = vld1q_u16((U16 *)pi2_sads_4x4_south + sad_pos);
507 uint16x8_t east = vld1q_u16((U16 *)pi2_sads_4x4_east + sad_pos);
512 vld1q_u16((U16 *)&gi2_mvx_range[mvx + MAX_MVX_SUPPORTED_IN_COARSE_LAYER][0]);
515 U16 sad_array[2][8]
    [all...]
  /external/google-breakpad/src/client/linux/dump_writer_common/
thread_info.cc 43 void U16(void* out, uint16_t v) {
108 U16(out->extended_registers + 0, fpregs.cwd);
109 U16(out->extended_registers + 2, fpregs.swd);
110 U16(out->extended_registers + 4, fpregs.twd);
111 U16(out->extended_registers + 6, fpxregs.fop);
113 U16(out->extended_registers + 12, fpxregs.fcs);
115 U16(out->extended_registers + 20, fpregs.fos);
  /external/tensorflow/tensorflow/compiler/xla/
primitive_util.cc 53 return type == U8 || type == U16 || type == U32 || type == U64;
70 case U16:
105 return xla::U16;
primitive_util.h 72 return U16;
179 struct PrimitiveTypeToNative<U16> {
  /external/tensorflow/tensorflow/compiler/xla/python_api/
types.py 98 xla_data_pb2.U16:
100 primitive_type=xla_data_pb2.U16,
  /external/lz4/lib/
lz4.c 178 typedef uint16_t U16;
185 typedef unsigned short U16;
211 static U16 LZ4_read16(const void* memPtr) { return *(const U16*) memPtr; }
215 static void LZ4_write16(void* memPtr, U16 value) { *(U16*)memPtr = value; }
222 typedef union { U16 u16; U32 u32; reg_t uArch; } __attribute__((packed)) unalign; member in union:__anon32388
224 static U16 LZ4_read16(const void* ptr) { return ((const unalign*)ptr)->u16; }
    [all...]
  /external/tensorflow/tensorflow/compiler/tf2xla/
type_util.cc 49 *type = xla::U16;
  /external/libhevc/common/arm/
ihevc_sao_edge_offset_class1.s 194 VMIN.U16 Q10,Q10,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[0]), const_max_clip))
205 VMIN.U16 Q4,Q4,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[1]), const_max_clip))
216 VMIN.U16 Q13,Q13,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[0]), const_max_clip))
219 VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[1]), const_max_clip))
250 VMIN.U16 Q13,Q13,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[0]), const_max_clip))
256 VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[1]), const_max_clip))
331 VMIN.U16 Q10,Q10,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[0]), const_max_clip))
337 VMIN.U16 Q13,Q13,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[0]), const_max_clip))
368 VMIN.U16 Q13,Q13,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[0]), const_max_clip))
ihevc_sao_edge_offset_class1_chroma.s 200 VMIN.U16 Q10,Q10,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[0]), const_max_clip))
215 VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[1]), const_max_clip))
228 VMIN.U16 Q13,Q13,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[0]), const_max_clip))
231 VMIN.U16 Q14,Q14,Q2 @II pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[1]), const_max_clip))
267 VMIN.U16 Q13,Q13,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[0]), const_max_clip))
273 VMIN.U16 Q14,Q14,Q2 @pi2_tmp_cur_row.val[1] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[1]), const_max_clip))
357 VMIN.U16 Q10,Q10,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[0]), const_max_clip))
367 VMIN.U16 Q13,Q13,Q2 @II pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[0]), const_max_clip))
403 VMIN.U16 Q13,Q13,Q2 @pi2_tmp_cur_row.val[0] = vreinterpretq_s16_u16(vminq_u16(vreinterpretq_u16_s16(pi2_tmp_cur_row.val[0]), const_max_clip))
  /external/tensorflow/tensorflow/compiler/xla/client/lib/
comparators.cc 49 unsigned_type = U16;
  /external/u-boot/lib/
lz4_wrapper.c 11 static u16 LZ4_readLE16(const void *src) { return le16_to_cpu(*(u16 *)src); }
16 typedef uint16_t U16;
  /cts/tests/tests/rscpp/librscpptest/
rs_jni_element.cpp 134 passed &= (Element::U16(mRS) != nullptr);
195 sp<const Element> U16 = Element::U16(mRS);
207 U16, U32, U64, U8, U8_3, U8_4 };
270 eb->add(Element::U16(mRS), "U16", arraySize);

Completed in 831 milliseconds

1 2 3 4 5