HomeSort by relevance Sort by last modified time
    Searched full:dst_width (Results 1 - 25 of 117) sorted by null

1 2 3 4 5

  /external/libyuv/files/include/libyuv/
scale_row.h 107 int dst_width, int dst_height,
114 int dst_width, int dst_height,
122 int dst_width, int dst_height,
141 int dst_width, int dst_height,
146 uint8* dst, int dst_width);
148 uint16* dst, int dst_width);
150 uint8* dst, int dst_width);
152 uint16* dst, int dst_width);
154 uint8* dst, int dst_width);
156 uint8* dst, int dst_width);
    [all...]
scale.h 34 int dst_width, int dst_height,
41 int dst_width, int dst_height,
62 int dst_width, int dst_height,
73 int dst_width, int dst_height,
84 int dst_width, int dst_height,
90 uint8* dst_i420, int dst_width, int dst_height, int dst_yoffset,
scale_argb.h 26 int dst_width, int dst_height,
34 int dst_width, int dst_height,
47 int dst_width, int dst_height,
  /external/libvpx/libvpx/third_party/libyuv/include/libyuv/
scale_row.h 88 int dst_width, int dst_height,
95 int dst_width, int dst_height,
103 int dst_width, int dst_height,
122 int dst_width, int dst_height,
127 uint8* dst, int dst_width);
129 uint16* dst, int dst_width);
131 uint8* dst, int dst_width);
133 uint16* dst, int dst_width);
135 uint8* dst, int dst_width);
137 uint16* dst, int dst_width);
    [all...]
scale.h 34 int dst_width, int dst_height,
41 int dst_width, int dst_height,
62 int dst_width, int dst_height,
73 int dst_width, int dst_height,
84 int dst_width, int dst_height,
90 uint8* dst_i420, int dst_width, int dst_height, int dst_yoffset,
scale_argb.h 26 int dst_width, int dst_height,
34 int dst_width, int dst_height,
48 int dst_width, int dst_height,
  /external/libvpx/libvpx/third_party/libyuv/source/
scale.cc 37 int dst_width, int dst_height,
43 uint8* dst_ptr, int dst_width) =
57 if (IS_ALIGNED(dst_width, 16)) {
69 if (IS_ALIGNED(dst_width, 16)) {
81 if (IS_ALIGNED(dst_width, 32)) {
102 ScaleRowDown2(src_ptr, src_stride, dst_ptr, dst_width);
109 int dst_width, int dst_height,
115 uint16* dst_ptr, int dst_width) =
126 if (TestCpuFlag(kCpuHasNEON) && IS_ALIGNED(dst_width, 16)) {
132 if (TestCpuFlag(kCpuHasSSE2) && IS_ALIGNED(dst_width, 16))
    [all...]
scale_common.cc 32 uint8* dst, int dst_width) {
34 for (x = 0; x < dst_width - 1; x += 2) {
40 if (dst_width & 1) {
46 uint16* dst, int dst_width) {
48 for (x = 0; x < dst_width - 1; x += 2) {
54 if (dst_width & 1) {
60 uint8* dst, int dst_width) {
63 for (x = 0; x < dst_width - 1; x += 2) {
69 if (dst_width & 1) {
75 uint16* dst, int dst_width) {
    [all...]
scale_argb.cc 34 int dst_width, int dst_height,
42 uint8* dst_argb, int dst_width) =
60 if (IS_ALIGNED(dst_width, 4)) {
72 if (IS_ALIGNED(dst_width, 8)) {
84 ScaleARGBRowDown2(src_argb, src_stride, dst_argb, dst_width);
94 int dst_width, int dst_height,
100 const int kRowSize = (dst_width * 2 * 4 + 31) & ~31;
104 uint8* dst_argb, int dst_width) = ScaleARGBRowDown2Box_C;
112 if (IS_ALIGNED(dst_width, 4)) {
120 if (IS_ALIGNED(dst_width, 8))
    [all...]
scale_mips.cc 25 uint8* dst, int dst_width) {
30 "srl $t9, %[dst_width], 4 \n" // iterations -> by 16
59 "andi $t9, %[dst_width], 0xf \n" // residue
75 : [dst_width] "r" (dst_width)
82 uint8* dst, int dst_width) {
89 "srl $t9, %[dst_width], 3 \n" // iterations -> step 8
146 "andi $t9, %[dst_width], 0x7 \n" // x = residue
175 : [dst_width] "r" (dst_width)
    [all...]
scale_any.cc 24 int dst_width, int x, int dx) { \
25 int n = dst_width & ~MASK; \
30 dst_width & MASK, x + n * dx, dx); \
48 uint8* dst_ptr, int dst_width) { \
49 int r = (int)((unsigned int)dst_width % (MASK + 1)); \
50 int n = dst_width - r; \
148 uint8* dst_ptr, int dst_width) { \
149 int r = (int)((unsigned int)dst_width % (MASK + 1)); \
150 int n = dst_width - r; \
  /external/libyuv/files/source/
scale.cc 37 int dst_width, int dst_height,
43 uint8* dst_ptr, int dst_width) =
57 if (IS_ALIGNED(dst_width, 16)) {
69 if (IS_ALIGNED(dst_width, 16)) {
81 if (IS_ALIGNED(dst_width, 32)) {
102 ScaleRowDown2(src_ptr, src_stride, dst_ptr, dst_width);
109 int dst_width, int dst_height,
115 uint16* dst_ptr, int dst_width) =
126 if (TestCpuFlag(kCpuHasNEON) && IS_ALIGNED(dst_width, 16)) {
132 if (TestCpuFlag(kCpuHasSSE2) && IS_ALIGNED(dst_width, 16))
    [all...]
scale_common.cc 32 uint8* dst, int dst_width) {
34 for (x = 0; x < dst_width - 1; x += 2) {
40 if (dst_width & 1) {
46 uint16* dst, int dst_width) {
48 for (x = 0; x < dst_width - 1; x += 2) {
54 if (dst_width & 1) {
60 uint8* dst, int dst_width) {
63 for (x = 0; x < dst_width - 1; x += 2) {
69 if (dst_width & 1) {
75 uint16* dst, int dst_width) {
    [all...]
scale_argb.cc 34 int dst_width, int dst_height,
42 uint8* dst_argb, int dst_width) =
60 if (IS_ALIGNED(dst_width, 4)) {
72 if (IS_ALIGNED(dst_width, 8)) {
84 ScaleARGBRowDown2(src_argb, src_stride, dst_argb, dst_width);
94 int dst_width, int dst_height,
100 const int kRowSize = (dst_width * 2 * 4 + 31) & ~31;
104 uint8* dst_argb, int dst_width) = ScaleARGBRowDown2Box_C;
112 if (IS_ALIGNED(dst_width, 4)) {
120 if (IS_ALIGNED(dst_width, 8))
    [all...]
scale_any.cc 24 int dst_width, int x, int dx) { \
25 int n = dst_width & ~MASK; \
30 dst_width & MASK, x + n * dx, dx); \
48 uint8* dst_ptr, int dst_width) { \
49 int r = (int)((unsigned int)dst_width % (MASK + 1)); \
50 int n = dst_width - r; \
59 // Since dst_width is (width + 1) / 2, this function scales one less pixel
63 uint8* dst_ptr, int dst_width) { \
64 int r = (int)((unsigned int)(dst_width - 1) % (MASK + 1)); \
65 int n = dst_width - r;
    [all...]
scale_mips.cc 25 uint8* dst, int dst_width) {
30 "srl $t9, %[dst_width], 4 \n" // iterations -> by 16
58 "andi $t9, %[dst_width], 0xf \n" // residue
74 : [dst_width] "r" (dst_width)
81 uint8* dst, int dst_width) {
88 "srl $t9, %[dst_width], 3 \n" // iterations -> step 8
144 "andi $t9, %[dst_width], 0x7 \n" // x = residue
173 : [dst_width] "r" (dst_width)
    [all...]
  /external/libyuv/files/unit_test/
rotate_test.cc 20 int dst_width, int dst_height,
30 if (dst_width < 1) {
31 dst_width = 1;
44 int dst_i420_y_size = dst_width * dst_height;
45 int dst_i420_uv_size = ((dst_width + 1) / 2) * ((dst_height + 1) / 2);
56 dst_i420_c, dst_width,
57 dst_i420_c + dst_i420_y_size, (dst_width + 1) / 2,
59 (dst_width + 1) / 2,
68 dst_i420_opt, dst_width,
69 dst_i420_opt + dst_i420_y_size, (dst_width + 1) / 2
    [all...]
rotate_argb_test.cc 20 int dst_width, int dst_height,
32 if (dst_width < 1) {
33 dst_width = 1;
45 int dst_stride_argb = dst_width * kBpp;
89 int dst_width, int dst_height,
95 dst_width, dst_height,
129 int dst_width, int dst_height,
135 dst_width, dst_height,
scale_argb_test.cc 27 int dst_width, int dst_height,
30 if (!SizeValid(src_width, src_height, dst_width, dst_height)) {
47 int64 dst_argb_plane_size = (dst_width + b * 2) * (dst_height + b * 2) * 4LL;
48 int dst_stride_argb = (b * 2 + dst_width) * 4;
64 dst_width, dst_height, f);
69 dst_width, dst_height, f);
76 dst_width, dst_height, f);
86 dst_width, dst_height, f);
100 for (j = b * 4; j < (dst_width + b) * 4; ++j) {
121 int dst_width, int dst_height
    [all...]
scale_test.cc 25 int dst_width, int dst_height,
28 if (!SizeValid(src_width, src_height, dst_width, dst_height)) {
54 int dst_width_uv = (dst_width + 1) >> 1;
57 int64 dst_y_plane_size = (dst_width + b * 2) * (dst_height + b * 2);
60 int dst_stride_y = b * 2 + dst_width;
84 dst_width, dst_height, f);
97 dst_width, dst_height, f);
112 for (j = b; j < (dst_width + b); ++j) {
153 int dst_width, int dst_height,
155 if (!SizeValid(src_width, src_height, dst_width, dst_height))
    [all...]
  /external/mesa3d/src/gallium/auxiliary/gallivm/
lp_bld_gather.c 77 unsigned dst_width,
84 LLVMTypeRef dst_elem_type = LLVMIntTypeInContext(gallivm->context, dst_width);
94 assert(src_width <= dst_width);
95 if (src_width > dst_width)
97 if (src_width < dst_width)
107 * For SSE, typical values are length=4, src_width=32, dst_width=32.
111 * @param dst_width result element width in bits (src will be expanded to fit)
119 unsigned dst_width,
128 src_width, dst_width,
133 LLVMTypeRef dst_elem_type = LLVMIntTypeInContext(gallivm->context, dst_width);
    [all...]
  /external/libyuv/files/util/
convert.cc 32 int dst_width = 0, dst_height = 0; // new width and height variable
95 dst_width = atoi(argv[++c]); // NOLINT
147 if (dst_width == 0 || dst_height == 0) {
149 dst_width = rec_width;
152 dst_width = Abs(image_width);
164 int dst_width, int dst_height,
167 for (int x = 0; x < dst_width; x += kTileX) {
169 if (x + clip_width > dst_width) {
170 clip_width = dst_width - x;
179 dst_width, dst_height
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/third_party/libyuv/source/
scale.c 64 uint8* dst, int dst_width) {
73 "+r"(dst_width) // %2
80 uint8* dst, int dst_width) {
98 "+r"(dst_width) // %3
106 uint8* dst_ptr, int dst_width) {
118 "+r"(dst_width) // %2
125 uint8* dst_ptr, int dst_width) {
153 "+r"(dst_width) // %2
164 uint8* dst_ptr, int dst_width) {
174 "+r"(dst_width) // %
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/third_party/libyuv/include/libyuv/
scale.h 45 int dst_width, int dst_height,
54 int dst_width, int dst_height,
59 uint8* dst, int dst_width, int dst_height, int dst_yoffset,
  /external/libyuv/files/docs/
filtering.md 16 If scaling down, the stepping rate is always src_width / dst_width.
18 dx = src_width / dst_width;
45 **Point** upsampling use stepping rate of src_width / dst_width and a starting coordinate of 0.
48 dx = src_width / dst_width;
55 dx = (src_width - 1) / (dst_width - 1);
64 dx = (src_width - 1) / (dst_width - 1);
82 int dst_width, int dst_height,
91 assert(dst_width > 0);
95 *dx = FixedDiv(Abs(src_width), dst_width);
101 if (dst_width <= Abs(src_width))
    [all...]

Completed in 849 milliseconds

1 2 3 4 5