/external/libyuv/files/include/libyuv/ |
scale_row.h | 107 int dst_width, int dst_height, 114 int dst_width, int dst_height, 122 int dst_width, int dst_height, 141 int dst_width, int dst_height, 146 uint8* dst, int dst_width); 148 uint16* dst, int dst_width); 150 uint8* dst, int dst_width); 152 uint16* dst, int dst_width); 154 uint8* dst, int dst_width); 156 uint8* dst, int dst_width); [all...] |
scale.h | 34 int dst_width, int dst_height, 41 int dst_width, int dst_height, 62 int dst_width, int dst_height, 73 int dst_width, int dst_height, 84 int dst_width, int dst_height, 90 uint8* dst_i420, int dst_width, int dst_height, int dst_yoffset,
|
scale_argb.h | 26 int dst_width, int dst_height, 34 int dst_width, int dst_height, 47 int dst_width, int dst_height,
|
/external/libvpx/libvpx/third_party/libyuv/include/libyuv/ |
scale_row.h | 88 int dst_width, int dst_height, 95 int dst_width, int dst_height, 103 int dst_width, int dst_height, 122 int dst_width, int dst_height, 127 uint8* dst, int dst_width); 129 uint16* dst, int dst_width); 131 uint8* dst, int dst_width); 133 uint16* dst, int dst_width); 135 uint8* dst, int dst_width); 137 uint16* dst, int dst_width); [all...] |
scale.h | 34 int dst_width, int dst_height, 41 int dst_width, int dst_height, 62 int dst_width, int dst_height, 73 int dst_width, int dst_height, 84 int dst_width, int dst_height, 90 uint8* dst_i420, int dst_width, int dst_height, int dst_yoffset,
|
scale_argb.h | 26 int dst_width, int dst_height, 34 int dst_width, int dst_height, 48 int dst_width, int dst_height,
|
/external/libvpx/libvpx/third_party/libyuv/source/ |
scale.cc | 37 int dst_width, int dst_height, 43 uint8* dst_ptr, int dst_width) = 57 if (IS_ALIGNED(dst_width, 16)) { 69 if (IS_ALIGNED(dst_width, 16)) { 81 if (IS_ALIGNED(dst_width, 32)) { 102 ScaleRowDown2(src_ptr, src_stride, dst_ptr, dst_width); 109 int dst_width, int dst_height, 115 uint16* dst_ptr, int dst_width) = 126 if (TestCpuFlag(kCpuHasNEON) && IS_ALIGNED(dst_width, 16)) { 132 if (TestCpuFlag(kCpuHasSSE2) && IS_ALIGNED(dst_width, 16)) [all...] |
scale_common.cc | 32 uint8* dst, int dst_width) { 34 for (x = 0; x < dst_width - 1; x += 2) { 40 if (dst_width & 1) { 46 uint16* dst, int dst_width) { 48 for (x = 0; x < dst_width - 1; x += 2) { 54 if (dst_width & 1) { 60 uint8* dst, int dst_width) { 63 for (x = 0; x < dst_width - 1; x += 2) { 69 if (dst_width & 1) { 75 uint16* dst, int dst_width) { [all...] |
scale_argb.cc | 34 int dst_width, int dst_height, 42 uint8* dst_argb, int dst_width) = 60 if (IS_ALIGNED(dst_width, 4)) { 72 if (IS_ALIGNED(dst_width, 8)) { 84 ScaleARGBRowDown2(src_argb, src_stride, dst_argb, dst_width); 94 int dst_width, int dst_height, 100 const int kRowSize = (dst_width * 2 * 4 + 31) & ~31; 104 uint8* dst_argb, int dst_width) = ScaleARGBRowDown2Box_C; 112 if (IS_ALIGNED(dst_width, 4)) { 120 if (IS_ALIGNED(dst_width, 8)) [all...] |
scale_mips.cc | 25 uint8* dst, int dst_width) { 30 "srl $t9, %[dst_width], 4 \n" // iterations -> by 16 59 "andi $t9, %[dst_width], 0xf \n" // residue 75 : [dst_width] "r" (dst_width) 82 uint8* dst, int dst_width) { 89 "srl $t9, %[dst_width], 3 \n" // iterations -> step 8 146 "andi $t9, %[dst_width], 0x7 \n" // x = residue 175 : [dst_width] "r" (dst_width) [all...] |
scale_any.cc | 24 int dst_width, int x, int dx) { \ 25 int n = dst_width & ~MASK; \ 30 dst_width & MASK, x + n * dx, dx); \ 48 uint8* dst_ptr, int dst_width) { \ 49 int r = (int)((unsigned int)dst_width % (MASK + 1)); \ 50 int n = dst_width - r; \ 148 uint8* dst_ptr, int dst_width) { \ 149 int r = (int)((unsigned int)dst_width % (MASK + 1)); \ 150 int n = dst_width - r; \
|
/external/libyuv/files/source/ |
scale.cc | 37 int dst_width, int dst_height, 43 uint8* dst_ptr, int dst_width) = 57 if (IS_ALIGNED(dst_width, 16)) { 69 if (IS_ALIGNED(dst_width, 16)) { 81 if (IS_ALIGNED(dst_width, 32)) { 102 ScaleRowDown2(src_ptr, src_stride, dst_ptr, dst_width); 109 int dst_width, int dst_height, 115 uint16* dst_ptr, int dst_width) = 126 if (TestCpuFlag(kCpuHasNEON) && IS_ALIGNED(dst_width, 16)) { 132 if (TestCpuFlag(kCpuHasSSE2) && IS_ALIGNED(dst_width, 16)) [all...] |
scale_common.cc | 32 uint8* dst, int dst_width) { 34 for (x = 0; x < dst_width - 1; x += 2) { 40 if (dst_width & 1) { 46 uint16* dst, int dst_width) { 48 for (x = 0; x < dst_width - 1; x += 2) { 54 if (dst_width & 1) { 60 uint8* dst, int dst_width) { 63 for (x = 0; x < dst_width - 1; x += 2) { 69 if (dst_width & 1) { 75 uint16* dst, int dst_width) { [all...] |
scale_argb.cc | 34 int dst_width, int dst_height, 42 uint8* dst_argb, int dst_width) = 60 if (IS_ALIGNED(dst_width, 4)) { 72 if (IS_ALIGNED(dst_width, 8)) { 84 ScaleARGBRowDown2(src_argb, src_stride, dst_argb, dst_width); 94 int dst_width, int dst_height, 100 const int kRowSize = (dst_width * 2 * 4 + 31) & ~31; 104 uint8* dst_argb, int dst_width) = ScaleARGBRowDown2Box_C; 112 if (IS_ALIGNED(dst_width, 4)) { 120 if (IS_ALIGNED(dst_width, 8)) [all...] |
scale_any.cc | 24 int dst_width, int x, int dx) { \ 25 int n = dst_width & ~MASK; \ 30 dst_width & MASK, x + n * dx, dx); \ 48 uint8* dst_ptr, int dst_width) { \ 49 int r = (int)((unsigned int)dst_width % (MASK + 1)); \ 50 int n = dst_width - r; \ 59 // Since dst_width is (width + 1) / 2, this function scales one less pixel 63 uint8* dst_ptr, int dst_width) { \ 64 int r = (int)((unsigned int)(dst_width - 1) % (MASK + 1)); \ 65 int n = dst_width - r; [all...] |
scale_mips.cc | 25 uint8* dst, int dst_width) { 30 "srl $t9, %[dst_width], 4 \n" // iterations -> by 16 58 "andi $t9, %[dst_width], 0xf \n" // residue 74 : [dst_width] "r" (dst_width) 81 uint8* dst, int dst_width) { 88 "srl $t9, %[dst_width], 3 \n" // iterations -> step 8 144 "andi $t9, %[dst_width], 0x7 \n" // x = residue 173 : [dst_width] "r" (dst_width) [all...] |
/external/libyuv/files/unit_test/ |
rotate_test.cc | 20 int dst_width, int dst_height, 30 if (dst_width < 1) { 31 dst_width = 1; 44 int dst_i420_y_size = dst_width * dst_height; 45 int dst_i420_uv_size = ((dst_width + 1) / 2) * ((dst_height + 1) / 2); 56 dst_i420_c, dst_width, 57 dst_i420_c + dst_i420_y_size, (dst_width + 1) / 2, 59 (dst_width + 1) / 2, 68 dst_i420_opt, dst_width, 69 dst_i420_opt + dst_i420_y_size, (dst_width + 1) / 2 [all...] |
rotate_argb_test.cc | 20 int dst_width, int dst_height, 32 if (dst_width < 1) { 33 dst_width = 1; 45 int dst_stride_argb = dst_width * kBpp; 89 int dst_width, int dst_height, 95 dst_width, dst_height, 129 int dst_width, int dst_height, 135 dst_width, dst_height,
|
scale_argb_test.cc | 27 int dst_width, int dst_height, 30 if (!SizeValid(src_width, src_height, dst_width, dst_height)) { 47 int64 dst_argb_plane_size = (dst_width + b * 2) * (dst_height + b * 2) * 4LL; 48 int dst_stride_argb = (b * 2 + dst_width) * 4; 64 dst_width, dst_height, f); 69 dst_width, dst_height, f); 76 dst_width, dst_height, f); 86 dst_width, dst_height, f); 100 for (j = b * 4; j < (dst_width + b) * 4; ++j) { 121 int dst_width, int dst_height [all...] |
scale_test.cc | 25 int dst_width, int dst_height, 28 if (!SizeValid(src_width, src_height, dst_width, dst_height)) { 54 int dst_width_uv = (dst_width + 1) >> 1; 57 int64 dst_y_plane_size = (dst_width + b * 2) * (dst_height + b * 2); 60 int dst_stride_y = b * 2 + dst_width; 84 dst_width, dst_height, f); 97 dst_width, dst_height, f); 112 for (j = b; j < (dst_width + b); ++j) { 153 int dst_width, int dst_height, 155 if (!SizeValid(src_width, src_height, dst_width, dst_height)) [all...] |
/external/mesa3d/src/gallium/auxiliary/gallivm/ |
lp_bld_gather.c | 77 unsigned dst_width, 84 LLVMTypeRef dst_elem_type = LLVMIntTypeInContext(gallivm->context, dst_width); 94 assert(src_width <= dst_width); 95 if (src_width > dst_width) 97 if (src_width < dst_width) 107 * For SSE, typical values are length=4, src_width=32, dst_width=32. 111 * @param dst_width result element width in bits (src will be expanded to fit) 119 unsigned dst_width, 128 src_width, dst_width, 133 LLVMTypeRef dst_elem_type = LLVMIntTypeInContext(gallivm->context, dst_width); [all...] |
/external/libyuv/files/util/ |
convert.cc | 32 int dst_width = 0, dst_height = 0; // new width and height variable 95 dst_width = atoi(argv[++c]); // NOLINT 147 if (dst_width == 0 || dst_height == 0) { 149 dst_width = rec_width; 152 dst_width = Abs(image_width); 164 int dst_width, int dst_height, 167 for (int x = 0; x < dst_width; x += kTileX) { 169 if (x + clip_width > dst_width) { 170 clip_width = dst_width - x; 179 dst_width, dst_height [all...] |
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/third_party/libyuv/source/ |
scale.c | 64 uint8* dst, int dst_width) { 73 "+r"(dst_width) // %2 80 uint8* dst, int dst_width) { 98 "+r"(dst_width) // %3 106 uint8* dst_ptr, int dst_width) { 118 "+r"(dst_width) // %2 125 uint8* dst_ptr, int dst_width) { 153 "+r"(dst_width) // %2 164 uint8* dst_ptr, int dst_width) { 174 "+r"(dst_width) // % [all...] |
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/third_party/libyuv/include/libyuv/ |
scale.h | 45 int dst_width, int dst_height, 54 int dst_width, int dst_height, 59 uint8* dst, int dst_width, int dst_height, int dst_yoffset,
|
/external/libyuv/files/docs/ |
filtering.md | 16 If scaling down, the stepping rate is always src_width / dst_width. 18 dx = src_width / dst_width; 45 **Point** upsampling use stepping rate of src_width / dst_width and a starting coordinate of 0. 48 dx = src_width / dst_width; 55 dx = (src_width - 1) / (dst_width - 1); 64 dx = (src_width - 1) / (dst_width - 1); 82 int dst_width, int dst_height, 91 assert(dst_width > 0); 95 *dx = FixedDiv(Abs(src_width), dst_width); 101 if (dst_width <= Abs(src_width)) [all...] |