Home | History | Annotate | Download | only in upstream-dlmalloc

Lines Matching defs:mem

209     void  tlfree(void* mem) { mspace_free(tlms, mem); }
1334 DLMALLOC_EXPORT void mspace_free(mspace msp, void* mem);
1345 DLMALLOC_EXPORT void* mspace_realloc(mspace msp, void* mem, size_t newsize);
1397 DLMALLOC_EXPORT size_t mspace_usable_size(const void* mem);
2076 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
2089 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
2098 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
2111 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
2126 Chunks always begin on even word boundaries, so the mem portion
2219 #define mem2chunk(mem) ((mchunkptr)((char*)(mem) - TWO_SIZE_T_SIZES))
2315 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
2336 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
2813 static void do_check_malloced_chunk(mstate m, void* mem, size_t s);
3301 static void do_check_malloced_chunk(mstate m, void* mem, size_t s) {
3302 if (mem != 0) {
3303 mchunkptr p = mem2chunk(mem);
3818 #define internal_free(m, mem) mspace_free(m,mem);
3823 #define internal_free(m, mem)\
3824 if (m == gm) dlfree(mem); else mspace_free(m,mem);
3827 #define internal_free(m, mem) dlfree(mem)
4063 void* mem = mmap_alloc(m, nb);
4064 if (mem != 0)
4065 return mem;
4133 /* Use mem here only if it did continuously extend old space */
4597 void* mem;
4614 mem = chunk2mem(p);
4615 check_malloced_chunk(gm, mem, nb);
4641 mem = chunk2mem(p);
4642 check_malloced_chunk(gm, mem, nb);
4646 else if (gm->treemap != 0 && (mem = tmalloc_small(gm, nb)) != 0) {
4647 check_malloced_chunk(gm, mem, nb);
4656 if (gm->treemap != 0 && (mem = tmalloc_large(gm, nb)) != 0) {
4657 check_malloced_chunk(gm, mem, nb);
4677 mem = chunk2mem(p);
4678 check_malloced_chunk(gm, mem, nb);
4688 mem = chunk2mem(p);
4690 check_malloced_chunk(gm, mem, nb);
4694 mem = sys_alloc(gm, nb);
4698 return mem;
4706 void dlfree(void* mem) {
4713 if (mem != 0) {
4714 mchunkptr p = mem2chunk(mem);
4816 void* mem;
4824 mem = dlmalloc(req);
4825 if (mem != 0 && calloc_must_clear(mem2chunk(mem)))
4826 memset(mem, 0, req);
4827 return mem;
4915 void* mem = 0;
4931 mem = internal_malloc(m, req);
4932 if (mem != 0) {
4933 mchunkptr p = mem2chunk(mem);
4936 if ((((size_t)(mem)) & (alignment - 1)) != 0) { /* misaligned */
4945 char* br = (char*)mem2chunk((size_t)(((size_t)((char*)mem + alignment -
4978 mem = chunk2mem(p);
4980 assert(((size_t)mem & (alignment - 1)) == 0);
4985 return mem;
5004 void* mem; /* malloced aggregate space */
5050 mem = internal_malloc(m, size - CHUNK_OVERHEAD);
5053 if (mem == 0)
5057 p = mem2chunk(mem);
5063 memset((size_t*)mem, 0, remainder_size - SIZE_T_SIZE - array_size);
5127 void* mem = *a;
5128 if (mem != 0) {
5129 mchunkptr p = mem2chunk(mem);
5210 void* mem = 0;
5212 mem = dlmalloc(bytes);
5239 mem = chunk2mem(newp);
5242 mem = internal_malloc(m, bytes);
5243 if (mem != 0) {
5245 memcpy(mem, oldmem, (oc < bytes)? oc : bytes);
5251 return mem;
5255 void* mem = 0;
5277 mem = oldmem;
5282 return mem;
5293 void* mem = 0;
5295 mem = dlmalloc(bytes);
5304 mem = internal_memalign(gm, alignment, bytes);
5307 if (mem == 0)
5310 *pp = mem;
5416 size_t dlmalloc_usable_size(const void* mem) {
5418 if (mem != 0) {
5419 mchunkptr p = mem2chunk(mem);
5540 void* mem;
5557 mem = chunk2mem(p);
5558 check_malloced_chunk(ms, mem, nb);
5584 mem = chunk2mem(p);
5585 check_malloced_chunk(ms, mem, nb);
5589 else if (ms->treemap != 0 && (mem = tmalloc_small(ms, nb)) != 0) {
5590 check_malloced_chunk(ms, mem, nb);
5599 if (ms->treemap != 0 && (mem = tmalloc_large(ms, nb)) != 0) {
5600 check_malloced_chunk(ms, mem, nb);
5620 mem = chunk2mem(p);
5621 check_malloced_chunk(ms, mem, nb);
5631 mem = chunk2mem(p);
5633 check_malloced_chunk(ms, mem, nb);
5637 mem = sys_alloc(ms, nb);
5641 return mem;
5647 void mspace_free(mspace msp, void* mem) {
5648 if (mem != 0) {
5649 mchunkptr p = mem2chunk(mem);
5749 void* mem;
5762 mem = internal_malloc(ms, req);
5763 if (mem != 0 && calloc_must_clear(mem2chunk(mem)))
5764 memset(mem, 0, req);
5765 return mem;
5769 void* mem = 0;
5771 mem = mspace_malloc(msp, bytes);
5798 mem = chunk2mem(newp);
5801 mem = mspace_malloc(m, bytes);
5802 if (mem != 0) {
5804 memcpy(mem, oldmem, (oc < bytes)? oc : bytes);
5810 return mem;
5814 void* mem = 0;
5837 mem = oldmem;
5842 return mem;
5993 size_t mspace_usable_size(const void* mem) {
5994 if (mem != 0) {
5995 mchunkptr p = mem2chunk(mem);