Lines Matching defs:mem
193 void tlfree(void* mem) { mspace_free(tlms, mem); }
1048 void mspace_free(mspace msp, void* mem);
1059 void* mspace_realloc(mspace msp, void* mem, size_t newsize);
1489 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1502 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1511 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1524 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1539 Chunks always begin on even word boundaries, so the mem portion
1632 #define mem2chunk(mem) ((mchunkptr)((char*)(mem) - TWO_SIZE_T_SIZES))
1724 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1745 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
2216 static void do_check_malloced_chunk(mstate m, void* mem, size_t s);
2622 static void do_check_malloced_chunk(mstate m, void* mem, size_t s) {
2623 if (mem != 0) {
2624 mchunkptr p = mem2chunk(mem);
3127 #define internal_free(m, mem) mspace_free(m,mem);
3132 #define internal_free(m, mem)\
3133 if (m == gm) dlfree(mem); else mspace_free(m,mem);
3136 #define internal_free(m, mem) dlfree(mem)
3368 void* mem = mmap_alloc(m, nb);
3369 if (mem != 0)
3370 return mem;
3414 /* Use mem here only if it did continuously extend old space */
3862 char* mem = (char*)internal_malloc(m, req);
3863 if (mem != 0) {
3866 mchunkptr p = mem2chunk(mem);
3869 if ((((size_t)(mem)) % alignment) != 0) { /* misaligned */
3878 char* br = (char*)mem2chunk((size_t)(((size_t)(mem +
3947 void* mem; /* malloced aggregate space */
3992 mem = internal_malloc(m, size - CHUNK_OVERHEAD);
3995 if (mem == 0)
3999 p = mem2chunk(mem);
4005 memset((size_t*)mem, 0, remainder_size - SIZE_T_SIZE - array_size);
4086 void* mem;
4103 mem = chunk2mem(p);
4104 check_malloced_chunk(gm, mem, nb);
4130 mem = chunk2mem(p);
4131 check_malloced_chunk(gm, mem, nb);
4135 else if (gm->treemap != 0 && (mem = tmalloc_small(gm, nb)) != 0) {
4136 check_malloced_chunk(gm, mem, nb);
4145 if (gm->treemap != 0 && (mem = tmalloc_large(gm, nb)) != 0) {
4146 check_malloced_chunk(gm, mem, nb);
4166 mem = chunk2mem(p);
4167 check_malloced_chunk(gm, mem, nb);
4177 mem = chunk2mem(p);
4179 check_malloced_chunk(gm, mem, nb);
4183 mem = sys_alloc(gm, nb);
4187 return mem;
4193 void dlfree(void* mem) {
4200 if (mem != 0) {
4201 mchunkptr p = mem2chunk(mem);
4294 void* mem;
4302 mem = dlmalloc(req);
4303 if (mem != 0 && calloc_must_clear(mem2chunk(mem)))
4304 memset(mem, 0, req);
4305 return mem;
4387 size_t dlmalloc_usable_size(void* mem) {
4388 if (mem != 0) {
4389 mchunkptr p = mem2chunk(mem);
4493 void* mem;
4510 mem = chunk2mem(p);
4511 check_malloced_chunk(ms, mem, nb);
4537 mem = chunk2mem(p);
4538 check_malloced_chunk(ms, mem, nb);
4542 else if (ms->treemap != 0 && (mem = tmalloc_small(ms, nb)) != 0) {
4543 check_malloced_chunk(ms, mem, nb);
4552 if (ms->treemap != 0 && (mem = tmalloc_large(ms, nb)) != 0) {
4553 check_malloced_chunk(ms, mem, nb);
4573 mem = chunk2mem(p);
4574 check_malloced_chunk(ms, mem, nb);
4584 mem = chunk2mem(p);
4586 check_malloced_chunk(ms, mem, nb);
4590 mem = sys_alloc(ms, nb);
4594 return mem;
4600 void mspace_free(mspace msp, void* mem) {
4601 if (mem != 0) {
4602 mchunkptr p = mem2chunk(mem);
4692 void* mem;
4705 mem = internal_malloc(ms, req);
4706 if (mem != 0 && calloc_must_clear(mem2chunk(mem)))
4707 memset(mem, 0, req);
4708 return mem;