Home | History | Annotate | Download | only in stdlib

Lines Matching defs:mem

229     void  tlfree(void* mem) { mspace_free(tlms, mem); }
1092 void mspace_free(mspace msp, void* mem);
1103 void* mspace_realloc(mspace msp, void* mem, size_t newsize);
1535 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1548 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1557 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1570 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1585 Chunks always begin on even word boundaries, so the mem portion
1678 #define mem2chunk(mem) ((mchunkptr)((char*)(mem) - TWO_SIZE_T_SIZES))
1770 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1791 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
2226 static void do_check_malloced_chunk(mstate m, void* mem, size_t s);
2632 static void do_check_malloced_chunk(mstate m, void* mem, size_t s) {
2633 if (mem != 0) {
2634 mchunkptr p = mem2chunk(mem);
3139 #define internal_free(m, mem) mspace_free(m,mem);
3144 #define internal_free(m, mem)\
3145 if (m == gm) dlfree(mem); else mspace_free(m,mem);
3148 #define internal_free(m, mem) dlfree(mem)
3380 void* mem = mmap_alloc(m, nb);
3381 if (mem != 0)
3382 return mem;
3426 /* Use mem here only if it did continuously extend old space */
3872 char* mem = (char*)internal_malloc(m, req);
3873 if (mem != 0) {
3876 mchunkptr p = mem2chunk(mem);
3879 if ((((size_t)(mem)) % alignment) != 0) { /* misaligned */
3888 char* br = (char*)mem2chunk((size_t)(((size_t)(mem +
3957 void* mem; /* malloced aggregate space */
4002 mem = internal_malloc(m, size - CHUNK_OVERHEAD);
4005 if (mem == 0)
4009 p = mem2chunk(mem);
4015 memset((size_t*)mem, 0, remainder_size - SIZE_T_SIZE - array_size);
4096 void* mem;
4113 mem = chunk2mem(p);
4114 check_malloced_chunk(gm, mem, nb);
4140 mem = chunk2mem(p);
4141 check_malloced_chunk(gm, mem, nb);
4145 else if (gm->treemap != 0 && (mem = tmalloc_small(gm, nb)) != 0) {
4146 check_malloced_chunk(gm, mem, nb);
4155 if (gm->treemap != 0 && (mem = tmalloc_large(gm, nb)) != 0) {
4156 check_malloced_chunk(gm, mem, nb);
4176 mem = chunk2mem(p);
4177 check_malloced_chunk(gm, mem, nb);
4187 mem = chunk2mem(p);
4189 check_malloced_chunk(gm, mem, nb);
4193 mem = sys_alloc(gm, nb);
4197 return mem;
4203 void dlfree(void* mem) {
4210 if (mem != 0) {
4211 mchunkptr p = mem2chunk(mem);
4304 void* mem;
4312 mem = dlmalloc(req);
4313 if (mem != 0 && calloc_must_clear(mem2chunk(mem)))
4314 memset(mem, 0, req);
4315 return mem;
4397 size_t dlmalloc_usable_size(void* mem) {
4398 if (mem != 0) {
4399 mchunkptr p = mem2chunk(mem);
4503 void* mem;
4520 mem = chunk2mem(p);
4521 check_malloced_chunk(ms, mem, nb);
4547 mem = chunk2mem(p);
4548 check_malloced_chunk(ms, mem, nb);
4552 else if (ms->treemap != 0 && (mem = tmalloc_small(ms, nb)) != 0) {
4553 check_malloced_chunk(ms, mem, nb);
4562 if (ms->treemap != 0 && (mem = tmalloc_large(ms, nb)) != 0) {
4563 check_malloced_chunk(ms, mem, nb);
4583 mem = chunk2mem(p);
4584 check_malloced_chunk(ms, mem, nb);
4594 mem = chunk2mem(p);
4596 check_malloced_chunk(ms, mem, nb);
4600 mem = sys_alloc(ms, nb);
4604 return mem;
4610 void mspace_free(mspace msp, void* mem) {
4611 if (mem != 0) {
4612 mchunkptr p = mem2chunk(mem);
4702 void* mem;
4715 mem = internal_malloc(ms, req);
4716 if (mem != 0 && calloc_must_clear(mem2chunk(mem)))
4717 memset(mem, 0, req);
4718 return mem;