Home | History | Annotate | Download | only in mpreal

Lines Matching defs:mem

199     void  tlfree(void* mem) { mspace_free(tlms, mem); }

1185 void mspace_free(mspace msp, void* mem);
1196 void* mspace_realloc(mspace msp, void* mem, size_t newsize);
1248 size_t mspace_usable_size(void* mem);
1950 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1963 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1972 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1985 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
2000 Chunks always begin on even word boundaries, so the mem portion
2093 #define mem2chunk(mem) ((mchunkptr)((char*)(mem) - TWO_SIZE_T_SIZES))
2186 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
2207 mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
2672 static void do_check_malloced_chunk(mstate m, void* mem, size_t s);
3134 static void do_check_malloced_chunk(mstate m, void* mem, size_t s) {
3135 if (mem != 0) {
3136 mchunkptr p = mem2chunk(mem);
3643 #define internal_free(m, mem) mspace_free(m,mem);
3648 #define internal_free(m, mem)\
3649 if (m == gm) dlfree(mem); else mspace_free(m,mem);
3652 #define internal_free(m, mem) dlfree(mem)
3880 void* mem = mmap_alloc(m, nb);
3881 if (mem != 0)
3882 return mem;
3931 /* Use mem
4393 char* mem = (char*)internal_malloc(m, req);
4394 if (mem != 0) {
4397 mchunkptr p = mem2chunk(mem);
4400 if ((((size_t)(mem)) % alignment) != 0) { /* misaligned */
4409 char* br = (char*)mem2chunk((size_t)(((size_t)(mem +
4478 void* mem; /* malloced aggregate space */
4524 mem = internal_malloc(m, size - CHUNK_OVERHEAD);
4527 if (mem == 0)
4531 p = mem2chunk(mem);
4537 memset((size_t*)mem, 0, remainder_size - SIZE_T_SIZE - array_size);
4622 void* mem;
4639 mem = chunk2mem(p);
4640 check_malloced_chunk(gm, mem, nb);
4666 mem = chunk2mem(p);
4667 check_malloced_chunk(gm, mem, nb);
4671 else if (gm->treemap != 0 && (mem = tmalloc_small(gm, nb)) != 0) {
4672 check_malloced_chunk(gm, mem, nb);
4681 if (gm->treemap != 0 && (mem = tmalloc_large(gm, nb)) != 0) {
4682 check_malloced_chunk(gm, mem, nb);
4702 mem = chunk2mem(p);
4703 check_malloced_chunk(gm, mem, nb);
4713 mem = chunk2mem(p);
4715 check_malloced_chunk(gm, mem, nb);
4719 mem = sys_alloc(gm, nb);
4723 return mem;
4729 void dlfree(void* mem) {
4736 if (mem != 0) {
4737 mchunkptr p = mem2chunk(mem);
4839 void* mem;
4847 mem = dlmalloc(req);
4848 if (mem != 0 && calloc_must_clear(mem2chunk(mem)))
4849 memset(mem, 0, req);
4850 return mem;
4939 size_t dlmalloc_usable_size(void* mem) {
4940 if (mem != 0) {
4941 mchunkptr p = mem2chunk(mem);
5057 void* mem;
5074 mem = chunk2mem(p);
5075 check_malloced_chunk(ms, mem, nb);
5101 mem = chunk2mem(p);
5102 check_malloced_chunk(ms, mem, nb);
5106 else if (ms->treemap != 0 && (mem = tmalloc_small(ms, nb)) != 0) {
5107 check_malloced_chunk(ms, mem, nb);
5116 if (ms->treemap != 0 && (mem = tmalloc_large(ms, nb)) != 0) {
5117 check_malloced_chunk(ms, mem, nb);
5137 mem = chunk2mem(p);
5138 check_malloced_chunk(ms, mem, nb);
5148 mem = chunk2mem(p);
5150 check_malloced_chunk(ms, mem, nb);
5154 mem = sys_alloc(ms, nb);
5158 return mem;
5164 void mspace_free(mspace msp, void* mem) {
5165 if (mem != 0) {
5166 mchunkptr p = mem2chunk(mem);
5266 void* mem;
5279 mem = internal_malloc(ms, req);
5280 if (mem != 0 && calloc_must_clear(mem2chunk(mem)))
5281 memset(mem, 0, req);
5282 return mem;
5400 size_t mspace_usable_size(void* mem) {
5401 if (mem != 0) {
5402 mchunkptr p = mem2chunk(mem);