/external/jemalloc_new/include/jemalloc/internal/ |
D | sz.h | 124 static inline szind_t 131 szind_t lg_tmin = LG_TINY_MAXCLASS - NTBINS + 1; in sz_size2index_compute() 132 szind_t lg_ceil = lg_floor(pow2_ceil_zu(size)); in sz_size2index_compute() 137 szind_t x = lg_floor((size<<1)-1); in sz_size2index_compute() 138 szind_t shift = (x < LG_SIZE_CLASS_GROUP + LG_QUANTUM) ? 0 : in sz_size2index_compute() 140 szind_t grp = shift << LG_SIZE_CLASS_GROUP; in sz_size2index_compute() 142 szind_t lg_delta = (x < LG_SIZE_CLASS_GROUP + LG_QUANTUM + 1) in sz_size2index_compute() 146 szind_t mod = ((((size-1) & delta_inverse_mask) >> lg_delta)) & in sz_size2index_compute() 149 szind_t index = NTBINS + grp + mod; in sz_size2index_compute() 154 JEMALLOC_ALWAYS_INLINE szind_t [all …]
|
D | rtree.h | 198 JEMALLOC_ALWAYS_INLINE szind_t 200 return (szind_t)(bits >> LG_VADDR); in rtree_leaf_elm_bits_szind_get() 223 JEMALLOC_ALWAYS_INLINE szind_t 230 return (szind_t)atomic_load_u(&elm->le_szind, dependent ? ATOMIC_RELAXED in rtree_leaf_elm_szind_read() 263 rtree_leaf_elm_t *elm, szind_t szind) { in rtree_leaf_elm_szind_write() 296 extent_t *extent, szind_t szind, bool slab) { in rtree_leaf_elm_write() 315 rtree_leaf_elm_t *elm, szind_t szind, bool slab) { in rtree_leaf_elm_szind_slab_update() 397 extent_t *extent, szind_t szind, bool slab) { in rtree_write() 442 JEMALLOC_ALWAYS_INLINE szind_t 462 uintptr_t key, bool dependent, extent_t **r_extent, szind_t *r_szind) { in rtree_extent_szind_read() [all …]
|
D | tcache_externs.h | 33 cache_bin_t *tbin, szind_t binind, bool *tcache_success); 35 szind_t binind, unsigned rem); 36 void tcache_bin_flush_large(tsd_t *tsd, cache_bin_t *tbin, szind_t binind,
|
D | extent_externs.h | 36 size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, 47 size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit); 67 szind_t szind_a, bool slab_a, size_t size_b, szind_t szind_b, bool slab_b);
|
D | arena_inlines_b.h | 87 arena_malloc(tsdn_t *tsdn, arena_t *arena, size_t size, szind_t ind, bool zero, in arena_malloc() 120 szind_t szind = rtree_szind_read(tsdn, &extents_rtree, rtree_ctx, in arena_salloc() 142 szind_t szind; in arena_vsalloc() 167 szind_t szind; in arena_dalloc_no_tcache() 200 szind_t szind; in arena_dalloc() 247 szind_t szind; in arena_sdalloc_no_tcache() 298 szind_t szind; in arena_sdalloc()
|
D | extent_inlines.h | 52 static inline szind_t 54 szind_t szind = (szind_t)((extent->e_bits & EXTENT_BITS_SZIND_MASK) >> in extent_szind_get_maybe_invalid() 60 static inline szind_t 62 szind_t szind = extent_szind_get_maybe_invalid(extent); in extent_szind_get() 236 extent_szind_set(extent_t *extent, szind_t szind) { in extent_szind_set() 304 bool slab, szind_t szind, size_t sn, extent_state_t state, bool zeroed, in extent_init()
|
D | tcache_inlines.h | 43 UNUSED size_t size, szind_t binind, bool zero, bool slow_path) { in tcache_alloc_small() 107 szind_t binind, bool zero, bool slow_path) { in tcache_alloc_large() 168 tcache_dalloc_small(tsd_t *tsd, tcache_t *tcache, void *ptr, szind_t binind, in tcache_dalloc_small() 193 tcache_dalloc_large(tsd_t *tsd, tcache_t *tcache, void *ptr, szind_t binind, in tcache_dalloc_large()
|
D | arena_externs.h | 29 size_t arena_slab_regind(extent_t *slab, szind_t binind, const void *ptr); 48 cache_bin_t *tbin, szind_t binind, uint64_t prof_accumbytes); 56 szind_t ind, bool zero);
|
D | jemalloc_internal_inlines_a.h | 110 tcache_small_bin_get(tcache_t *tcache, szind_t binind) { in tcache_small_bin_get() 116 tcache_large_bin_get(tcache_t *tcache, szind_t binind) { in tcache_large_bin_get()
|
D | tcache_structs.h | 42 szind_t next_gc_bin;
|
D | arena_structs_b.h | 225 szind_t szind;
|
D | jemalloc_internal_inlines_c.h | 41 iallocztm(tsdn_t *tsdn, size_t size, szind_t ind, bool zero, tcache_t *tcache, in iallocztm() 61 ialloc(tsd_t *tsd, size_t size, szind_t ind, bool zero, bool slow_path) { in ialloc()
|
/external/jemalloc/include/jemalloc/internal/ |
D | jemalloc_internal.h | 194 typedef unsigned szind_t; typedef 566 szind_t size2index_compute(size_t size); 567 szind_t size2index_lookup(size_t size); 568 szind_t size2index(size_t size); 569 size_t index2size_compute(szind_t index); 570 size_t index2size_lookup(szind_t index); 571 size_t index2size(szind_t index); 664 JEMALLOC_INLINE szind_t 672 szind_t lg_tmin = LG_TINY_MAXCLASS - NTBINS + 1; in size2index_compute() 673 szind_t lg_ceil = lg_floor(pow2_ceil_zu(size)); in size2index_compute() [all …]
|
D | tcache.h | 99 szind_t next_gc_bin; /* Next bin to GC. */ 148 tcache_bin_t *tbin, szind_t binind, bool *tcache_success); 150 szind_t binind, unsigned rem); 151 void tcache_bin_flush_large(tsd_t *tsd, tcache_bin_t *tbin, szind_t binind, 180 size_t size, szind_t ind, bool zero, bool slow_path); 182 size_t size, szind_t ind, bool zero, bool slow_path); 184 szind_t binind, bool slow_path); 296 szind_t binind, bool zero, bool slow_path) in tcache_alloc_small() 355 szind_t binind, bool zero, bool slow_path) in tcache_alloc_large() 417 tcache_dalloc_small(tsd_t *tsd, tcache_t *tcache, void *ptr, szind_t binind, in tcache_dalloc_small() [all …]
|
D | arena.h | 72 szind_t binind; 568 tcache_bin_t *tbin, szind_t binind, uint64_t prof_accumbytes); 581 void *arena_malloc_large(tsdn_t *tsdn, arena_t *arena, szind_t ind, 584 szind_t ind, bool zero); 668 szind_t arena_mapbits_binind_get(const arena_chunk_t *chunk, size_t pageind); 686 szind_t binind); 688 size_t runind, szind_t binind, size_t flags); 695 szind_t arena_ptr_small_binind_get(const void *ptr, size_t mapbits); 696 szind_t arena_bin_index(arena_t *arena, arena_bin_t *bin); 706 void *arena_malloc(tsdn_t *tsdn, arena_t *arena, size_t size, szind_t ind, [all …]
|
D | jemalloc_internal.h.in | 194 typedef unsigned szind_t; typedef 566 szind_t size2index_compute(size_t size); 567 szind_t size2index_lookup(size_t size); 568 szind_t size2index(size_t size); 569 size_t index2size_compute(szind_t index); 570 size_t index2size_lookup(szind_t index); 571 size_t index2size(szind_t index); 664 JEMALLOC_INLINE szind_t 672 szind_t lg_tmin = LG_TINY_MAXCLASS - NTBINS + 1; 673 szind_t lg_ceil = lg_floor(pow2_ceil_zu(size)); [all …]
|
/external/jemalloc_new/src/ |
D | arena.c | 125 for (szind_t i = 0; i < NSIZES - NBINS; i++) { in arena_stats_merge() 158 szind_t i = 0; in arena_stats_merge() 203 for (szind_t i = 0; i < NBINS; i++) { in arena_stats_merge() 243 arena_slab_regind(extent_t *slab, szind_t binind, const void *ptr) { in arena_slab_regind() 265 szind_t binind = extent_szind_get(slab); in arena_slab_reg_dalloc() 290 szind_t index, hindex; in arena_large_malloc_stats_update() 306 szind_t index, hindex; in arena_large_dalloc_stats_update() 335 szind_t szind = sz_size2index(usize); in arena_extent_alloc_large() 1094 szind_t szind) { in arena_slab_alloc_hard() 1115 arena_slab_alloc(tsdn_t *tsdn, arena_t *arena, szind_t binind, in arena_slab_alloc() [all …]
|
D | android_je_iterate.c | 43 szind_t szind; in je_iterate() 48 szind_t binind = extent_szind_get(extent); in je_iterate()
|
D | extent.c | 60 szind_t szind_a, bool slab_a, size_t size_b, szind_t szind_b, bool slab_b, 111 size_t usize, size_t pad, size_t alignment, bool slab, szind_t szind, 520 size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit) { in extents_alloc() 695 rtree_leaf_elm_t *elm_b, extent_t *extent, szind_t szind, bool slab) { in extent_rtree_write_acquired() 705 szind_t szind) { in extent_interior_register() 770 szind_t szind = extent_szind_get_maybe_invalid(extent); in extent_register_impl() 958 szind_t szind, bool growing_retained) { in extent_split_interior() 1031 szind_t szind, extent_t *extent, bool growing_retained) { in extent_recycle_split() 1079 size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit, in extent_recycle() 1244 bool slab, szind_t szind, bool *zero, bool *commit) { in extent_grow_retained() [all …]
|
D | tcache.c | 45 szind_t binind = tcache->next_gc_bin; in tcache_event_hard() 93 cache_bin_t *tbin, szind_t binind, bool *tcache_success) { in tcache_alloc_small_hard() 109 szind_t binind, unsigned rem) { in tcache_bin_flush_small() 197 tcache_bin_flush_large(tsd_t *tsd, cache_bin_t *tbin, szind_t binind, in tcache_bin_flush_large()
|
/external/jemalloc/src/ |
D | android_je_iterate.c | 108 szind_t binind; in je_iterate_chunk() 130 szind_t binind; in je_iterate_small()
|
D | arena.c | 305 szind_t binind = arena_ptr_small_binind_get(ptr, mapbits); in arena_run_reg_dalloc() 512 szind_t binind) in arena_run_split_small() 813 szind_t index = size2index(usize) - nlclasses - NBINS; in arena_huge_malloc_stats_update() 826 szind_t index = size2index(usize) - nlclasses - NBINS; in arena_huge_malloc_stats_update_undo() 839 szind_t index = size2index(usize) - nlclasses - NBINS; in arena_huge_dalloc_stats_update() 852 szind_t index = size2index(usize) - nlclasses - NBINS; in arena_huge_reset_stats_cancel() 863 szind_t index = size2index(usize) - nlclasses - NBINS; in arena_huge_dalloc_stats_update_undo() 1166 arena_run_alloc_small_helper(arena_t *arena, size_t size, szind_t binind) in arena_run_alloc_small_helper() 1177 arena_run_alloc_small(tsdn_t *tsdn, arena_t *arena, size_t size, szind_t binind) in arena_run_alloc_small() 2307 szind_t binind; in arena_bin_nonfull_run_get() [all …]
|
D | tcache.c | 39 szind_t binind = tcache->next_gc_bin; in tcache_event_hard() 78 tcache_bin_t *tbin, szind_t binind, bool *tcache_success) in tcache_alloc_small_hard() 93 szind_t binind, unsigned rem) in tcache_bin_flush_small() 174 tcache_bin_flush_large(tsd_t *tsd, tcache_bin_t *tbin, szind_t binind, in tcache_bin_flush_large()
|
D | extent.c | 14 szind_t ind; in extent_quantize()
|
/external/jemalloc_new/test/unit/ |
D | slab.c | 4 szind_t binind; in TEST_BEGIN()
|