<div dir="ltr">You don't want to use malloc interception if you care about portability/interoperability.  For example, see <a href="http://mailman.cse.ohio-state.edu/pipermail/mvapich-discuss/2014-December/005276.html">http://mailman.cse.ohio-state.edu/pipermail/mvapich-discuss/2014-December/005276.html</a>.<div><br></div><div>I can't find the archives of <a href="mailto:madness-developers@googlegroups.com">madness-developers@googlegroups.com</a> online (perhaps I am just stupid) but we recently encountered the same issue with JEMalloc and other MPI implementations.</div><div><br></div><div>I understand why it is tempting to intercepting malloc/free for MPI purposes, but the end result is brittle software that forces users to disable all the optimizations you are trying to enable.</div><div><br></div><div>And it is worth noting that the abuse of malloc/free interception by MPI developers has forced the MADNESS team (or rather me) to completely bypass ISO C/C++ language defined heap routines to prevent MPI from hijacking them and breaking our code.</div><div><br></div><div>Anyways, this is in no way a statement about JEMalloc.  The results with MADNESS indicate this it is the best available allocator around (vs GNU, TCE and TBB mallocs), but we will have to call it explicitly rather than via symbol interception.</div><div><br>Best,</div><div><br>Jeff</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Oct 20, 2015 at 12:18 PM, Shamis, Pavel <span dir="ltr"><<a href="mailto:shamisp@ornl.gov" target="_blank">shamisp@ornl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">



<div style="word-wrap:break-word">
Hi Jeff,
<div><br>
</div>
<div>Thanks for the link, seems like a very useful library. </div>
<div><br>
</div>
<div>Our goal is a bit different (and very simple/basic). </div>
<div>We are looking for a malloc library that we can use for integration with our registration cache.</div>
<div>Essentially, it redirects application's malloc() calls to (through LD_PRELOAD or rpath) jemalloc that is hooked up with a cache (just like in HPX).</div>
<div>At this stage we don't play with locality. </div>
<div><br>
</div>
<div>Thanks !</div>
<div><br>
<div><span style="border-collapse:separate;border-spacing:0px"><span style="border-collapse:separate;color:rgb(0,0,0);font-family:Helvetica;font-style:normal;font-variant:normal;font-weight:normal;letter-spacing:normal;line-height:normal;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;font-size:medium">
<div style="word-wrap:break-word">
<span style="border-collapse:separate;color:rgb(0,0,0);font-family:Helvetica;font-style:normal;font-variant:normal;font-weight:normal;letter-spacing:normal;line-height:normal;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;font-size:medium">
<div style="word-wrap:break-word">
<span style="border-collapse:separate;color:rgb(0,0,0);font-family:Helvetica;font-style:normal;font-variant:normal;font-weight:normal;letter-spacing:normal;line-height:normal;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;font-size:medium">
<div style="word-wrap:break-word">
Pavel (Pasha) Shamis</div>
<div style="word-wrap:break-word">
---<br>
Computer Science Research Group<br>
Computer Science and Math Division<br>
Oak Ridge National Laboratory<br>
<br>
<br>
<br>
<br>
<br>
</div>
</span></div>
</span></div>
</span></span></div><div><div class="h5">
<br>
<div>
<div>On Oct 20, 2015, at 11:31 AM, Jeff Hammond <<a href="mailto:jeff.science@gmail.com" target="_blank">jeff.science@gmail.com</a>> wrote:</div>
<br>
<blockquote type="cite">
<div dir="ltr">Hi Pavel,
<div><br>
</div>
<div>You may find <a href="http://memkind.github.io/memkind/" target="_blank">http://memkind.github.io/memkind/</a> relevant.  In particular, <a href="http://memkind.github.io/memkind/memkind_arch_20150318.pdf" target="_blank">http://memkind.github.io/memkind/memkind_arch_20150318.pdf</a>
 section 2.2 and 2.3 discusses exactly the issues you raise.  We also note that memkind is intended to support multiple types of memory within a node, such as one might encounter in a platform such as Knights Landing.  You are free to imagine how it might map
 to OpenPOWER based upon your superior knowledge of that platform :-)</div>
<div><br>
</div>
<div>While I recognize that the origins of memkind at Intel may pose a challenge for some in the OpenPOWER family, it would be tremendously valuable to the community if it was reused for MPI and OpenSHMEM projects, rather than the UCX team trying to implement
 something new.  As you know, the both MPI and OpenSHMEM should run on a range of platforms, and it doubles the implementation effort in all relevant projects (MPICH, OpenMPI, OpenSHMEM reference, etc.) if UCX goes in a different direction.</div>
<div><br>
</div>
<div>I would be happy to introduce you to the memkind developers (I am not one of them, just someone who helps them understand user/client requirements).</div>
<div><br>
</div>
<div>Best,</div>
<div><br>
</div>
<div>Jeff</div>
<div><br>
</div>
</div>
<div class="gmail_extra"><br>
<div class="gmail_quote">On Thu, Oct 15, 2015 at 8:45 AM, Shamis, Pavel <span dir="ltr">
<<a href="mailto:shamisp@ornl.gov" target="_blank">shamisp@ornl.gov</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Dear Jemalloc Community,<br>
<br>
We are developer of UCX project [1] and as part of the effort<br>
we are looking for a malloc library that supports hooks for alloc/dealloc chunks and can be used for the following:<br>
<br>
(a) Allocation of memory that can be shared transparently between processes on the same node. For this purpose we would like to mmap memory with MAP_SHARED. This is very useful for implementation for Remote Memory Access (RMA) operations in MPI-3 one-sided
 [2] and OpenSHMEM [3] communication libraries. This allow a remote process to map user allocated memory and provide RMA operations through memcpy().<br>
<br>
(b) Implementation of memory de-allocation hooks for RDMA hardware (Infiniband, ROCE, iWarp etc.). For optimization purpose we implement a lazy memory de-registration (memory unpinning) policy and we use the hook for the  notification of communication library
 about memory release event. On the event, we cleanup our registration cache and de-register (unpin) the memory on hardware.<br>
<br>
Based on this requirements we would like to understand what is the best approach for integration this functionality within jemalloc.<br>
<br>
Regards,<br>
Pasha & Yossi<br>
<br>
[1] OpenUCX: <a href="https://github.com/openucx/ucx" rel="noreferrer" target="_blank">
https://github.com/openucx/ucx</a> or <a href="http://www.openucx.org/" rel="noreferrer" target="_blank">
www.openucx.org</a><br>
[2] MPI SPEC: <a href="http://www.mpi-forum.org/docs/mpi-3.0/mpi30-report.pdf" rel="noreferrer" target="_blank">
http://www.mpi-forum.org/docs/mpi-3.0/mpi30-report.pdf</a><br>
[3] OpenSHMEM SPEC: <a href="http://bongo.cs.uh.edu/site/sites/default/site_files/openshmem-specification-1.2.pdf" rel="noreferrer" target="_blank">
http://bongo.cs.uh.edu/site/sites/default/site_files/openshmem-specification-1.2.pdf</a><br>
<br>
<br>
<br>
<br>
<br>
_______________________________________________<br>
jemalloc-discuss mailing list<br>
<a href="mailto:jemalloc-discuss@canonware.com" target="_blank">jemalloc-discuss@canonware.com</a><br>
<a href="http://www.canonware.com/mailman/listinfo/jemalloc-discuss" rel="noreferrer" target="_blank">http://www.canonware.com/mailman/listinfo/jemalloc-discuss</a><br>
</blockquote>
</div>
<br>
<br clear="all">
<div><br>
</div>
-- <br>
<div>Jeff Hammond<br>
<a href="mailto:jeff.science@gmail.com" target="_blank">jeff.science@gmail.com</a><br>
<a href="http://jeffhammond.github.io/" target="_blank">http://jeffhammond.github.io/</a></div>
</div>
</blockquote>
</div>
<br>
</div></div></div>
</div>

</blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature">Jeff Hammond<br><a href="mailto:jeff.science@gmail.com" target="_blank">jeff.science@gmail.com</a><br><a href="http://jeffhammond.github.io/" target="_blank">http://jeffhammond.github.io/</a></div>
</div>