<html><body>
<p><font size="3" face="Tahoma">I too have been trying to reproduce the existence of Private_Clean memory segments in smaps via a simple test case with jemalloc and was unable to on my laptop, a 2 core machine running a 3.8.0-23 kernel .  I then moved my test to our production box: 96GB memory, 24 hardware threads and 2.6 kernel (detailed information below), and within a few minutes of execution, with a few minor adjustments, I was able duplicate the results, smaps showing the jemalloc segment with Private_Clean memory usage, of our larger test. Note that I'm using the same jemalloc library whose information Kurtis posted earlier (96 arenas etc...). </font><br>
<br>
<font size="3" face="Tahoma">Thank you,</font><br>
<font size="3" face="Tahoma">Tom</font><br>
<br>
<font size="3" face="Tahoma">---------------</font><br>
<font size="3" face="Tahoma">DETAILS</font><br>
<br>
<br>
<font size="3" face="Tahoma">Smaps memory segment</font><br>
<font size="3" face="Tahoma"> 7f1f75c00000-7f35bce00000 rw-p 00000000 00:00 0<br>
Size: 93440000 kB<br>
Rss: 63177024 kB<br>
Pss: 63177024 kB<br>
Shared_Clean: 0 kB<br>
Shared_Dirty: 0 kB<br>
Private_Clean: 614992 kB<br>
Private_Dirty: 62562032 kB<br>
Referenced: 62562212 kB<br>
Swap: 0 kB<br>
KernelPageSize: 4 kB<br>
MMUPageSize: 4 kB<br>
   </font><br>
<br>
<font size="3" face="Tahoma">Production Box Info:</font><br>
<font size="3" face="Tahoma"># uname -a<br>
Linux 9.42.94.12 2.6.32-131.21.1.89.br5_0.x86_64 #1 SMP Tue Mar 19 15:05:57 CDT 2013 x86_64 GNU/Linux</font><br>
<br>
<font size="3" face="Tahoma">Tail of CPU Info</font><br>
<font size="3" face="Tahoma">processor       : 23<br>
vendor_id       : GenuineIntel<br>
cpu family      : 6<br>
model           : 44<br>
model name      : Intel(R) Xeon(R) CPU           X5670  @ 2.93GHz<br>
stepping        : 2<br>
cpu MHz         : 2933.304<br>
cache size      : 12288 KB<br>
physical id     : 1<br>
siblings        : 12<br>
core id         : 10<br>
cpu cores       : 6<br>
apicid          : 53<br>
initial apicid  : 53<br>
fpu             : yes<br>
fpu_exception   : yes<br>
cpuid level     : 11<br>
wp              : yes<br>
flags           : fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx pdpe1gb rdtscp lm constant_tsc arch_perfmon pebs bts rep_good xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx smx est tm2 ssse3 cx16 xtpr pdcm dca sse4_1 sse4_2 popcnt aes lahf_lm ida arat tpr_shadow vnmi flexpriority ept vpid<br>
bogomips        : 5867.23<br>
clflush size    : 64<br>
cache_alignment : 64<br>
address sizes   : 40 bits physical, 48 bits virtual<br>
power management:</font><br>
<br>
<br>
<i>(See attached file: stressTest.c)</i></body></html>