<div dir="ltr"><div><div><div><div><div><div><div><div><div><div><div><div><div><div><div>Hi, <br><br></div>I have a problem with squid setup (squid version 3.5.6, built from source, centos 6.6)<br></div>I've tried 2 options:<br></div>1. SMP<br></div>2. NON-SMP <br><br></div>I've decided to stick with custom build non-smp version and the thing is:<br></div>- i don't need cache - any kind of it<br></div>- I have DNS cache just for that<br></div>- squid has to listen on 1024 ports on 23 instances.<br></div>each instance listens on set of ports and each port has different outgoing ip address.<br><br></div>The thing is this:<br></div>It's alll good until we hit it with more than 150mbits then...<br><br></div><div>(output from perf top)<br></div><div> 84.57%  [kernel]                  [k] osq_lock<br>  4.62%  [kernel]                  [k] mutex_spin_on_owner<br>  1.41%  [kernel]                  [k] memcpy<br>  0.79%  [kernel]                  [k] inet_dump_ifaddr<br>  0.62%  [kernel]                  [k] memset<br><br> 21:53:39 up 7 days, 10:38,  1 user,  load average: 24.01, 23.84, 23.33<br></div>(yes, we have 24 cores)<br></div><div>Same
 behavior is with SMP and NON-SMP setup (SMP setup is all in one file 
with workers 23 option but then I have to use rock cache)<br></div><div><br></div>so,
 my question is....what...how to optimize this.....whatever....I'm stuck
 for days, I've tried many sysctl options but none of them works.<br></div>Any help, info, something else? <br><br><br></div><div>Thanks,<br></div>J.</div>