<div dir="ltr"><div>Well</div><div><br></div><div>If it was my project : archlinux using yaourt and each needed package compiled in a VM</div><div><br></div><div>I work at a company as sysadmin and proxy aren't in my side (network things...)</div><div>So if i can configure a repository or sync a repository with the response : go head it will be here for years.., if not i have to deal with distrib package :P</div><div><br></div><div>Even in a VM i prefered a debian server than a RHEL</div><div>By the way the good thing it's not a AIX proxy ;)</div><div><br></div>-----BEGIN PGP SIGNED MESSAGE-----<br>Hash: SHA256<br> <br>I do not understand the love of archaeological fossils. It repositories<br>such junk lying around? :-D<br><br>20.12.15 0:56, Jean Christophe Ventura пишет:<br>> Hi,<br>><br>> I'm currently working to migrate RHEL5 2.7 Squid to RHEL7 3.3.<br>><br>> I have migrated the config files to be 3.3 compliant (CIDR, remove of<br>> deprecated function,change cache from UFS to AUFS) without any change<br>> (cache mem, policy, smp)<br>><br>> The new platform is a 4 node R610 (24 proc hyperthreading activate)<br>> with 48GB of RAM, only 143GB disk in RAID for OS and cache. Each node<br>> is connected to the network using 2x1Gbit bonding 2/3 level (some<br>> network port are available on the server).<br>><br>> bandwidth allocated for Internet users 400Mbit<br>><br>> The difference between the old plateform and the new one doesn't seem<br>> to be very fantastic :P<br>> I have read the mailing list history alot.<br>><br>> Squid release:<br>> So i know 3.3 isn't anymore maintain but this infrastructure will be<br>> not maintain by myself and i don't think that people behind will do<br>> the update them self<br>> If a official repository exist, maybe this question will be reopen<br>> (from what i have read it's more some of you build packages from<br>> source and give them to people)<br>><br>> Squid auth:<br>> It's transparent/basic auth only filtering some ip with acl.<br>><br>> Squid bandwidth:<br>> Currently a squid node treat something like 30/50Mbit (information<br>> recovered using iftop)<br>> From previous viewed mail i think it's normal for a non-smp configuration<br>><br>> Squid measure:<br>> [root at xxxx ~]# squidclient mgr:5min | grep 'client_http.requests'<br>> client_http.requests = 233.206612/sec<br>> other info<br>> Cache information for squid:<br>>         Hits as % of all requests:      5min: 6.8%, 60min: 7.1%<br>>         Hits as % of bytes sent:        5min: 4.7%, 60min: 4.4%<br>>         Memory hits as % of hit requests:       5min: 21.4%, 60min: 21.5%<br>>         Disk hits as % of hit requests: 5min: 34.7%, 60min: 30.8%<br>>         Storage Swap size:      9573016 KB<br>>         Storage Swap capacity:  91.3% used,  8.7% free<br>>         Storage Mem size:       519352 KB<br>>         Storage Mem capacity:   99.1% used,  0.9% free<br>>         Mean Object Size:       47.71 KB<br>><br>> Now question and advise :<br>><br>> This metrics seem too low for me. anyone of you agree ?<br>><br>> 4 node x 50Mbit node= 200Mbit<br>> To treat the maxbandwidth (400Mbit) + the lost of one host i need to<br>> configure 4 thread by node.<br>> Is there any reason or brillant idea for more (i will have some core<br>> still available) ? calculation too empirical ?<br>><br>> This url <a href="http://wiki.squid-cache.org/ConfigExamples/SmpCarpCluster">http://wiki.squid-cache.org/ConfigExamples/SmpCarpCluster</a><br>> seem to be a good start :P<br>> Using this method i can interconnect each proxy to share their cache<br>> (maybe using dedicated network port). Usefull or not ? may this<br>> increase the hit ratio ? if this idea is'nt stupid interconnet using<br>> the frontend only or directy to each ?<br>><br>> For now i have :<br>> - 100GB of disk available for cache<br>> - 40GB   of RAM (let 8 for OS + squid disk cache related ram usage)<br>><br>> 1 front with the RAM cache and 4 back with disk cache.<br>> AUFS or ROCK cache? mix of them ? 50% each ? maybe another rules ?<br>> (i think it's will be linked to the cache content but any advise or<br>> method is welcome)<br>><br>> I can get more speed and/or space for disk cache using SAN, do you<br>> know if the data is sequential or random ?<br>><br>> Any advise/rules to increase the hit ratio ? :)<br>> Any general advise/rules ?<br>><br>> Thanks for your help<br>><br>><br>> Jean Christophe VENTURA<br>> _______________________________________________<br>> squid-users mailing list<br>> squid-users at <a href="http://lists.squid-cache.org">lists.squid-cache.org</a><br>> <a href="http://lists.squid-cache.org/listinfo/squid-users">http://lists.squid-cache.org/listinfo/squid-users</a><br><br>-----BEGIN PGP SIGNATURE-----<br>Version: GnuPG v2<br> <br>iQEcBAEBCAAGBQJWdbJhAAoJENNXIZxhPexGXSsIAIlKiu7C+Bw8a7XMxObb/NKw<br>WF8Ms77hGIfbcAdVm3zIoAeQinWLdXMU5XqYZLRUFyq1ui86bvxZoYa8VKcXIMgY<br>Uxyg+Un3S5nAWy0TePU3Q0DdixW96QGAPXvQAEJUAXNEWUnCiArwQt4aRZFOHBzT<br>HE3bsyjJZWgHKpW7YV+rrD6vffwfsn1G7BmCG1CDTjfnkdbW73M7slwUMVPTolVV<br>jVLp0y07VPGDg3iMVG8XMSmeCnPYIVfJk+0VMtmX2pv87voxWU2AQfrcJXXa0Jjm<br>f/YWBAOQS20C+2GaH2OAIQ1kr0+yOgpBRfiAhNlUrQ933BmVDCzepH/ZokxVHvQ=<br>=E5Oo<br>-----END PGP SIGNATURE-----<br><br></div>