<html>
  <head>
    <meta content="text/html; charset=utf-8" http-equiv="Content-Type">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    <br>
    -----BEGIN PGP SIGNED MESSAGE----- <br>
    Hash: SHA256 <br>
     <br>
    <br>
    <br>
    24.02.16 3:38, Heiler Bemerguy пишет:<br>
    <span style="white-space: pre;">><br>
      ><br>
      > 23/02/2016 16:40, Yuri Voinov wrote:<br>
      >>  <br>
      >> When you CPU's/cores waiting for HDD access, they got
      high-loag.<br>
      >><br>
      ><br>
      > Are you sure it would show up as "User" load and not as
      "Wait" ?</span><br>
    Depending OS. Most likely "User" exactly. Still looks like
    overloaded IO queue.<br>
    <span style="white-space: pre;">> On linux "TOP" it shows
      something like:<br>
      > %Cpu0  :  99,0 *us*,  1,0 sy,  0,0 ni, 0,0 id,  0,0 *wa*, 
      0,0 hi,  0,0 si,  0,0 st</span><br>
    top is not performance tool. It hides most important aspects of
    performance-related problem. Use it only at a glance tool.<br>
    <br>
    For performance tuning usually uses more specific (and OS-specific,
    of course) tools. iostat, vmstat, swap -l, sar etc.<br>
    <span style="white-space: pre;">><br>
      ><br>
      > 23/02/2016 16:55, Amos Jeffries wrote:<br>
      >> What GHz rating is each CPU core?  200-250 RPS is roughly
      in the range I<br>
      >> would expect from a 1.xGHz core going full speed / 100%
      usage.<br>
      >><br>
      >> Are you using RAID on the disk storage? IME, RAID can
      more than halve<br>
      >> the speed of the proxy. Although the CPU thrashing effect
      is mostly<br>
      >> hidden away out of sight in the disk controller
      processor(s).<br>
      ><br>
      > 6-core of Intel(R) Xeon(R) CPU E5-2667 v2 @ 3.30GHz<br>
      > It's a vmware VM with a NetApp 266TB storage. This VM has
      access to 2 different LUNs in 2 different controllers to a bunch
      SAS HDs,<br>
      > dd if=/dev/zero of=testfile bs=2G count=1 oflag=dsync = ~391
      MB/s</span><br>
    This is tells nothing about SAN topology and whole IO subsystem.
    There is much questions occurs here:<br>
    - - Which connection uses HDD's bunches? FC? iSCSI? FCoE? If
    iSCSI/some_ethernet-Based - did you turned on jumbograms?<br>
    - - How much hardware cache installed in controllers and which type?<br>
    - - How was created LUN's?<br>
    - - Which RAID type you uses and what is it parameters?<br>
    - - How configured VMWare? Does you configure deferred syncing VM
    caches? Or not?<br>
    etc.etc.etc.<br>
    <br>
    Note: NetApp (you have forgotten to specify your NetApp model and
    licensed options) has known issues with: CoW with WAFL, hardware
    read-cache and write-cache - this is product specific options sold
    separately (!) and, generally, tuning NetApp is separated complex
    task. Especially with virtualized environment.<br>
    <br>
    And please note: One DD's file - it's about nothing. This is
    unrelated to REAL load. As by as abstract IOPS numbers.<br>
    <span style="white-space: pre;">><br>
      > Best Regards,<br>
      > -- <br>
      > Heiler Bemerguy - (91) 98151-4894<br>
      > Assessor Técnico - CINBESA (91) 3184-1751<br>
      ><br>
      ><br>
      > _______________________________________________<br>
      > squid-users mailing list<br>
      > <a class="moz-txt-link-abbreviated" href="mailto:squid-users@lists.squid-cache.org">squid-users@lists.squid-cache.org</a><br>
      > <a class="moz-txt-link-freetext" href="http://lists.squid-cache.org/listinfo/squid-users">http://lists.squid-cache.org/listinfo/squid-users</a></span><br>
    <br>
    -----BEGIN PGP SIGNATURE-----
<br>
    Version: GnuPG v2
<br>
     <br>
    iQEcBAEBCAAGBQJWzfdpAAoJENNXIZxhPexGYnwIALmxL3FA75PfEiaeHeRXu4a5
<br>
    kFuzHgSb9pjldlOPHxorgbVul3BU5HE+LVFmzYsD0lMIK9hbqutKz/m/ji5B0QBN
<br>
    yDevoIi+rGKUgXTGs0VvPZprLzbCc9X1V7uIQeCFne1gvWruyr4dx4xrjZSONdUP
<br>
    8wcNN5irNZ0Zn+fcqQUK+G9vmvHWDBeQK/gjOFk4ZdUsWZkNx4vB7RGeBBTSH5Lo
<br>
    G/vzY4j/Cd0L89B1PPrWrrTdko0jGe4Z0D4kFaA+bNb+eV56uRx0m7Qii4Cnl4Vu
<br>
    KGSHhwD6gaI0sJGwWqwRgcNEPEtMcAGtO8IvaWmHGVGCEz+Bf5NyAbAtF7cQ9Zc=
<br>
    =zPnN
<br>
    -----END PGP SIGNATURE-----
<br>
    <br>
  </body>
</html>