<div dir="ltr">Hi Amos,<div><br></div><div>Thanks I really learnt alot from your previous email.</div><div><br></div><div>going on..</div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Jul 8, 2016 at 1:18 PM, Amos Jeffries <span dir="ltr"><<a href="mailto:squid3@treenet.co.nz" target="_blank">squid3@treenet.co.nz</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><span>On 8/07/2016 10:20 p.m., Moataz Elmasry wrote:<br>
> Hi Amos,<br>
><br>
> Do you know any of those 'exceptional' redirectors that can handle https?<br>
><br>
<br>
</span>I know they exist, some of my clients wrote and use some. But I can't<br>
point you to any if thats what you are asking.<br>
<br>
I can say though there r two things that can reliably be done with a<br>
CONNECT request by a URL-rewriter;<br>
<br>
1) return ERR, explicitly telling Squid not to re-write those tunnels.<br>
<br>
This trades helper complexity for simpler squid.conf ACLs. Both simply<br>
telling Squid not to re-write.<br>
<br>
2) re-write the URI from domain:port to be IP:port.<br></blockquote><div>Funny thing is when I'm getting the URL in the redirect.bash, I'm not getting an IP. I probed and logged in many fields as described in the logformat page, and I usually get either the IP or the DNS inside redirect.bash but not both</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex">
<br>
If the IP it gets re-written to is the one the client was going to, this<br>
is in effect telling Squid not to do DNS lookup when figuring out where<br>
to send it. That can be useful when you don't want Squid to use<br>
alternative IPs it might find via DNS.<br>
 (NP: This wont affect the host verify checking as it happens too late.<br>
This is actually just a fancy way to enforce the ORIGINAL_DST pass-thru<br>
behaviour based on more complex things than host-verify detects)<br>
<span><br>
<br>
> Ok. So let's ignore the redirection for now and just try to whitelist some<br>
> https urls and deny anything else.<br>
><br>
> Now I'm trying to peek and bump the connection, just to obtain the<br>
> servername without causing much harm, but the https sites are now either<br>
> loading infinitely, or loading successfully, where they should have been<br>
> blacklisted, assuming the https unwrapping happened successfully. Could you<br>
> please have a look and tell me what's wrong with the following<br>
> configuration? BTW after playing with ssl_bump I realized that I didn't<br>
> really understand the steps(1,2,3) as well as when to peek/bump/stare<br>
> etc... . The squid.conf contains some comments and questions<br>
><br>
> squid.conf<br>
><br>
> "<br>
> acl http_sites dstdomain <a href="http://play.google.com" rel="noreferrer" target="_blank">play.google.com</a> <a href="http://mydomain.com" rel="noreferrer" target="_blank">mydomain.com</a><br>
> acl https_sites ssl::server_name <a href="http://play.google.com" rel="noreferrer" target="_blank">play.google.com</a> <a href="http://mydomain.com" rel="noreferrer" target="_blank">mydomain.com</a><br>
><br>
> #match any url where the servername in the SNI is not empty<br>
> acl haveServerName ssl::server_name_regex .<br>
><br>
><br>
> http_access allow http_sites<br>
> http_access allow https_sites #My expectation is that this rule is matched<br>
> when the https connection has been unwrapped<br>
<br>
</span>On HTTP traffic the "http_sites" ACL will match the URL domain.<br>
<br>
On HTTPS traffic without (or before finding) the SNI neither ACL will<br>
match. Because URL is a raw-IP at that stage.<br>
<br>
On HTTPS traffic with SNI the "http_sites" ACL will match. Because the<br>
SNI got copied to the request URI.<br>
<br>
The "https_sites" ACL will only be reached on traffic where the SNI does<br>
*not* contain the values its looking for. This test will always be a<br>
non-match / false.<br></blockquote><div>Ouch, I now see in the docs that ssl::server_name is suitable for usage within ssl_bump. So this is the only use case I suppose.  </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex">
<span><br>
><br>
> sslcrtd_program /lib/squid/ssl_crtd -s /var/lib/ssl_db -M 4MB<br>
><br>
> http_access deny all<br>
><br>
> http_port 3127<br>
> http_port 3128 intercept<br>
> https_port 3129 cert=/etc/squid/ssl/example.com.cert<br>
> key=/etc/squid/ssl/example.com.private ssl-bump intercept<br>
> generate-host-certificates=on  version=1<br>
> options=NO_SSLv2,NO_SSLv3,SINGLE_DH_USE capath=/etc/ssl/certs/<br>
><br>
> sslproxy_cert_error allow all<br>
> sslproxy_flags DONT_VERIFY_PEER<br>
><br>
> acl step1 at_step SslBump1<br>
> acl step2 at_step SslBump2<br>
> acl step3 at_step SslBump3<br>
><br>
><br>
> ssl_bump peek step1  #Is this equivelant to "ssl_bump peek step1 all ???"<br>
><br>
<br>
</span>Yes. "all" is a test that always produces match / true.<br>
<br>
The "ssl_bump peek step1 all" means:<br>
 If (at_step == SslBump1 and true == true) then do peeking.<br>
 else ...<br>
<span><br>
> ssl_bump bump haveServerName !https_sites<br>
> #What about connections that didn't provide sni yet? Do they get to have<br>
> own definition for step2?<br>
<br>
</span>For those:<br>
<br>
 "haveServerName" being a regex "." pattern will match the raw-IP in the<br>
CONNECT request, the SNI value, or any subjectAltName in the server<br>
certificate. One of those three will always exist and have a value that<br>
'.' is matched against. Basically it can't fail - therefore you can<br>
consider it just a complicated (and slow / CPU draining) way of checking<br>
"all".<br>
<br>
AND<br>
<br>
 "https_sites" produces false. The "!" turns that false into true.<br>
<br>
So that line matches and "bump" action is done at step 2.<br>
<br>
Bump being a final action means there is no step 3 for those requests.<br>
<br>
NOTE:  Side effects of bump at step 2 (aka client-first bumping) is that<br>
certificate Squid generates will be generated ONLY from squid.conf<br>
settings and clientHello details.<br>
 No server involvement, thus a very high chance that the server TLS<br>
connection requirements and what Squid offers the client to use will<br>
conflict or introduce downgrade attack vulnerabilities into these<br>
connections.<br>
<br>
 Whether that is okay is a grey area with disagreement possibilities on<br>
all sides.<br>
 * On the one hand you are probably configuring good security for the<br>
client connection even when the server connection has worse TLS.<br>
 * On the two hand you are potentially configuring something worse than<br>
some servers.<br>
 * On the third hand you are definitely fooling the client into thinking<br>
it has different security level than the server connection can provide,<br>
or vice-versa for the server knowledge about the client connection. Its<br>
risky, and you can expect problems.<br>
<span><br>
<br>
> #Is this equivelant to "ssl_bump  bump step2 haveServerName !https_sites" ??<br>
<br>
</span>Yes it is.<br>
<span><br>
> #Can I use step2 with some other acl?<br>
<br>
</span>Er. You can use any ACL that has available data for the time and<br>
position at which it is tested.<br>
 In other words I would not suggest using ACLs that check HTTP response<br>
headers at the ssl_bump checking time.<br>
<br>
At step 2 of SSL-Bumping process you have client TCP connection details,<br>
TLS clientHello details and initial extensions like SNI (well the ones<br>
that have been implemented - SNI being the only useful one AFAIK).<br>
<span><br>
><br>
> ssl_bump splice all<br>
> #Is this now step3 for all?what about those urls who didn't have a match in<br>
> step2. Is this step2 for some and step3 for others?<br>
<br>
</span>Any step2 traffic which fails the "!https_sites" test will match this.<br>
Which means there is no step3 for those requests.<br>
<br>
If you have been paying attention you will have noticed that all traffic<br>
passing the "!https_sites" has been bumped, and all traffic failing that<br>
same test has been spliced.<br>
<br>
==> Therefore, zero traffic reaches step 3.<br>
<br></blockquote><div>Many thanks for the detailed clarification, this really helps ALOT!!!!</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex">
<br>
My advice on this as a general rule-of-thumb is to splice at step 1 or 2<br>
if you can. That solves a lot of possible problems with the splicing.<br>
And to bump only at step 3 where the mimic feature can avoid a lot of<br>
other problems with the bumping.<br>
<br>
You will still encounter some problems though (guaranteed). Don't forget<br>
that TLS is specifically designed to prevent 'bumping' from being done<br>
on its connections. The fact that we can offer the feature at all for<br>
generic use is a terrible statement about the Internets bad lack of<br>
security.<br>
<br>
<br>
Cheers.<br>
<span><font color="#888888">Amos<br>
<br></font></span></blockquote><div><br></div><div>Ok. new try.  The following are common configurations:</div><div>"</div><div><div><br></div><div>acl http_sites dstdomain <a href="http://play.google.com" target="_blank">play.google.com</a> <a href="http://mydomain.com" target="_blank">mydomain.com</a> </div><div>acl https_sites ssl::server_name <a href="http://play.google.com" target="_blank">play.google.com</a> <a href="http://mydomain.com" target="_blank">mydomain.com</a> <br></div><div><br></div><div>http_access allow http_sites</div><div><br></div><div>sslcrtd_program /lib/squid/ssl_crtd -s /var/lib/ssl_db -M 4MB</div><div>http_access deny all</div><div><br></div><div>http_port 3127</div><div>http_port 3128 intercept</div><div>https_port 3129 cert=/etc/squid/ssl/example.com.cert key=/etc/squid/ssl/example.com.private ssl-bump intercept generate-host-certificates=on  version=1 options=NO_SSLv2,NO_SSLv3,SINGLE_DH_USE capath=/etc/ssl/certs/</div><div><br></div><div>sslproxy_cert_error allow all </div><div>sslproxy_flags DONT_VERIFY_PEER </div><div><br></div><div>acl step1 at_step SslBump1</div><div>acl step2 at_step SslBump2</div><div>acl step3 at_step SslBump3</div><div><br></div><div><div>url_rewrite_program /bin/bash -c -l /etc/squid/redirect.bash</div><div>url_rewrite_extras "%>a/%>A %<A la=%la:%lp la2=%<a/%<a  la3=%<la:%<lp %un %>rm myip=%la myport=%lp  ru=%ru ru2=%>ru ru3=%<ru rd=%>rd rd2=%<rd h=%>h ssl1=%ssl::bump_mode ssl2=%ssl::>sni ssl3=%ssl::>cert_subject ssl4=%ssl::>cert_issuer  rp1=%rp rp2=%>rp rp3=%<rp h1=%>h h2=%>ha"</div><div>logformat squid "%>a/%>A %<A la=%la:%lp la2=%<a/%<a  la3=%<la:%<lp  %un %>rm myip=%la myport=%lp  ru=%ru ru2=%>ru ru3=%<ru rd=%>rd rd2=%<rd h=%>h ssl1=%ssl::bump_mode ssl2=%ssl::>sni ssl3=%ssl::>cert_subject ssl4=%ssl::>cert_issuer  rp1=%rp rp2=%>rp rp3=%<rp h1=%>h h2=%>ha"</div><div>url_rewrite_access allow all</div></div></div><div>"</div><div><br></div><div>Using </div></div><br></div><div class="gmail_extra">"ssl_bump splice step1 all  </div><div class="gmail_extra">ssl_bump bump step3 all"</div><div class="gmail_extra"><br></div><div class="gmail_extra">Nothing is blocked. And I don't see any urls, nor sni info neither in access.log nor in my redirect.log.Only IPs.  I'm trying many https sites.</div><div class="gmail_extra"><br></div><div class="gmail_extra">Using </div><div class="gmail_extra"><div class="gmail_extra">"ssl_bump splice step2 all  </div><div class="gmail_extra">ssl_bump bump step3 all"</div><div class="gmail_extra"><br></div><div class="gmail_extra">Same result.</div><div class="gmail_extra"><br></div><div class="gmail_extra">Using</div><div class="gmail_extra">"</div><div class="gmail_extra"><div class="gmail_extra"><div class="gmail_extra">ssl_bump peek step1 all</div><div class="gmail_extra">ssl_bump splice step2  all</div><div class="gmail_extra">ssl_bump bump step3 all</div></div></div><div class="gmail_extra">"</div><div class="gmail_extra"><br></div><div class="gmail_extra">I can see URLs in the access.log and redirect.log but no IP's. Further I'm getting the header forgery warning in the logs, and all pages start loading, but never finish. Maybe this is something related to the nat rules in the iptables?</div><div class="gmail_extra"><br></div><div class="gmail_extra">For info, I'm using the simplest bash redirector for now. Here's the code</div><div class="gmail_extra"><div class="gmail_extra">while true;</div><div class="gmail_extra">do</div><div class="gmail_extra">    read input;</div><div class="gmail_extra">    echo "input=${input}"  >>/var/log/squid/redirects.log 2>&1</div><div class="gmail_extra">    old_url=$(echo ${input} | awk '{print $1}')</div><div class="gmail_extra">    echo "${old_url}"</div><div class="gmail_extra">    [[ $? != 0 ]] && exit -1</div><div class="gmail_extra">    continue</div><div>done</div></div><div class="gmail_extra"><br></div><div class="gmail_extra"><br></div><div class="gmail_extra">I'll try squid4 next week, maybe the result will be better</div><div class="gmail_extra"><br></div><div class="gmail_extra">Many thanks and cheers,</div><div class="gmail_extra">Moataz</div></div></div>