导航:首页 > 净水问答 > squidurl过滤规则

squidurl过滤规则

发布时间:2022-06-26 23:33:41

1. 路由设置里有URL 过滤是什么意思

URL(Uniform Resource Locator),这是万维网的统一资源定位标志,通常称为Web站点。限制局域网上的计算机访问某些网站可以通过设置URL过滤来实现。

本文以TP-Link TL-ER5110为例,介绍了如何实现URL过滤配置步骤,TL-ER5XX路由器可以参考本文档进行配置。网络设备维保路由和交换机之间的主要区别就是交换机发生在OSI参考模型第二层(数据链路层),而路由发生在第三层,即网络层。这一区别决定了路由和交换机在移动信息的过程中需使用不同的控制信息,所以说两者实现各自功能的方式是不同的。
示例1:要禁止LAN上的所有计算机访问NetEase(www.163.com)、新浪(www.sina.com)和下载扩展名为.exe的文件,设置步骤如下:
1,启用URL过滤,选择此规则将仅禁用访问列表中的URL地址
2,添加规则:
1:域名筛选器添加www.163.com和www.sina.com2:关键字筛选器添加.exe
安装完成,如下图所示:
示例2:希望LAN中的计算机仅允许访问NetEase(www.163.com)
1,启用URL过滤,则选择此规则以仅允许访问列表中的URL地址
2,而添加规则:
由于普通门户网站中域名之间的调用关系,只有添加www.163.com的域名过滤不能完全访问页面,会产生页面显示不完整的现象,必须添加到其他被页面调用的域名中,建议使用关键字。
通常打开网站时,需要很长时间才能响应无法打开的呼叫链接。网络设备维保路由器(Router)又称网关设备(Gateway)是用于连接多个逻辑上分开的网络,所谓逻辑网络是代表一个单独的网络或者一个子网。我们可以在浏览器的状态栏中看到相应的链接。如下图所示:
当添加关键字163而不是126时,总是在打开163门户时请求与126相关的链接,此时我们可以添加126关键字。
通用门户域名调用关键字(仅供参考,不同网站还可能在不同区域使用不同的域名服务器):
域名关键字
NetEase163,126,NetEase,midiav,
搜狐,ITC
新浪
腾讯QQ、gtimg、腾讯
[注]:URL过滤仅对标准HTTP站点生效,对HTTP站点或非端口80的HTTPS站点无效。

2. URL过滤是什么

URL过滤就是禁止所有发送到某个地址或则从某个地址发过来的数据包;

URL:统一资源定位符(URL,英语 Uniform /Universal Resource Locator 的缩写)也被称为网页地址,是因特网上标准的资源的地址(Address)。路由器设置方法如下:

1、在浏览器地址栏输入192.168.0.1登陆路由器界面,点击首页“高级设置”进入管理界面。

3. 如何统计squid日志ip url

在squid中access访问日志最为重要,位于/var/log/squid/access.log,Squid把关于HTTP响应的关键信息存放在access.log里。该文件是基于行的,也就是说每行对应一个客户端请求。 squid记录客户端IP(或主机名)、请求URL、响应size、和其他信息。
常用的记录格式如下(包含了10个域):
例如:

1
2

1206507660.803 84367 192.168.1.114 TCP_MISS/502 1486 GET
http://123.138.238.114/QQ2008SpringKB1.exe - DIRECT/123.138.238.114 text/html


下面来看看意思

1

logformat squid %ts.%03tu %6tr %>a %Ss/%03Hs %<st %rm %ru %un %Sh/%<A %mt


时间戳: 请求完成时间,以 Unix 时间来记录的(UTC 1970-01-01 00:00:00 开始的时间)它是毫秒级的。 squid使用这种格式而不是人工可读的时间格式,是为了简化某些日志处理程序的工作。
响应时间: 对HTTP响应来说,该域表明squid花了多少时间来处理请求。在squid接受到HTTP请求时开始计时,在响应完全送出后计时终止。响应时间是毫秒级的。尽管时间值是毫秒级的,但是精度可能是10毫秒。在squid负载繁重时,计时变得没那么精确。
客户端地址: 该域包含客户端的IP地址,或者是主机名.
结果/状态码: 该域包含2个 token,以斜杠分隔。第一个token叫结果码,它把协议和响应结果(例如TCP_HIT或UDP_DENIED)进行归类。这些是squid专有的编码,以TCP_开头的编码指HTTP请求,以UDP_开头的编码指ICP查询。第2个token是HTTP响应状态码(例如200,304,404等)。状态码通常来自原始服务器。在某些情形下,squid可能有义务自己选择状态码.
传输size: 该域指明传给客户端的字节数。严格的讲,它是squid告诉TCP/IP协议栈去发送给客户端的字节数。这就是说,它不包括TCP/IP头部的overhead。也请注意,传输size正常来说大于响应的Content-Length。传输size包括了HTTP响应头部,然而Content- Length不包括。
请求方式: 该域包含请求方式.
URI: 该域包含来自客户端请求的URI。大多数记录下来的URI实际是URL(例如,它们有主机名)。在记日志时,squid删掉了在第一个问号(?)之后的所有URI字符,除非禁用了strip_query_terms指令。
客户端身份: 无
对端编码/对端主机: 对端信息包含了2个token,以斜杠分隔。它仅仅与cache 不命中的请求有关。第一个token指示如何选择下一跳,第二个token是下一跳的地址。当squid发送一个请求到邻居cache时,对端主机地址是邻居的主机名。假如请求是直接送到原始服务器的,则squid会写成原始服务器的IP地址或主机名–假如禁用了log_ip_on_direct。 NONE/-这个值指明squid不转发该请求到任何其他服务器。
内容类型: 原始access.log的默认的最后一个域,是HTTP响应的内容类型。 squid从响应的Content-Type头部获取内容类型值。假如该头部丢失了,squid使用一个横杠(-)代替。
假如激活了 log_mime_hdrs 指令,squid在每行追加2个附加的域:
HTTP请求头部: Squid 编码HTTP请求头部,并且在一对方括号之间打印它们。方括号是必须的,因为squid不编码空格字符。编码方案稍许奇怪。回车(ASCII 13)和换行(ASCII 10)分别打印成\r和\n。其他不可打印的字符以RFC 1738风格来编码,例如Tab(ASCII 9)变成了%09。
HTTP响应头部: Squid编码HTTP响应头部,并且在一对方括号之间打印它们。注意这些是发往客户端的头部,可能不同于从原始服务器接受到的头部。
如果日志需要给 awstats 分析和让人可读性更加好,可能需要修改日志为 combined:
logformat combined %>a %ui %un [%tl] "%rm %ru HTTP/%rv" %Hs %<st "%{Referer}>h" "%{User-Agent}>h" %Ss:%Sh
access_log /var/log/squid/access.log combined

会显示为

1

110.211.14.58 - - [04/Apr/2008:00:07:39 +0800] "GET http://www.php-oa.com/0.flv HTTP/1.1" 206 139732 "-" "Mozilla/4.0 (compatible; MSIE 6.0;)"TCP_HIT 13936
store.log
在 store.log 记录上面不能从 access.log 中的一些信息,如 Squid 关于存储或删除 cache 目标的相关的一些操作和时间.对每个 Squid 中存储的文件和不能 cache 的文件,以及每个被轮换策略删除的文件,Squid 都会创建相应的日志.
注意这个日志文件记录了所有的文件.
信息有如下的一些信息:
某个特定的 HTTP 请求是否被 cache.
cache 目标的文件号.可以通过应用的 UFS 存储机制,来查到该文件号到路径名,并且检查 cache 文件的内容.
响应的内容长度: 包括 Content-Length 值和实际的 body 大小.
Date, Last-Modified, 和 Expires 等过期头部的值.
响应的 cache 关键字(例如MD5 hash值).
例如:

1

1323468268.676 RELEASE -1 FFFFFFFF 200 1323467369 1322847727 1365003369 video/x-flv 521858017/96195 GET http://www.php-oa.com/0.flv


如上:每个日志条目包含如下13个域:
时间戳: 事件何时发生,表现为Unix纪元以来的秒数,它是毫秒级的.
动作: cache目标发生的动作.该域有3个可能值:SWAPOUT,RELEASE,和SO_FAIL.

SWAPOUT在Squid成功的存储目标到磁盘时发生.某些目标例如那些消极cache的,仅保存在内存而不是磁盘,Squid不会在store.log里记录它们.
SO_FAIL表明Squid不能完整的存储目标到磁盘.多半意味着存储机制拒绝以写方式打开新的磁盘文件.
RELEASE在Squid从cache里删除目标,或首先就决定响应不可存储时发生.
目录号: 目录号是十进制小数形式,它是个到cache目录的7位索引.对没有存储到磁盘的目标,该域包含-1值.
文件号: 文件号是25位的标识符,内在的被squid使用.它被写成8字符的十六进制号.对UFS基础的存储机制没有存储到磁盘的目标,没有有效的文件号.对这些目标,该域的值是FFFFFFFF.仅仅在RELEASE和SO_FAIL情况下才会出现这个值.
cache关键字: Squid使用MD5哈希值作为主要的索引来定位目标.该关键字基于请求方式、URI、和其他可能的信息计算得来.可以从cache关键字来查找store.log条目.
状态码: 该域显示响应的HTTP状态码,跟access.log一样.表13.1是状态码列表.
日期: HTTP响应的Date头部值,表现为Unix纪元以来的秒数.值-1表示Date头部不可解析,-2意味着头部完缺.
最后修改时间: HTTP响应的Last-Modified头部值,表现为Unix纪元以来的秒数.值-1表示Last-Modified头部不可解析,-2意味着头部完缺.
过期时间: HTTP响应的Expires头部值,表现为Unix纪元以来的秒数.值-1表示Expires头部不可解析,-2意味着头部完缺.
内容类型: HTTP响应的Content-Type头部值,排除了任何media-type参数.假如Content-Type丢失了,Squid插入值unknown.
内容长度/大小: 该域包含2个数字,以斜杠分开.第一个是Content-Length头部值. -1表明Content-Length头部不存在.第二个是HTTP消息 body的实际大小.你可使用这2个数字来部分的验证接受到的响应,并验证原始服务器是否不正确的计算了内容长度.大多数情形下,这2个数字相等.
方式: 请求目标的HTTP方式,跟access.log里的一样.
URI: 最后一个域是请求URI,跟access.log里的一样.该域也有前述章节提到的空格问题.然而,这里不必为此担忧,因为你可安全的忽略任何多余的域.

对许多RELEASE的条目,在最后8个域出现的是疑问号(?).这是因为这些域的大部分值来自squid称为MemObject的结构.该结构仅在目标已被接受时,或目标被完整存储在内存时,才会出现. Squid cache里的大部分目标没有MemObject结构,因为它们仅存在于磁盘.对这些情况,Squid在相应域放置一个疑问号.

简单分析
squid的日志很重要.常常要了解的,其中最重要的就是命中率啦,不然反向代理做的用就不大.
#cat access.log|gawk '{print $4}'|sort|uniq -c|sort -nr
9568 TCP_IMS_HIT/304
6313 TCP_HIT/200
2133 TCP_MISS/200
1568 TCP_MISS/206
587 TCP_MEM_HIT/200
531 TCP_MISS/304
207 TCP_REFRESH_HIT/200
152 TCP_REFRESH_HIT/304
86 TCP_NEGATIVE_HIT/404
69 TCP_MISS/404
9 TCP_MISS/000
4 TCP_MISS/503
1 TCP_REFRESH_MISS/000
1 TCP_DENIED/400
可以使用上面的方法,大约的分析一下命令中比.什么意思就看下面的详解.
#cat /var/log/squid/access.log |grep TCP_MEM_HIT
如果看到很多的TCP_MEM_HIT ,这表明该文件是从内存缓存读取的,squid已经起作用了!你再用浏览器打开该文件,应该是快如闪电了..呵呵,大功告成了!还有其他类型的HIT,如TCP_HIT等等,这些是从磁盘读取的,我觉得加速的意义不大,只不过缓解了apache的压力而已.
相应于HTTP请求,下列标签可能出现在access.log文件的第四个域.
TCP_HIT
Squid发现请求资源的貌似新鲜的拷贝,并将其立即发送到客户端.
TCP_MISS
Squid没有请求资源的cache拷贝.
TCP_REFERSH_HIT
Squid发现请求资源的貌似陈旧的拷贝,并发送确认请求到原始服务器.原始服务器返回304(未修改)响应,指示squid的拷贝仍旧是新鲜的.
TCP_REF_FAIL_HIT
Squid发现请求资源的貌似陈旧的拷贝,并发送确认请求到原始服务器.然而,原始服务器响应失败,或者返回的响应Squid不能理解.在此情形下,squid发送现有cache拷贝(很可能是陈旧的)到客户端.
TCP_REFRESH_MISS
Squid发现请求资源的貌似陈旧的拷贝,并发送确认请求到原始服务器.原始服务器响应新的内容,指示这个cache拷贝确实是陈旧的.
TCP_CLIENT_REFRESH_MISS
Squid发现了请求资源的拷贝,但客户端的请求包含了Cache-Control: no-cache指令.Squid转发客户端的请求到原始服务器,强迫cache确认.
TCP_IMS_HIT
客户端发送确认请求,Squid发现更近来的、貌似新鲜的请求资源的拷贝.Squid发送更新的内容到客户端,而不联系原始服务器.
TCP_SWAPFAIL_MISS
Squid发现请求资源的有效拷贝,但从磁盘装载它失败.这时squid发送请求到原始服务器,就如同这是个cache丢失一样.
TCP_NEGATIVE_HIT
在对原始服务器的请求导致HTTP错误时,Squid也会cache这个响应.在短时间内对这些资源的重复请求,导致了否命中. negative_ttl指令控制这些错误被cache的时间数量.请注意这些错误只在内存cache,不会写往磁盘.下列HTTP状态码可能导致否定 cache(也遵循于其他约束): 204, 305, 400, 403, 404, 405, 414, 500, 501, 502, 503, 504.
TCP_MEM_HIT
Squid在内存cache里发现请求资源的有效拷贝,并将其立即发送到客户端.注意这点并非精确的呈现了所有从内存服务的响应.例如,某些cache在内存里,但要求确认的响应,会以TCP_REFRESH_HIT, TCP_REFRESH_MISS等形式记录.
TCP_DENIED
因为http_access或http_reply_access规则,客户端的请求被拒绝了.注意被http_access拒绝的请求在第9域的值是NONE/-,然而被http_reply_access拒绝的请求,在相应地方有一个有效值.
TCP_OFFLINE_HIT
当offline_mode激活时,Squid对任何cache响应返回cache命中,而不用考虑它的新鲜程度.
TCP_REDIRECT
重定向程序告诉Squid产生一个HTTP重定向到新的URI(见11.1节).正常的,Squid不会记录这些重定向.假如要这样做,必须在编译squid前,手工定义LOG_TCP_REDIRECTS预处理指令.
NONE
无分类的结果用于特定错误,例如无效主机名.
相应于ICP查询,下列标签可能出现在access.log文件的第四域.
UDP_HIT
Squid在cache里发现请求资源的貌似新鲜的拷贝.
UDP_MISS
Squid没有在cache里发现请求资源的貌似新鲜的拷贝.假如同一目标通过HTTP请求,就可能是个cache丢失.请对比UDP_MISS_NOFETCH.
UDP_MISS_NOFETCH
跟UDP_MISS类似,不同的是这里也指示了Squid不愿去处理相应的HTTP请求.假如使用了-Y命令行选项,Squid在启动并编译其内存索引时,会返回这个标签而不是UDP_MISS.
UDP_DENIED
因为icp_access规则,ICP查询被拒绝.假如超过95%的到某客户端的ICP响应是UDP_DENIED,并且客户端数据库激活了(见附录A),Squid在1小时内,停止发送任何ICP响应到该客户端.若这点发生,你也可在cache.log里见到一个警告.
UDP_INVALID
Squid接受到无效查询(例如截断的消息、无效协议版本、URI里的空格等).Squid发送UDP_INVALID响应到客户端.

4. squid 可以控制断点续传吗

弄清楚acl就可以了

squid中可以用acl定义访问控制列表,从而实现非常灵活和复杂的规则配置

1、定义目标访问IP
acl dropip dst 120.114.150.21/32
2、定义目标访问网址
acl dropfb dstdomain .abc.com
也可引用外部文件形式
acl dropdomain dstdomain "/etc/squid/dropdomain.txt"
3、定义正则过滤访问网址
acl ksuurl url_regex ^http://www.abc.com/cht/.*
4、定义认证用户
acl squid_user proxy_auth REQUIRED
squid会根据/etc/squid/squid_user.txt中的用户进行验证
5、定义访问来源IP
acl Localhost src 127.0.0.1/32
其他
http_access 配合deny 或 allow 来对acl定义的列表进行访问或拒绝
http_access deny dropip
http_access deny dropfb
http_access deny dropdomain
http_access allow ksuurl
http_access allow squid_user
http_access allow Localhost
cache配合deny 或 allow 来对acl定义的列表进行缓存或不缓存
cache deny ksuurl
配置日志
access_log /var/log/squid/access.log squid
cache_log /var/log/squid/cache.log
cache_store_log /var/log/squid/store.log
connect_timeout 2 minutes

5. URL过滤是什么意思

URL过滤源通过将Web流量与数据库进行比较来限制访问,以防止访问者访问不安全的网站。没有安装的是数据库。

URL过滤技术用于对互联网上的网站进行分类,将所有Web流量与URL过滤数据库进行比较,并通过引用已经分类的中央数据库或根据分类中包含的信息来允许/阻止对组织的Web用户的访问。

数据库中定义的每个网站都分配给URL类别或组,可以通过以下两种方式之一来使用它们:

1、根据URL类别阻止或允许流量。创建URL过滤配置文件,该配置文件为每个URL类别指定操作,并将配置文件附加到策略。这包括恶意软件或网络钓鱼站点的类别。

2、根据URL类别匹配流量以实施策略。如果目标是将特定策略规则仅应用于特定Web流量类别,请在创建策略规则时将类别添加为匹配条件。

(5)squirl过滤规则扩展阅读:

URL过滤的优点。

1、公司可以使用URL过滤作为工具来阻止员工访问非生产性站点,确保员工时间不会在办公时间内用于不必要的活动,从而帮助组织提高工作效率。

2、可以实现安全的Web访问,并防止日益复杂的威胁,包括恶意软件和网络钓鱼站点。

6. 怎么实现URL过滤功能

解决楼主第一个问题:实现URL过滤:针对 对特定的网址过滤,可以 安装版 防火墙来完成 或者权 诺顿家长控制客户端 来过滤 特定的网址。楼主只要将想要 过滤的网址添加到 黑名单即可。解决楼主第二个问题:IP攻击:局域网内 最常见 的IP攻击 是 ARP欺骗,要实现ARP欺骗 建议楼主下载 :1、P2P终结者2、长角牛网络监控机3、幻境网盾其中一个软件 来进行。

7. 我在windows上使用squid代理的,不能访问动态页面 ,请教

代理提供两个方面的服务:一是让不能直接访问Internet的用户访问Internet,因为允许一台权限较大的计算机直接连接网络更安全也更易于管理;二是让那些已经能够访问Internet的用户可以更快或更广泛地访问,因为代理服务器可以将访问较为频繁的网页缓存到本地,当有人再次访问同一页面时,代理可以直接发送本地页面而无需浪费网络带宽。当然也可以二者兼而有之。

我们以应用最广泛的Squid为例,讨论Linux下的代理服务器。这里所指的仅仅是服务器端应用,不包括客户端配置。Squid的优点是功能强大、配置简单、文档丰富;缺点是目前支持的协议尚不够广泛,对超大型应用略感吃力,不过这些不足都在慢慢完善之中。对于初学者和普通的应用而言,Squid仍是最佳选择。

在此,我们要配置一个只对内部网络提供代理服务的Proxy Server。它将用户分为高级用户和普通用户两种,对高级用户采用网卡物理地址识别的方法,普通用户则需要输入用户名和口令才能正常使用。高级用户没有访问时间和文件类型的限制,而普通用户只在上班时可以访问以及一些其它的限制。

安装

可以从Squid站点www.squid-cache.org获取该软件的源代码安装包,包括gz和bz2两种压缩方式。也可以使用Linux的发行版,如Red

Hat提供的RPM包。

RPM方式安装很简单,命令如下:

$ rpm -ivh Squid-2.x.STALBx.i386.rpm

不过笔者认为,即便是系统中已经默认安装了Squid,也应当先删掉然后安装最新的源代码包。因为开源软件会不断修正问题、提供更新的功能,使用最新版本可以保证最高的性能及安全,而且源代码方式可以完全定制系统。不过STABLE稳定版、DEVEL版通常是提供给开发人员测试程序的,假定下载了最新的稳定版squid-2.5.STABLE2.tar.gz,用以下命令解开压缩包:

$ tar xvfz squid-2.5.STABLE.tar.gz

用bz2方式压缩的包可能体积更小,相应的命令是:

$ tar xvfj squid-2.5.STABLE.tar.bz2

然后,进入相应目录对源代码进行配置和编译,命令如下:

$ cd squid-2.5.STABLE2

配置命令configure有很多选项,如果不清楚可先用“-help”查看。通常情况下,用到的选项有以下几个:

--prefix=/web/squid #指定Squid的安装位置,如果只指定这一选项,那么该目录下会有bin、sbin、man、conf等目录,而主要的配置文件此时在conf子目录中。为便于管理,最好用参数--sysconfdir=/etc把这个文件位置配置为/etc。
--enable-storeio=ufs,null #使用的文件系统通常是默认的ufs,不过如果想要做一个不缓存任何文件的代理服务器,就需要加上null文件系统。
--enable-arp-acl #这样可以在规则设置中直接通过客户端的MAC地址进行管理,防止客户使用IP欺骗。
--enable-err-languages="Simplify_Chinese" --enable-default-err-languages="Simplify_Chinese" #上面两个选项告诉Squid编入并使用简体中文错误信息。
--enable-linux-netfilter #允许使用Linux的透明代理功能。
--enable-underscore #允许解析的URL中出现下划线,因为默认情况下Squid会认为带下划线的URL是非法的,并拒绝访问该地址。

整个配置编译过程如下:

./configure --prefix=/var/squid --sysconfdir=/etc --enable-arp-acl --enable-linux-netfilter --enable-pthreads --enable-err-language="Simplify_Chinese" --enable-storeio=ufs,null --enable-default-err-language="Simplify_Chinese" --enable-auth="basic" --enable-sc-auth-helpers="NCSA" --enable-underscore
其中一些选项有特殊作用,将在下面介绍它们。

最后执行make和make install两条命令,将源代码编译为可执行文件,并拷贝到指定位置。

基本配置

安装完成后,接下来要对Squid的运行进行配置(不是前面安装时的配置)。所有项目都在squid.conf中完成。Squid自带的squid.conf

包括非常详尽的说明,相当于一篇用户手册,对配置有任何疑问都可以参照解决。

在这个例子中,代理服务器同时也是网关,内部网络接口eth0的IP地址为192.168.0.1,外部网络接口eth1的IP地址为202.103.x.x。

下面是一个基本的代理所需要配置选项: http_port 192.168.0.1:3128

默认端口是3128,当然也可以是任何其它端口,只要不与其它服务发生冲突即可。为了安全起见,在前面加上IP地址,Squid就不会监听外部的网络接口。

下面的配置选项是服务器管理者的电子邮件,当错误发生时,该地址会显示在错误页面上,便于用户联系:

cache_mgr [email protected]

以下这些参数告诉Squid缓存的文件系统、位置和缓存策略:
cache_dir ufs /var/squid cache_mem 32MB cache_swap_low 90 cache_swap_high 95

在这里,Squid会将/var/squid目录作为保存缓存数据的目录,每次处理的缓存大小是32兆字节,当缓存空间使用达到95%时,新的内容将取代旧的而不直接添加到目录中,直到空间又下降到90%才停止这一活动。如果不想Squid缓存任何文件,如某些存储空间有限的专有系统,可以使用null文件系统(这样不需要那些缓存策略): cache_dir null /tmp

下面的几个关于缓存的策略配置中,较主要的是第一行,即用户的访问记录,可以通过分析它来了解所有用户访问的详尽地址:

cache_access_log /var/squid/access.log cache_log /var/squid/cache.log cache_store_log /var/squid/store.log

下面这行配置是在较新版本中出现的参数,告诉Squid在错误页面中显示的服务器名称:
visible_hostname No1.proxy

以下配置告诉Squid如何处理用户,对每个请求的IP地址作为单独地址处理: client_mask 255.255.255.255

如果是普通代理服务器,以上的配置已经足够。但是很多Squid都被用来做透明代理。所谓透明代理,就是客户端不知道有代理服务器的存在,当然也不需要进行任何与代理有关的设置,从而大大方便了系统管理员。相关的选项有以下几个:
httpd_accel_host virtual httpd_accel_port 80 httpd_accel_with_proxy on httpd_accel_user_host_header on

在Linux上,可以用iptables/ipchains直接将对Web端口80的请求直接转发到Squid端口3128,由Squid接手,而用户浏览器仍然认为它访问的是对方的80端口。例如以下这条命令:
iptables -t nat -A PREROUTING -s 192.168.0.200/32 -p tcp --dport 80 -j REDIRECT 3128
就是将192.168.0.200的所有针对80端口的访问重定向到3128端口。

所有设置完成后,关键且重要的任务是访问控制。Squid支持的管理方式很多,使用起来也非常简单(这也是有人宁愿使用不做任何缓存的Squid,也不愿意单独使用iptables的原因)。Squid可以通过IP地址、主机名、MAC地址、用户/密码认证等识别用户,也可以通过域名、域后缀、文件类型、IP地址、端口、URL匹配等控制用户的访问,还可以使用时间区间对用户进行管理,所以访问控制是Squid配置中的重点。Squid用ACL(Access Control List,访问控制列表)对访问类型进行划分,用http_access deny 或allow进行控制。根据需求首先定义两组用户advance和normal,还有代表所有未指明的用户组all及不允许上网的baser,配置代码如下:

acl advance 192.168.0.2-192.168.0.10/32 acl normal src 192.168.0.11-192.168.0.200/32 acl baser src 192.168.0.100/32 acl

baddst dst www.somebadsite.com acl all src 0.0.0.0/0 http_access deny baser http_access allow advance http_access allow normal
可以看出,ACL的基本格式如下: acl 列表名称 控制方式 控制目标

比如acl all src 0.0.0.0/0,其名称是all,控制方式是src源IP地址,控制目标是0.0.0.0/0的IP地址,即所有未定义的用户。出于安全考虑,总是在最后禁止这个列表。

下面这个列表代表高级用户,包括IP地址从192.168.0.2到192.168.0.10的所有计算机:
acl advance 192.168.0.2-192.168.0.20/32

下面这个baser列表只包含一台计算机,其IP地址是192.168.0.100: acl baser 192.168.0.100/32

ACL写完后,接下来要对它们分别进行管理,代码如下: http_access deny baser http_access allow advance http_access allow normal

上面几行代码告诉Squid不允许baser组访问Internet,但advance、normal组允许(此时还没有指定详细的权限)。由于Squid是按照顺序读取规则,会首先禁止baser,然后允许normal。如果将两条规则顺序颠倒,由于baser在normal范围中,Squid先允许了所有的normal,那么再禁止baser就不会起作用。

特别要注意的是,Squid将使用allow-deny-allow-deny……这样的顺序套用规则。例如,当一个用户访问代理服务器时,Squid会顺序测试Squid中定义的所有规则列表,当所有规则都不匹配时,Squid会使用与最后一条相反的规则。就像上面这个例子,假设有一个用户的IP地址是192.168.0.201,他试图通过这台代理服务器访问Internet,会发生什么情况呢?我们会发现,他能够正常访问,因为Squid找遍所有访问列表也没有和192.168.0.201有关的定义,便开始应用规则,而最后一条是deny,那么Squid默认的下一条处理规则是allow,所以192.168.0.201反而能够访问Internet了,这显然不是我们希望的。所以在所有squid.conf中,最后一条规则永远是http_access deny all,而all就是前面定义的“src 0.0.0.0”。

按照这个配置应该没有问题

8. 路由器怎么设置URL网址过滤功能

http://jingyan..com/article/1e5468f97f4475484961b72d.html
首先看一下我们的需求,市场部的同事可以访问所有的网址,人事部的同事只能够访问指定的部分网址,而其它部门的同事只能够访问公司的网站,在访问其它网站的时候,也会自动跳转到公司网站

首先我们要把不同的部门设置为不同的地址组,用地址组的方式来管理其上网。依次点击“对象管理/地址管理/地址组”菜单项,然后在组设置中自定义一个组名,点击下面的“新增”按钮

用同样的方法,依次添加其它的地址组,如人事部,其它部门等

接下来设置IP段地址,依次点击路由器的“对象管理/地址管理/地址”菜单项,点击地址标签,然后在下面设置好名称及IP段,

用上面同样的方法,依次添加其它部门的IP地址段

接着点击右侧的“视图”标签,选择组名后可以在下面的列表中看到相应的地址组,然后点击添加按钮,添加到包含地址列表中,最后点击设置按钮,全部设置完成后,记得点击“保存设置”按钮,以保存前面的所有的设置。

接下来设置URL过滤功能,在路由器管理界面,依次点击“行为管控/网址过滤/URL过滤”菜单,然后勾选“启用URL地址过滤功能”前的复选框,点击“设置”按钮。

在URL地址过滤规则中,受控地址组选择“市场部”,规则类型选择“允许访问下列的URL地址”,关键字设置为.,点击下面的“启用”,最后点击“新增”按钮,这样市场部的IP地址段,就可以访问所有的网站了。

接下来设置人事部的规则,在受控地址组中选择人事部,规则类型选择“允许访问下列的URL地址”,过滤方式选择“关键字”,下面的关键字部分输入可访问的指定网址,同样选择“启用”选项,最后点击“新增”按钮

最后设置其它部分的规则,在受控地址组中,设置其它IP组,在规则类型中选择“禁止访问下列的URL地址”,在关键字中填写.,重定向一栏中填写公司官网的域名,最后选择启用选项,这样其它部分在访问网址的时候,就会自动重定向到你输入的公司官网地址了。全部设置完成后,记得再点击“保存”配置按钮,保存刚才的设置。

9. 如何在路由器端设置域名或IP过滤

  1. 浏览器输入192.168.0.1登录路由器设置,各品牌路由器登录地址可能不同,具体可参照路由器底部标示,


2.登陆路由器管理界面后,点击“安全设置”――“URL过滤”,


3.设置时,必须将“URL过滤功能”开启,“启用该项”开启,并将设置保存后才会生效,URL过滤规则总共可以设置10条,每条URL字符串只能对应一个,不能设置多个字符串。

阅读全文

与squidurl过滤规则相关的资料

热点内容
100kd超滤膜的孔径是多少 浏览:299
净水器净化水的数值是多少 浏览:840
净水器185的滤芯什么型号 浏览:209
电解锰废水中含有的物质 浏览:445
污水的工艺有哪些 浏览:934
污水管道标高高是什么意思 浏览:255
pan超滤膜孔径 浏览:568
奇瑞e3机油滤芯和什么车通用 浏览:948
旧空气滤芯怎么拆 浏览:285
jx0805d是什么滤芯 浏览:419
轻井泽蒸馏厂参观 浏览:856
河东空气净化器多少钱 浏览:674
超滤UF为什么三个口 浏览:153
轩逸空气滤芯怎么看需不需要换 浏览:653
天津废水回用设备 浏览:283
贴车侧挡膜为什么刮不干净水泡 浏览:373
水利资质可以承包污水工程项目 浏览:471
环保餐厨污水处理 浏览:880
土的阳离子交换量大约多少 浏览:249
养猪废水 浏览:984