|
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要 登录 才可以下载或查看,没有帐号?立即注册
x
在这里你会学到更多的知识,学习linux,更要学习一种geek的精神,python之禅中也说过:以总结分享为荣,以跪求其解为耻;
Curl是Linux下一个很壮大的http命令行工具,其功效非常壮大。
1)二话不说,先从这里入手下手吧!
$curllinuxidc.com">http://www.ckuyun.com
回车以后,www.ckuyun.com的html就稀里哗啦地显现在屏幕上了~
2)嗯,要想把读过去页面存上去,是否是要如许呢?
$curlhttp://www.ckuyun.com>page.html
固然能够,但不必这么贫苦的!
用curl的内置option就好,存下http的了局,用这个option:-o
$curl-opage.htmlhttp://www.ckuyun.com
如许,你就能够看到屏幕上呈现一个下载页面进度唆使。等停顿到100%,天然就OK咯
3)甚么甚么?!会见不到?一定是你的proxy没有设定了。
利用curl的时分,用这个option能够指定http会见所利用的proxy服务器及其端口:-x
$curl-x123.45.67.89:1080-opage.htmlhttp://www.ckuyun.com
4)会见有些网站的时分对照厌恶,他利用cookie来纪录session信息。
像IE/NN如许的扫瞄器,固然能够容易处置cookie信息,但我们的curl呢?…..
我们来进修这个option:-D<―这个是把http的response内里的cookie信息存到一个出格的文件中往
$curl-x123.45.67.89:1080-opage.html-Dcookie0001.txthttp://www.ckuyun.com
如许,当页面被存到page.html的同时,cookie信息也被存到了cookie0001.txt内里了
5)那末,下一次会见的时分,怎样持续利用前次留下的cookie信息呢?要晓得,良多网站都是靠监督你的cookie信息,来判别你是否是不按礼貌会见他们的网站的。
此次我们利用这个option来把前次的cookie信息追加到httprequest内里往:-b
$curl-x123.45.67.89:1080-opage1.html-Dcookie0002.txt-bcookie0001.txthttp://www.ckuyun.com
如许,我们就能够几近摹拟一切的IE操纵,往会见网页了!
6)略微等等~我仿佛健忘甚么了~
对了!是扫瞄器信息
有些厌恶的网站总要我们利用某些特定的扫瞄器往会见他们,偶然候更太过的是,还要利用某些特定的版本NND,那里偶然间为了它往找这些奇异的扫瞄器呢!?
幸亏curl给我们供应了一个有效的option,可让我们随便指定本人此次会见所传播鼓吹的本人的扫瞄器信息:-A
$curl-A"Mozilla/4.0(compatible;MSIE6.0;WindowsNT5.0)"-x123.45.67.89:1080-opage.html-Dcookie0001.txthttp://www.ckuyun.com
如许,服务器端接到会见的请求,会以为你是一个运转在Windows2000上的IE6.0,嘿嘿嘿,实在大概你用的是苹果机呢!
而"Mozilla/4.73[en](X11;U;Linux2.2;15i686"则能够告知对方你是一台PC上跑着的Linux,用的是Netscape4.73,呵呵呵
7)别的一个服务器端经常使用的限定办法,就是反省http会见的referer。好比你先会见首页,再会见内里所指定的下载页,这第二次会见的referer地点就是第一次会见乐成后的页面地点。如许,服务器端只需发明对下载页面某次会见的referer地点不是首页的地点,就能够判定那是个盗连了~
厌恶厌恶~我就是要盗连~!!
幸亏curl给我们供应了设定referer的option:-e
$curl-A"Mozilla/4.0(compatible;MSIE6.0;WindowsNT5.0)"-x123.45.67.89:1080-e"mail.linuxidc.com"-opage.html-Dcookie0001.txthttp://www.ckuyun.com
如许,就能够骗对方的服务器,你是从mail.linuxidc.com点击某个链接过去的了,呵呵呵
8)写着写着发明遗漏甚么主要的器材了!――-使用curl下载文件
方才讲过了,下载页面到一个文件里,可使用-o,下载文件也是一样。好比,
$curl-o1.jpghttp://cgi2.tky.3web.ne.jp/~zzh/screen1.JPG
这里教人人一个新的option:-O年夜写的O,这么用:
$curl-Ohttp://cgi2.tky.3web.ne.jp/~zzh/screen1.JPG
如许,就能够依照服务器上的文件名,主动存在当地了!
再来一个更好用的。
假如screen1.JPG之外另有screen2.JPG、screen3.JPG、....、screen10.JPG必要下载,难不成还要让我们写一个script来完成这些操纵?
不干!
在curl内里,这么写就能够了:
$curl-Ohttp://cgi2.tky.3web.ne.jp/~zzh/screen[1-10].JPG
呵呵呵,凶猛吧?!~
9)再来,我们持续解说下载!
$curl-Ohttp://cgi2.tky.3web.ne.jp/~{zzh,nick}/[001-201].JPG
如许发生的下载,就是
~zzh/001.JPG
~zzh/002.JPG
...
12下一页
在这里你会学到更多的知识,学习linux,更要学习一种geek的精神,python之禅中也说过:以总结分享为荣,以跪求其解为耻; |
|