王可莉
查看搜寻备份文件的字典
.agilekeychain.zip *.7z/.rar/.tar/.tar.gz/.tgz .zip 1.zip 2010.zip 2011.zip 2012.zip 2013.zip 2014.zip 2015.zip 2016.zip 2017.zip 2018.zip 2019.zip 2020.zip archive.zip auth.zip backup.zip backups.zip clients.zip com.zip config.php.zip configuration.php.zip dat.zip dump.zip engine.zip files.zip forum.zip home.zip html.zip index.zip joomla.zip master.zip media.zip my.zip mysql.zip new.zip old.zip site.zip sql.zip vb.zip web.zip website.zip wordpress.zip wp-config.php.zip wp.zip www.zip wwwroot.zip 1.tar.gz 2010.tar.gz 2011.tar.gz 2012.tar.gz 2013.tar.gz 2014.tar.gz 2015.tar.gz 2016.tar.gz 2017.tar.gz 2018.tar.gz 2019.tar.gz 2020.tar.gz archive.tar.gz auth.tar.gz backup.tar.gz backups.tar.gz clients.tar.gz com.tar.gz dat.tar.gz dump.tar.gz engine.tar.gz files.tar.gz forum.tar.gz home.tar.gz html.tar.gz index.tar.gz master.tar.gz media.tar.gz my.tar.gz mysql.tar.gz new.tar.gz old.tar.gz site.tar.gz sql.tar.gz web.tar.gz website.tar.gz wordpress.tar.gz www.tar.gz wwwroot.tar.gz
库伊拉
查看源码:火狐有一个插件叫disable javascript可以禁用JS,然后f12即可
//浏览器选项里面也可以禁用js
Cx330
未参会
GG Bond
robots.txt:在对网站进行SEO优化时,我们出于安全的考虑,会写入robots.txt文件,其目的是就是告诉搜索引擎蜘蛛,网站上哪些内容允许抓取,哪些内容不允许抓取,这样做可以提高搜索引擎的抓取效率,增加搜索引擎对网站的友好度。
robots.txt的作用 1、防止私密或重要内容被搜索引擎抓取 2、节省服务器资源,从而提高服务质量 3、减少重复抓取,提高网站质量 4、指定sitemap文件位置
strange丶君夜
查看网页源代码:
第一种方法就是view-source(在url前面加
第二种是利火狐浏览器特有的(反正谷歌浏览器没看到过)插件进行禁用
第三种:ie浏览器可以把安全级别设置为最高然后刷新,f12就可以用了(不会有人1202了还在用ie把….
字典:暂时还没怎么用到扫描字典,爆破密码字典就有…
robots.txt:
学完忘了..robots.txt是基于robot协议产生的文件,目的是告诉爬虫等该网站哪些地方不能被爬取,可以避免直接某些子网站或者是后台被搜索引擎检索到
然而,robot协议并不是国际规范协议,而是一个约定俗成的协议,相当于“道德准则”,因此有些流氓引擎是可以不遵守robot协议的,这也造成一些漏洞
小tips:目前主流引擎中,谷歌是对robot协议支持度最高的(不过收录本来就是个长期过程)
忘掉姿势:
第一是网上有一些集成脚本或者框架是可以把简单的web操作给完成了的,(当然自己写是最好)
第二是养成个人习惯把,从某一方面到另一方面有哪些方向是可以突破的在做题是都可以尝试一遍(当然提示指明时就不用了…)
第三是把自己忘了的一些操作(导致做题没做出来)写成文档
vim:
备份文件:
例如index.php,某些网站可能会有备份文件:index.php~
临时文件:
使用vim编辑(如果仅进行读操作时一般没有文件时,若意外退出是会留下后缀为.swp的临时文件的,第二次退出就是.swo,以此往上类推(所以为什么不是往下)
AsakuraKrypton
如何避免忘掉姿势:武器化,写成工具或者补充插件;
虽然是这么说,但是感觉操作起来还是有点困难?
