内网-Windows密码抓取 windows密码抓取1.Mimikatz介绍Mimikatz介绍Mimikatz是法国人benjamin开发的一款功能强大的轻量级调试工具,但由于其功能强大,能够直接读取 WindowsXP-2012等操作系统的明文密码而闻名于渗透测试,可以说是渗透必备工具,mimikatz可以从内存中提取明文密码、哈希、PIN 码和 kerberos 票证。 mimikatz 还可以执行哈希传递、票证传递或构 2023-11-03 后渗透
内网-Windows认证 windows认证1.windows本地认证–NTML哈希和LM哈希本地认证流程Windows的登陆密码是储存在系统本地的SAM文件中的,在登陆Windows的时候,系统会将用户输入的密码与SAM文件中的密码进行对比,如果相同,则认证成功 SAM文件是位于 %SystemRoot%\system32\config\ 目录下的,用于储存本地所有用户的凭证信息,但是这并不代表 着你可以随意去查看系统密 2023-11-03 后渗透
内网信息搜集3-搜集域环境信息 1.收集域环境的基本信息查询权限1whoami 1、本地普通用户:当前为本机的user用户 2、本地管理员用户:当前为本机的administrator 3、域内用户:当前为域内普通用户 4、域内用户:当前为hack域内的administrator用户 在这四种情况中。 如果当前内网中存在域,那么本地普通用户只能查询本机相关信息,不能查询域内信息. 而本地管理员用户和域内用户可以查询 2023-10-31 后渗透
内网信息搜集2-内网ip+端口扫描 1.内网IP扫描NetBIOS这是一款用于扫描Windows网络上NetBIOS名字信息的程序。该程序对给出范围内的每一个地址发送NetBIOS状态查询,并且以易读的表格列出接收到的信息,对于每个响应的主机,NBTScan列出它的IP地址、NetBIOS计算机名、登录用户名和MAC地址。但只能用于局域网,NBTSCAN可以取到 PC的真实IP地址和MAC地址,如果有”ARP攻击”在做怪,可以找到装 2023-10-31 后渗透
内网信息搜集1-搜集靶机信息 1.利用CS收集靶机信息场景例:制作木马,目标上线 网络配置信息1ipconfig 操作系统和版本信息123systeminfosysteminfo | findstr /B /C:"OS Name" /C:"OS Version"systeminfo| findstr /B /C:"OS 名称" /C:"OS 版本 2023-10-31 后渗透
内网基础-域环境 内网基础1.域介绍 Windows域是计算机网络的一种形式,其中所有用户帐户 ,计算机,打印机和其他安全主体都在位于称为域控制器的一个或多个中央计算机集群上的中央数据库中注册。 身份验证在域控制器上进行。在域中使用计算机的每个人都会收到一个唯一的用户帐户,然后可以为该帐户分配对该域内资源的访问权限。 域 (Domain)是一个有安全边界的计算机集合(安全边界的意思是,在两个域中,一个域中的 2023-10-27 后渗透
CS基础操作 1 Cobalt Strike的特点Cobalt Strike简称CS 用于团队作战使用,由一个服务端和多个客户端组成,能让多个攻击者这在一个团队服务器上共享目标资源和信息 CS有很多Payload的生成模块 可以生成EXE,dll,vbs,图片马,bad,vba宏,和shellcode等等 CS还支持钓鱼攻击,可自动化挂马链接生成 CS还有很多后渗透模块,浏览器代理模块,端口转发 扫描,提权,s 2023-10-27 后渗透
msf基础操作 MSF 学习官网:https://metasploit.com/ Metaspolit体系框架 模块模块组织按照不同的用途分为7种类型的模块 (Modules): 分为辅助模块(Aux)、渗透攻击模块 (Exploits)、后渗透攻击模块(Post)、攻击载荷模块 (payloads)、 编码器模块(Encoders)、空指令模块(Nops)、 免杀模块(Evasion) Exploits:渗透 2023-10-27 后渗透
爬虫小项目1 爬虫小项目:爬取https://ssr1.scrape.center/ 目标:1.按列表顺序爬取每个电影详情页 2.利用正则提取海报、名称、类别、上映时间、评分、剧情简介 3.将爬取的内容保存下来 网页分析: 海报和标题都有跳转到详情页的链接/detail/1 页码url为/page/3 一共10页 实现12341.遍历所有页码,拼接url2.拿到 2023-10-07 python
爬虫学习 爬虫学习urllibpython内置的http请求库 4大模块: 1.request模块:最基本的http请求模块 2.error模块:异常处理模块 3.parse模块:工具模块,提供url的处理方法 4.robotparser模块:识别robot.txt request第一个爬虫123456789101112131415161718#!usr/bin/env pythonimport urlli 2023-10-07 python