时间:2021-05-22
最近项目需要抓包功能,并且抓包后要对数据包进行存库并分析。抓包想使用tcpdump来完成,但是tcpdump抓包之后只能保存为文件,我需要将其保存到数据库。想来想去shell脚本似乎不太好实现,于是用了比较热门的python来实现。不得不说,python丰富的第三方库确实是很强大,下面是具体的功能代码。
from apscheduler.scheduler import Schedulerimport osimport sysimport timeimport MySQLdbimport ConfigParserimport Loggerdef main(): logger = Logger.Logger(logname='flowstat.log', loglevel=1, logger='flowstat').getlog() try: cf = ConfigParser.ConfigParser() cf.read('./flowstat.conf') filterNet1 = cf.get('packet', 'filterNet1') filterNet2 = cf.get('packet', 'filterNet2') packetFile = cf.get('packet', 'packetFile') db_host = cf.get('db', 'host') db_user = cf.get('db', 'user') db_passwd = cf.get('db', 'passwd') db_dbname = cf.get('db', 'dbname') conn = MySQLdb.connect(host=db_host, user=db_user, passwd=db_passwd, db=db_dbname, port=3306) os.system('nohup ./capturePacket.sh ' + filterNet1 + ' ' + filterNet2 + ' ' + packetFile + ' &') except Exception, e: logger.error(e) sys.exit(1) sched = Scheduler(daemonic = False) @sched.cron_schedule(day_of_week='0-4', hour='*', minute='0-59', second='*/60') def packagestat_job(): logger.debug('stat package' + ' ' + time.strftime("%Y-%m-%d %H:%M:%S")) try: fos = open(packetFile, 'r+') lines = fos.readlines() values = [] for line in lines: arr = line.split(',') if len(arr) > 4: values.append((arr[0].strip(), arr[2].strip(), arr[3].strip(), arr[4].strip())) if len(values) > 0: cur = conn.cursor() cur.executemany('insert into tbpk_packet(TimesMacs, LengthIps, Seq, Ack) values(%s,%s,%s,%s)', values) conn.commit() cur.close() fos.truncate(0) fos.close() except Exception, e3: Logger.error(e3) sched.start() while 1: time.sleep(60) conn.close()if __name__ == '__main__': main()shell脚本#!/bin/shtcpdump -i eth0 -l >> *.txt上面的功能涉及到了文件操作,数据库操作,定时任务等几个功能点。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
遇到需要在Linux下抓包分析的问题,便用到了wireshark,非常强大的抓包分析软件,直接在系统里面安装,然后使用明亮抓包即可!我这里用的是Ubuntuse
本文档主要描述了Linux下python数据库驱动的安装和配置,用来实现在Linux平台下通过python访问MySQL、Oracle、SQLServer数据库
1、服务器可ping通2、服务器抓本地的http请求包,可以抓到3、本地抓服务器返回的http响应包,抓不到经过查找,是由于开启了Linux防火墙查看防火墙配置
Python抓包并解析json爬虫在使用Python爬虫的时候,通过抓包url,打开url可能会遇见以下类似网址,打开后会出现类似这样的界面,无法继续进行爬虫:
本文实例讲述了Python实现批量读取图片并存入mongodb数据库的方法。分享给大家供大家参考,具体如下:我的图片放在E:\image\中,然后使用pytho