為了配合LogStash日志收集服務(wù),需要將線上服務(wù)的日志輸出改為json格式。python日志標(biāo)準(zhǔn)庫中并沒有json格式的formatter,網(wǎng)上雖然已經(jīng)有一些json相關(guān)的formatter,但不是很滿意,就自己開發(fā)了一個(gè)并放到了github和pypi,目前僅支持Python3,能夠很方便的解決自定義名映射屬性問題,也支持新增自定義屬性。歡迎到我的github點(diǎn)星星、提問題:https://github.com/MyColorfulDays/jsonf
系統(tǒng) 2019-09-27 17:53:20 2114
1、進(jìn)入~cd~2、修改pip.conf(沒有此文件則創(chuàng)建)mkdir.pipvimpip.conf修改pip.conf為(清華源)[global]index-url=https://pypi.tuna.tsinghua.edu.cn/simple
系統(tǒng) 2019-09-27 17:53:19 2114
一、分析:抓取動(dòng)態(tài)頁面js加載的人民日?qǐng)?bào)里面的新聞詳情https://wap.peopleapp.com/news/1先打開,然后查看網(wǎng)頁源碼,發(fā)現(xiàn)是一堆js,并沒有具體的每個(gè)新聞的url詳情,于是第一反應(yīng),肯定是js動(dòng)態(tài)加載拼接的url。然后接著按f12查看,就看url,發(fā)現(xiàn)出來了好多url。然后點(diǎn)擊具體的某一個(gè)新聞詳情頁面,查看url,把這個(gè)url的后面兩個(gè)數(shù)字其中一個(gè)拿到訪問主頁的時(shí)候,f12抓包結(jié)果里面去查找,發(fā)現(xiàn)一個(gè)url,點(diǎn)擊這個(gè)url,發(fā)現(xiàn)p
系統(tǒng) 2019-09-27 17:52:31 2114
python接入片云網(wǎng)短信驗(yàn)證申請(qǐng)自己的簽名和模板簽名和模板審核失敗,就聯(lián)系客服,客服會(huì)幫你通過在你的系統(tǒng)設(shè)置里面IP白名單,填寫你的服務(wù)器ip這個(gè)ip直接取瀏覽器搜索ip查看接入python的相關(guān)代碼importrequestsimportjsonclassYunPian(object):def__init__(self,api_key):self.api_key=api_keyself.single_send_url="https://sms.yunp
系統(tǒng) 2019-09-27 17:51:19 2114
原生請(qǐng)求頭字符串raw_headers="""Host:open.tool.hexun.comPragma:no-cacheCache-Control:no-cacheUser-Agent:Mozilla/5.0(Macintosh;IntelMacOSX10_13_2)AppleWebKit/537.36(KHTML,likeGecko)Chrome/63.0.3239.84Safari/537.36Accept:*/*Referer:http://st
系統(tǒng) 2019-09-27 17:51:16 2114
本文實(shí)例講述了python解析xml的方法。分享給大家供大家參考,具體如下:xml是除了json之外另外一個(gè)比較常用的用來做為數(shù)據(jù)交換的載體格式。對(duì)于一些比較固定的數(shù)據(jù),直接保存在xml中,還可以免去去數(shù)據(jù)庫中查詢的麻煩。而且直接讀小文件,性能比查詢數(shù)據(jù)庫應(yīng)該更好,下面一個(gè)例子,如何用python解析xml數(shù)據(jù),xml數(shù)據(jù)是省份,城市數(shù)據(jù),內(nèi)容如下:用python代碼的解析方法如下:importxml.dom.minidomdefget_citys():c
系統(tǒng) 2019-09-27 17:46:37 2114
1、Requests模塊說明Requests是使用Apache2Licensed許可證的HTTP庫。用Python編寫,真正的為人類著想。Python標(biāo)準(zhǔn)庫中的urllib2模塊提供了你所需要的大多數(shù)HTTP功能,但是它的API太渣了。它是為另一個(gè)時(shí)代、另一個(gè)互聯(lián)網(wǎng)所創(chuàng)建的。它需要巨量的工作,甚至包括各種方法覆蓋,來完成最簡(jiǎn)單的任務(wù)。在Python的世界里,事情不應(yīng)該這么麻煩。Requests使用的是urllib3,因此繼承了它的所有特性。Requests
系統(tǒng) 2019-09-27 17:38:31 2114
獲取帶有中文參數(shù)的url內(nèi)容對(duì)于中文的參數(shù)如果不進(jìn)行編碼的話,python的urllib2直接處理會(huì)報(bào)錯(cuò),我們可以先將中文轉(zhuǎn)換成utf-8編碼,然后使用urllib2.quote方法對(duì)參數(shù)進(jìn)行url編碼后傳遞。content=u'你好sharejs.com'content=content.encode('utf-8')content=urllib2.quote(content)api_url='http://www.sharejs.com/q=%s'%co
系統(tǒng) 2019-09-27 17:38:06 2114
前言因?yàn)楣ぷ餍枰袝r(shí)候要畫雷達(dá)圖,但是數(shù)據(jù)好多組怎么辦?不能一個(gè)一個(gè)點(diǎn)excel去畫吧,那么可以利用python進(jìn)行批量制作,得到樣式如下:首先制作一個(gè)演示的excel,評(píng)分為excel隨機(jī)數(shù)生成:1=INT((RAND()+4)*10)/10加入標(biāo)簽等得到的excel樣式如下(部分,共計(jì)32行):那么接下來就是打開python寫碼了,本文是基于pycharm進(jìn)行編寫wb=load_workbook(filename=r'C:\Users\Administ
系統(tǒng) 2019-09-27 17:37:48 2114
本來是不打算寫這種基礎(chǔ)性的東西的,但是有很多同志經(jīng)常問我(有同事也有網(wǎng)友)。所以就寫一下吧,這個(gè)是理解LINUX內(nèi)核網(wǎng)絡(luò)子系統(tǒng)的基礎(chǔ),ipconntrack等都是依賴這些基礎(chǔ)的。好的,閑話不多說了。來正文。其實(shí)netfilter就是依靠一個(gè)全局的二維數(shù)組nf_hooks[][].可以把這個(gè)玩意看成一個(gè)8*32的矩陣。矩陣的每個(gè)成員就是一個(gè)雙向鏈表節(jié)點(diǎn)。看看,又是雙向鏈表,內(nèi)核中雙向鏈表的地位真的太重要了。以雙向鏈表做骨架串起nf_hook_ops這個(gè)結(jié)構(gòu)體
系統(tǒng) 2019-08-29 23:33:57 2114