mkvirtualenv-ppython3環境名創建虛擬環境rmvirtualenv環境名刪除環境進入虛擬環境workon環境名(workon+tab可以出來所有環境)查看環境下所有包pip3list查看環境下安裝的包(不包括原生python包)pip3freeze依賴包文件生成pip3freeze>requirements.txt環境導入依賴包pip3install-rrequirements.txt普通安裝pip3install包名這是linux下的指
系統 2019-09-27 17:52:34 1958
1.鎖:Lock(1次放1個)同步鎖線程安全,多線程操作時,內部會讓所有線程排隊處理。如:list/dict/Queue線程不安全+人=>排隊處理。需求:a.創建100個線程,在列表中追加8b.創建100個線程v=[]鎖-把自己的添加到列表中。-在讀取列表的最后一個。解鎖以后鎖一個代碼塊:importthreadingimporttimev=[]lock=threading.Lock()deffunc(arg):lock.acquire()#鎖的區域---
系統 2019-09-27 17:52:33 1958
一、安裝MySQL-python復制代碼代碼如下:#yuminstall-yMySQL-python二、打開數據庫連接復制代碼代碼如下:#!/usr/bin/pythonimportMySQLdbconn=MySQLdb.connect(user='root',passwd='admin',host='127.0.0.1')conn.select_db('test')cur=conn.cursor()三、操作數據庫復制代碼代碼如下:definsertdb(
系統 2019-09-27 17:52:20 1958
1#!/usr/bin/envpython3.72#-*-coding:utf-8-*-3#Author:Lancer2019-09-0210:07:2145importsys,getopt67defusage():8print("usagecall")910defmain():11try:12opts,args=getopt.getopt(sys.argv[1:],"ho:v",["help","output="])13print(sys.argv[1:
系統 2019-09-27 17:52:18 1958
Sklearn簡介Scikit-learn(sklearn)是機器學習中常用的第三方模塊,對常用的機器學習方法進行了封裝,包括回歸(Regression)、降維(DimensionalityReduction)、分類(Classfication)、聚類(Clustering)等方法。當我們面臨機器學習問題時,便可根據下圖來選擇相應的方法。Sklearn具有以下特點:簡單高效的數據挖掘和數據分析工具讓每個人能夠在復雜環境中重復使用建立NumPy、Scipy、
系統 2019-09-27 17:51:55 1958
基本功能是有一架飛機,可以通過鍵盤控制使其左右移動,并且噴射子彈。在飛機上方有一群外星人,也在左右移動著,被子彈擊中的外星人消失。效果圖如下:設計思路:1)Ship類,Bullet類,Alien類分別表示飛船,子彈,外星人的基本信息,例如飛機和外星人圖像存儲位置,生成子彈的位置。ship.pyimportpygameclassShip():"""docstringforship"""def__init__(self,ai_settings,screen):
系統 2019-09-27 17:51:16 1958
平時見到的url參數都是key-value,一般vlaue都是字符串類型的如果有幸和我一樣遇到字典,列表等參數,那么就幸運了python2代碼importjsonfromurllibimporturlencode#1.直接將url編碼params={"name":"Tom","hobby":["ball","swimming"],"books":[{"name":"語文","pages":20}]}print(urlencode(params))"""ho
系統 2019-09-27 17:51:13 1958
B.py調用A.py的函數或類在同一個文件夾下調用函數:A.py文件:defadd(x,y):print('和為:%d'%(x+y))B.py文件:importAA.add(1,2)或fromAimportaddadd(1,2)調用類:A.py文件:classA:def__init__(self,xx,yy):self.x=xxself.y=yydefadd(self):print("x和y的和為:%d"%(self.x+self.y))B.py文件:fr
系統 2019-09-27 17:51:08 1958
爬蟲即網絡爬蟲,英文是WebSpider。翻譯過來就是網絡上爬行的蜘蛛,如果把互聯網看作一張大網,那么爬蟲就是在大網上爬來爬去的蜘蛛,碰到想要的食物,就把他抓取出來。我們在瀏覽器中輸入一個網址,敲擊回車,看到網站的頁面信息。這就是瀏覽器請求了網站的服務器,獲取到網絡資源。那么,爬蟲也相當于模擬瀏覽器發送請求,獲得到HTML代碼。HTML代碼里通常包含了標簽和文字信息,我們就從中提取到我們想要的信息。通常爬蟲是從某個網站的某個頁面開始,爬取這個頁面的內容,找
系統 2019-09-27 17:51:07 1958
如下所示:#!/usr/bin/envpython#-*-coding:utf-8-*importserialimportserial.tools.list_portsport_list=list(serial.tools.list_ports.comports())iflen(port_list)<=0:print"TheSerialportcan'tfind!"else:port_list_0=list(port_list[0])port_serial
系統 2019-09-27 17:50:57 1958