1、字符串1.1、如何在Python中使用字符串a、使用單引號(')用單引號括起來表示字符串,例如:str='thisisstring';printstr;b、使用雙引號(")雙引號中的字符串與單引號中的字符串用法完全相同,例如:str="thisisstring";printstr;c、使用三引號(''')利用三引號,表示多行的字符串,可以在三引號中自由的使用單引號和雙引號,例如:'''遇到問題沒人解答?小編創建了一個Python學習交流QQ群:8576
系統 2019-09-27 17:55:13 1623
Python跟Python3完全就是兩種語言1、importcaffeFAILED環境為Ubuntu16cuda8.0NVIDIA361.77Anaconda2。昨天莫名其妙Caffe不能用了:>>>importcaffeTraceback(mostrecentcalllast):File"",line1,inFile"/home/duchengyao/project/caffe/python/caffe/__init__.py",line1,infrom
系統 2019-09-27 17:55:11 1623
當我們的函數接收參數為任意個,或者不能確定參數個數時,我們,可以利用*來定義任意數目的參數,這個函數調用時,其所有不匹配的位置參數會被賦值為元組,我們可以在函數利用循環或索引進行使用deff(*args):#直接打印元組參數print(args)print('-'*20)#循環打印元組參數[print(i)foriinargs]...#傳遞一個參數f(1)print('='*20)#傳遞5個參數f(1,2,3,4,5)示例結果:(1,)----------
系統 2019-09-27 17:55:07 1623
基于python-opencv3的圖像顯示和保存操作,具體代碼如下所示:importcv2ascvimportnumpyasnp#導入庫print("-------------------------------")image=cv.imread("D:/1.jpeg")#寫入圖像cv.imshow("image",image)#顯示cv.waitKey()#等待cv.destroyAllWindows()#關閉所有窗口cv.imwrite("D:\\2.
系統 2019-09-27 17:54:55 1623
前面十章爬蟲筆記陸陸續續記錄了一些簡單的Python爬蟲知識,用來解決簡單的貼吧下載,績點運算自然不在話下。不過要想批量下載大量的內容,比如知乎的所有的問答,那便顯得游刃不有余了點。于是乎,爬蟲框架Scrapy就這樣出場了!Scrapy=Scrach+Python,Scrach這個單詞是抓取的意思,Scrapy的官網地址:點我點我。那么下面來簡單的演示一下Scrapy的安裝流程。具體流程參照://www.jb51.net/article/48607.htm
系統 2019-09-27 17:54:46 1623
前言前面幾篇文章基本上已經了解了pytest命令使用,收集用例,finxture使用及作用范圍,今天簡單介紹一下conftest.py文件的作用和實際項目中如是使用此文件!實例場景首先們思考這樣一個問題:如果我們在編寫測試用的時候,每一個測試文件里面的用例都需要先登錄后才能完成后面的操作,那么們該如何實現呢?這就需要我們掌握conftest.py文件的使用了。實例代碼創建如下一個目錄ConftestFile|conftest.py|test_file_01
系統 2019-09-27 17:54:45 1623
類屬性和實例屬性首先來看看類屬性和類實例的屬性在python中如何存儲,通過__dir__方法來查看對象的屬性>>>classTest(object):pass>>>test=Test()#查看類屬性>>>dir(Test)['__class__','__delattr__','__dict__','__doc__','__format__','__getattribute__','__hash__','__init__','__module__','__
系統 2019-09-27 17:54:39 1623
python中random的常用方法總結一、random常用模塊1.random.random()隨機生成一個小數print(random.random())#輸出0.60605621179967842.random.randint(m,n)隨機生成一個m到n的整數(包括n)print(random.randint(1,5))#輸出53.random.randrange(m,n)隨機生成m到n中的一個數,包括m但是不包括nprint(random.rand
系統 2019-09-27 17:54:35 1623
綜述本系列文檔用于對Python爬蟲技術的學習進行記錄總結。Python版本是3.7.4urllib庫介紹它是Python內置的HTTP請求庫,也就是說我們不需要額外安裝即可使用,它包含四個模塊(主要對前三個模塊進行學習):request:它是最基本的HTTP請求模塊,我們可以用它來模擬發送一請求,就像在瀏覽器里輸入網址然后敲擊回車一樣,只需要給庫方法傳入URL還有額外的參數,就可以模擬實現這個過程了。error:異常處理模塊,如果出現請求錯誤,我們可以捕
系統 2019-09-27 17:54:27 1623
引入:Python中有個logging模塊可以完成相關信息的記錄,在debug時用它往往事半功倍一、日志級別(從低到高):DEBUG:詳細的信息,通常只出現在診斷問題上INFO:確認一切按預期運行WARNING:一個跡象表明,一些意想不到的事情發生了,或表明一些問題在不久的將來(例如。磁盤空間低”)。這個軟件還能按預期工作。ERROR:更嚴重的問題,軟件沒能執行一些功能CRITICAL:一個嚴重的錯誤,這表明程序本身可能無法繼續運行注:這5個等級,也分別對
系統 2019-09-27 17:54:25 1623