先看代碼:In[1]:a={'name':'wang'}In[2]:a.get('age')In[3]:a['age']---------------------------------------------------------------------------KeyErrorTraceback(mostrecentcalllast)in()---->1a['age']KeyError:'age'In[4]:a.get('age',10)Out[4
系統 2019-09-27 17:38:06 1630
實際上,Python提供了with語句來管理資源關閉。比如可以把打開的文件放在with語句中,這樣with語句就會幫我們自動關閉文件。with語句的語法格式如下:withcontextexpression[astarget(s)]:with代碼塊在上面的語法格式中,context_expression用于創建可自動關閉的資源。例如,程序使用with語句來讀取文件:importcodecs#使用with語句打開文件,該語句會負責關閉文件withcodecs.
系統 2019-09-27 17:38:03 1630
本文介紹了Python對于線程的支持,包括“學會”多線程編程需要掌握的基礎以及Python兩個線程標準庫的完整介紹及使用示例。注意:本文基于Python2.4完成,;如果看到不明白的詞匯請記得百度谷歌或維基,whatever。1.線程基礎1.1.線程狀態線程有5種狀態,狀態轉換的過程如下圖所示:1.2.線程同步(鎖)多線程的優勢在于可以同時運行多個任務(至少感覺起來是這樣)。但是當線程需要共享數據時,可能存在數據不同步的問題。考慮這樣一種情況:一個列表里所
系統 2019-09-27 17:38:03 1630
前言很多時候在windows下壓縮文件沒問題,但是到了Linux下,出現亂碼,很常見。以前在Ubuntu下,用`unzip-OGBKfilename.zip`就可以搞定。換了Fedora后,暫時沒發現亂碼的壓縮文件。晚上下載一本書的光盤,又碰到了亂碼。嘗試之前的方法沒成功??戳讼聈nzip的help,沒-O那個參數了==剛好找到一個用python解決的辦法,分享下。新建一個`.py`后綴的文件,直接復制粘貼代碼:#!/usr/bin/envpython#-
系統 2019-09-27 17:38:03 1630
從有道詞典網頁獲取某單詞的中文解釋。importreimporturllibword=raw_input('inputaword\n')url='http://dict.youdao.com/search?q=%s'%wordcontent=urllib.urlopen(url)pattern=re.compile("",re.DOTALL)result=pattern.search(content.read()).group()pattern2=re.c
系統 2019-09-27 17:38:02 1630
最近我在用梯度下降算法繪制神經網絡的數據時,遇到了一些算法性能的問題。梯度下降算法的代碼如下(偽代碼):defgradient_descent():#thegradientdescentcodeplotly.write(X,Y)一般來說,當網絡請求plot.ly繪圖時會阻塞等待返回,于是也會影響到其他的梯度下降函數的執行速度。一種解決辦法是每調用一次plotly.write函數就開啟一個新的線程,但是這種方法感覺不是很好。我不想用一個像cerely(一種分
系統 2019-09-27 17:37:56 1630
python是支持多線程的,主要是通過thread和threading這兩個模塊來實現的。thread模塊是比較底層的模塊,threading模塊是對thread做了一些包裝的,可以更加方便的使用。雖然python的多線程受GIL限制,并不是真正的多線程,但是對于I/O密集型計算還是能明顯提高效率,比如說爬蟲。下面用一個實例來驗證多線程的效率。代碼只涉及頁面獲取,并沒有解析出來。#-*-coding:utf-8-*-importurllib2,timeim
系統 2019-09-27 17:37:56 1630
JSON(JavaScriptObjectNotation)是一種輕量級的數據交換格式。它基于JavaScript(StandardECMA-2623rdEdition-December1999)的一個子集。JSON采用完全獨立于語言的文本格式,但是也使用了類似于C語言家族的習慣(包括C,C++,C#,Java,JavaScript,Perl,Python等)。這些特性使JSON成為理想的數據交換語言。易于人閱讀和編寫,同時也易于機器解析和生成。今天用py
系統 2019-09-27 17:37:51 1630
先使用一些關鍵參數創建對象實例,如下:>>>p=Publisher(name='Apress',...address='2855TelegraphAve.',...city='Berkeley',...state_province='CA',...country='U.S.A.',...website='http://www.apress.com/')這個對象實例并沒有對數據庫做修改。在調用``save()``方法之前,記錄并沒有保存至數據庫,像這樣:>>
系統 2019-09-27 17:37:48 1630
1.準備工作:工欲善其事必先利其器,因此我們有必要在進行Coding前先配置一個適合我們自己的開發環境,我搭建的開發環境是:操作系統:Ubuntu14.04LTSPython版本:2.7.6代碼編輯器:SublimeText3.0這次的網絡爬蟲需求背景我打算延續DotNet開源大本營在他的那篇文章中的需求,這里就不再詳解。我們只抓取某一省中所有主要城市從2015-11-22到2015-10-24的白天到夜間的所有天氣情況。這里以湖北省為例。2.實戰網頁爬蟲
系統 2019-09-27 17:37:46 1630