前言
首先我們做數(shù)據(jù)分析,想要得出最科學(xué),最真實(shí)的結(jié)論,必須要有好的數(shù)據(jù)。而實(shí)際上我們一般面對(duì)的的都是復(fù)雜,多變的數(shù)據(jù),所以必須要有強(qiáng)大的數(shù)據(jù)處理能力,接下來(lái),我從我們面臨的最真實(shí)的情況,一步一步教會(huì)大家怎么做。
1.數(shù)據(jù)的讀取
(1)讀取模塊
Import pandas as pd
Import numpy as np
(2)讀取表格的全部數(shù)據(jù)
df = pd.read_csv(".data/HR.csv")
(3)讀取你所需要的數(shù)據(jù)
sl_s=df["sactisfaction_level"]
2. 數(shù)據(jù)的處理
2.1.異常值(空值)處理
2.1.1刪除
首先,第一步是對(duì)空值的處理。
有兩種,一種直接刪除,另一種指代。
如果數(shù)據(jù)多,想簡(jiǎn)單一點(diǎn),就直接刪除,方法都很簡(jiǎn)單。
首先,建立一個(gè)DataFrame表
1.為了確定是否含有空值:
df.isnull() #如果含有空值,返回True
2.刪除
df.dropna() #去掉含空值的行
如果想要?jiǎng)h除某一個(gè)屬性含空值的行就加入subset參數(shù)
df.dropna(subset=["B"]) #去掉B屬性含空值的行
判斷是否有重復(fù)的數(shù)據(jù):
df.duplicated(["A"]) #A屬性中重復(fù)的數(shù)據(jù)返回True
刪除A屬性重復(fù)的行
df.drop_duplicates(["A"])
df.drop_duplicates(["A"],keep=False) #刪除A屬性全部重復(fù)的行
df.drop_duplicates(["A"],keep=first) #刪除A屬性全部重復(fù)的行,保留第一個(gè)
df.drop_duplicates(["A"],keep=last) #刪除A屬性全部重復(fù)的行,保留最后一個(gè)
2.1.2指代
有些數(shù)據(jù)非常重要,不能刪除,那我們就選擇指代,也就是替換
#含空值的數(shù)據(jù)被替換為“b*”
df.fillna("b*")
#E屬性中的含空值的數(shù)據(jù)被替換成該屬性的平均值
df.fillna(df["E"].mean())
#插值替換
如果含空值的元素為最后一個(gè),那么空值的數(shù)據(jù)替換成和上一個(gè)數(shù)據(jù)一樣
如何含空值的元素為中間,那么空值的數(shù)據(jù)被(上+下)/2代替
df["E"].interpolate()
#3次樣條插值 order 參數(shù)就是幾次樣條插值
df["E"].interpolate(method="spline",order=3)
*函數(shù)
(4)異常值分析(含有就返回True) --isnull()
sl_s.isnull()
主要表示沒(méi)有空值
(5)提取異常值的該屬性信息
sl_s[sl_s.isnull()]
(6)提取異常值的表格全部信息
df[df["sactisfaction_level"].isnull()]
(7)丟棄異常值 --dropna()
sl_s=sl_s.dropna()
注:刪除為空的異常值
可以利用where()把異常數(shù)據(jù)賦空,然后利用dropna()刪除
(8)填充異常值 --fillna()
sl_s=sl_s.fillna()
(9)平均值 --mean()
sl_s.mean()
(10)標(biāo)準(zhǔn)差 --std()
Sl_s.std()
(11)最大值 --max()
sl_s.max()
(12)最小值 --min()
sl_s.min()
(13)中位數(shù) --median()
sl_s.median()
(14)下四分位數(shù) --quantile(q=0.25)
sl_s.quantile(q=0.25)
(15)上四分位數(shù) --quantile(q=0.75)
sl_s.quantile(q=0.75)
(16)偏度 --skew()
sl_s.skew()
分析:小于0 是負(fù)偏 均值偏小,大部分?jǐn)?shù)是比他的均值大的
大于 0 稍微有些振偏
遠(yuǎn)大于0, 是極度振偏,均值要比他的大多數(shù)值大好多。
(17)峰度 --kurt()
sl_s.kurt()
分析:<0 相比于正態(tài)分布,他的趨勢(shì)相對(duì)平緩
遠(yuǎn)大于0 說(shuō)明他的形變是非常大的,所以是不靠譜的
(18)獲得離散化的分布(numpy模塊) --histogram()
np.histogram(sl_s.values,bins = np.arange(0.0,1.1,0.1))
結(jié)果分析:
[195,1214,532,974,…]
[0.0,0.1,0.2,0.3,0.4…]
代表0.0-0.1之間有195個(gè)數(shù),0.1-0.2之間有1214個(gè)數(shù),以此類推
分布間隔為0.1
3.利用四分位數(shù)來(lái)去除異常值
3.1.提取大于1的值
le_s[le_s>1]
3.2 去除大于1的異常值
le_s[le_s<=1]
3.3 提取正常值(利用四分位數(shù))
3.3.1 下四分位
q_low=le_s.quantile(q =0.25)
3.3.2 上四分位
q_high=le_s.quantile(q=0.75)
3.3.3 四分位間距
q_interval=q_high-q_low
3.3.4 定義k的值
K=1.5~3之間
如果k=1.5,刪除的異常值是中度異常
如果k=3.0,刪除的異常值是極度異常
3.3.5 篩選
le_s=le_s[le_s
q_low-k*q_interval]
3.4 數(shù)據(jù)的個(gè)數(shù) --len()
len(le_s)
3.5離散分布直方圖(numpy模塊)
np.histogram(le_s.values,bins=np.arange(0.0,1.1,0.1))
3.6回顧數(shù)據(jù)的平均值,標(biāo)準(zhǔn)差,中位數(shù),最大值,最小值,偏度,峰度,確定數(shù)據(jù)的正常。
4.靜態(tài)結(jié)構(gòu)分析
4.1每個(gè)值出現(xiàn)的次數(shù) --values_counts()
np_s.value_counts()
4.2獲取該數(shù)據(jù)的構(gòu)成和比例(每個(gè)值的頻率)
np_s.value_counts(normalize=True)
4.3 排序
np_s.value_counts(normalize=True).sort_index()
5.數(shù)據(jù)分區(qū)間
5.1把數(shù)據(jù)分成幾份 --histogram()
np.histogram(amh_s.values,bins=10) 把數(shù)據(jù)分成10份
5.2另一種方法 加了區(qū)間,計(jì)算區(qū)間的頻數(shù)
(左閉右開(kāi)的區(qū)間)
Np.histogram(amh_s.values,bins = np.arange(amh_s.min(),amh_s.max()+10,10))
(左開(kāi)右閉的區(qū)間)
amh_s.value_counts(bins=np.arange (amh_s.min(),amh_s.max()+10,10))
6.英文異常值數(shù)據(jù)的處理
6.1 首先,統(tǒng)計(jì)該數(shù)據(jù)的分布頻數(shù)
s_s.value_counts()
6.2確定異常值的名字。
6.3把異常值賦空(NaN) --where()
s_s.where(s_s!="name")
意思是把”name”的數(shù)據(jù)賦空
6.4把賦空的異常值刪除 --dropna()刪除異常值
s_s.where(s_s!="name").dropna()
6.5 檢查刪除異常值的結(jié)果
s_s.where(s_s!="name").dropna().value_counts()
7.對(duì)比分析
7.1對(duì)表格中空值的行刪除
Df = df.dropna(axis=0,how='any')
axis =0 ,代表的是行刪除
how=‘a(chǎn)ny' 代表的是含有部分空值就執(zhí)行行刪除
how=‘a(chǎn)ll' 代表的是一行全部是空值執(zhí)行行刪除
7.2含有條件性的對(duì)異常值的刪除
df=df[df["last_evaluation"]<=1] [df["salary"]!="name"][df["department" ]!="sale"]
7.3分組(比如:把同一部門(mén)的人分為一組) --groupby()
df.groupby("department")
7.4對(duì)分組后的組取均值
df.groupby("department").mean()
7.5 取部分?jǐn)?shù)據(jù)(切片) --loc()
df.loc[:,["last_evaluation","department"]] .groupby("department")
7.6 取部分?jǐn)?shù)據(jù)求平均
df.loc[:,["last_evaluation","department"]] .groupby("department").mean()
7.7 取部分?jǐn)?shù)據(jù)求極差 --apply()
df.loc[:,["average_monthly_hours" ,"department"]].groupby ("department")[ "average_monthly_hours"]. apply(lambda x:x.max()-x.min())
總結(jié)
以上所述是小編給大家介紹的python實(shí)現(xiàn)數(shù)據(jù)分析與建模 ,希望對(duì)大家有所幫助,如果大家有任何疑問(wèn)請(qǐng)給我留言,小編會(huì)及時(shí)回復(fù)大家的。在此也非常感謝大家對(duì)腳本之家網(wǎng)站的支持!
如果你覺(jué)得本文對(duì)你有幫助,歡迎轉(zhuǎn)載,煩請(qǐng)注明出處,謝謝!
更多文章、技術(shù)交流、商務(wù)合作、聯(lián)系博主
微信掃碼或搜索:z360901061
微信掃一掃加我為好友
QQ號(hào)聯(lián)系: 360901061
您的支持是博主寫(xiě)作最大的動(dòng)力,如果您喜歡我的文章,感覺(jué)我的文章對(duì)您有幫助,請(qǐng)用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點(diǎn)擊下面給點(diǎn)支持吧,站長(zhǎng)非常感激您!手機(jī)微信長(zhǎng)按不能支付解決辦法:請(qǐng)將微信支付二維碼保存到相冊(cè),切換到微信,然后點(diǎn)擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對(duì)您有幫助就好】元

