數據清洗是數據科學家逃不掉的一份苦差事。為了讓這項工作不那么痛苦,本文作者分享了自己的數據清洗代碼集。
現實世界中的數據通常質量不高,作為一名數據科學家,有時也需要承擔一部分數據清洗的工作,這要求數據科學家們應該能夠在進行數據分析或建模工作之前執行數據清洗步驟,從而確保數據的質量最佳。
不過長話短說,在數據科學領域工作了很長一段時間后,我切實感受到了在進行數據分析、可視化和建模工作之前,進行數據清洗工作是多么痛苦。
不管你承不承認,數據清洗著實不是一件簡單的任務,大多數情況下這項工作是十分耗時而乏味的,但它又是十分重要的。
如果你經歷過數據清洗的過程,你就會明白我的意思。而這正是撰寫這篇文章的目的——讓讀者更輕松地進行數據清洗工作。
事實上,我在不久前意識到,在進行數據清洗時,有一些數據具有相似的模式。也正是從那時起,我開始整理并編譯了一些數據清洗代碼(見下文),我認為這些代碼也適用于其它的常見場景。
由于這些常見的場景涉及到不同類型的數據集,因此本文更加側重于展示和解釋這些代碼可以用于完成哪些工作,以便讀者更加方便地使用它們。
我的數據清洗小工具箱
在下面的代碼片段中,數據清洗代碼被封裝在了一些函數中,代碼的目的十分直觀。你可以直接使用這些代碼,無需將它們嵌入到需要進行少量參數修改的函數中。
1. 刪除多列數據
defdrop_multiple_col(col_names_list,df):'''AIM->DropmultiplecolumnsbasedontheircolumnnamesINPUT->Listofcolumnnames,dfOUTPUT->updateddfwithdroppedcolumns------'''df.drop(col_names_list,axis=1,inplace=True)returndf
有時,并不是所有列的數據都對我們的數據分析工作有用。因此,「df.drop」可以方便地刪掉你選定的列。
2. 轉換 Dtypes
defchange_dtypes(col_int,col_float,df):'''AIM->ChangingdtypestosavememoryINPUT->Listofcolumnnames(int,float),dfOUTPUT->updateddfwithsmallermemory------'''df[col_int]=df[col_int].astype('int32')df[col_float]=df[col_float].astype('float32')
當我們面對更大的數據集時,我們需要對「dtypes」進行轉換,從而節省內存。如果你有興趣學習如何使用「Pandas」來處理大數據,我強烈推薦你閱讀「Why and How to Use Pandas with Large Data」這篇文章(https://towardsdatascience.com/why-and-how-to-use-pandas-with-large-data-9594dda2ea4c)。
3. 將分類變量轉換為數值變量
defconvert_cat2num(df):#Convertcategoricalvariabletonumericalvariablenum_encode={'col_1':{'YES':1,'NO':0},'col_2':{'WON':1,'LOSE':0,'DRAW':0}}df.replace(num_encode,inplace=True)
有一些機器學習模型要求變量是以數值形式存在的。這時,我們就需要將分類變量轉換成數值變量然后再將它們作為模型的輸入。對于數據可視化任務來說,我建議大家保留分類變量,從而讓可視化結果有更明確的解釋,便于理解。
4. 檢查缺失的數據
defcheck_missing_data(df):#checkforanymissingdatainthedf(displayindescendingorder)returndf.isnull().sum().sort_values(ascending=False)
如果你想要檢查每一列中有多少缺失的數據,這可能是最快的方法。這種方法可以讓你更清楚地知道哪些列有更多的缺失數據,幫助你決定接下來在數據清洗和數據分析工作中應該采取怎樣的行動。
5. 刪除列中的字符串
defremove_col_str(df):#removeaportionofstringinadataframecolumn-col_1df['col_1'].replace(' ','',regex=True,inplace=True)#removeallthecharactersafter(including)forcolumn-col_1df['col_1'].replace('.*','',regex=True,inplace=True)
有時你可能會看到一行新的字符,或在字符串列中看到一些奇怪的符號。你可以很容易地使用 df['col_1'].replace 來處理該問題,其中「col_1」是數據幀 df 中的一列。
6. 刪除列中的空格
defremove_col_white_space(df):#removewhitespaceatthebeginningofstringdf[col]=df[col].str.lstrip()
當數據十分混亂時,很多意想不到的情況都會發生。在字符串的開頭有一些空格是很常見的。因此,當你想要刪除列中字符串開頭的空格時,這種方法很實用。
7. 將兩列字符串數據(在一定條件下)拼接起來
defconcat_col_str_condition(df):#concat2columnswithstringsifthelast3lettersofthefirstcolumnare'pil'mask=df['col_1'].str.endswith('pil',na=False)col_new=df[mask]['col_1']+df[mask]['col_2']col_new.replace('pil','',regex=True,inplace=True)#replacethe'pil'withemtpyspace
當你希望在一定條件下將兩列字符串數據組合在一起時,這種方法很有用。例如,你希望當第一列以某些特定的字母結尾時,將第一列和第二列數據拼接在一起。根據你的需要,還可以在拼接工作完成后將結尾的字母刪除掉。
8. 轉換時間戳(從字符串類型轉換為日期「DateTime」格式)
defconvert_str_datetime(df):'''AIM->Convertdatetime(String)todatetime(formatwewant)INPUT->dfOUTPUT->updateddfwithnewdatetimeformat------'''df.insert(loc=2,column='timestamp',value=pd.to_datetime(df.transdate,format='%Y-%m-%d%H:%M:%S.%f'))
在處理時間序列數據時,你可能會遇到字符串格式的時間戳列。這意味著我們可能不得不將字符串格式的數據轉換為根據我們的需求指定的日期「datetime」格式,以便使用這些數據進行有意義的分析和展示。
-
函數
+關注
關注
3文章
4327瀏覽量
62571 -
數據集
+關注
關注
4文章
1208瀏覽量
24689 -
數據科學
+關注
關注
0文章
165瀏覽量
10053
原文標題:還在為數據清洗抓狂?這里有一個簡單實用的清洗代碼集
文章出處:【微信號:aicapital,微信公眾號:全球人工智能】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論