下载安卓APP箭头
箭头给我发消息

客服QQ:3315713922

大数据的哪些方法数据清洗 80% 的工作量?

作者:课课家教育     来源: http://www.kokojia.com点击数:1829发布时间: 2019-09-18 10:01:04

标签: 大数据数据分析数据管理

这些方法解决了数据清洗 80% 的工作量。选择了数据结构,算法也随之确定,是数据而不是算法是系统构造的关键因素。这种洞见导致了许多种软件设计方法和程序设计语言的出现,面向对象的程序设计语言就是其中之一。

本文会给大家介绍如何用Python中自带的 Pandas 和 NumPy 库进行数据清洗。在正式讲解之前,先简单介绍一下这两个非常好用的库。

译者简介:北京第二外国语学院国际商务专业研一在读,目前在学习Python编程和量化投资相关知识。

作者:Real Python × DataCamp

干净整洁的数据是后续进行研究和分析的基础。数据科学家们会花费大量的时间来清理数据集,毫不夸张地说,数据清洗会占据他们80%的工作时间,而真正用来分析数据的时间只占到20%左右。

所以,数据清洗到底是在清洗些什么?

通常来说,你所获取到的原始数据不能直接用来分析,因为它们会有各种各样的问题,如包含无效信息, 列名不规范、格式不一致,存在重复值, 缺失值,异常值 等.....

本文会给大家介绍如何用Python中自带的 Pandas 和 NumPy 库进行数据清洗。在正式讲解之前,先简单介绍一下这两个非常好用的库。

Pandas的名称来自于 P anel data 和Python数据分析 data analysis ,是Python的一个数据分析包, 最初由AQR Capital Management于2008年4月开发, 被作为金融数据分析工具,为时间序列分析提供了很好的支持, 并于2009年底开源出来。

NumPy是 Numeric Python 的缩写,是Python的一种开源的数值计算扩展,可用来存储和处理大型矩阵 matrix ,比Python自身的嵌套列表结构要高效的多,提供了许多高级的数值编程工具,如:矩阵数据类型、矢量处理,以及精密的运算库,专为进行严格的数字处理而产生。

目录

一、了解数据

二、清洗数据

去除不需要的行、列

重新命名列

重新设置索引

用字符串操作规范列

用函数规范列

删除重复数据

填充缺失值

三、总结

【注】为了清晰直观地展示数据清洗操作,本文会用到几个不同的数据集,重点是方法的讲解。

【工具】Python 3

一、了解数据

拿到一个全新的数据集,应该从哪里入手?

没错,我们需要先了解数据,看看它长什么样子。这里用 tushare.pro 上面的日线行情数据进行展示,以浦发银行(600000.SH)为例。 常用的方法和属性如下:

.head()

.tail()

.shape

.columns

.info()

.describe()

.value_counts()

首先,获取数据:

  1. import pandas as pd 
  2. import numpy as np 
  3. import matplotlib.pyplot as plt 
  4. import tushare as ts 
  5.  
  6.  
  7. pd.set_option('display.max_columns'100)  # 设置显示数据的最大列数,防止出现省略号…,导致数据显示不全 
  8. pd.set_option('expand_frame_repr', False)  # 当列太多时不自动换行 
  9.  
  10.  
  11. pro = ts.pro_api() 
  12. df = pro.daily(ts_code='600000.SH', start_date='20190401', end_date='20190430'

.head()  查看前n行数据,默认值是5

  1. df.head() 
  2. Out[1]:  
  3.      ts_code trade_date   open   high    low  close  pre_close  change  pct_chg         vol       amount 
  4. 0  600000.SH   20190430  11.70  12.09  11.70  11.97      11.48    0.49   4.2683  1234747.38  1466714.710 
  5. 1  600000.SH   20190429  11.35  11.54  11.34  11.48      11.32    0.16   1.4134   385869.38   442046.727 
  6. 2  600000.SH   20190426  11.43  11.56  11.28  11.32      11.54   -0.22  -1.9064   424695.81   485267.261 
  7. 3  600000.SH   20190425  11.56  11.69  11.48  11.54      11.62   -0.08  -0.6885   408761.29   473973.527 
  8. 4  600000.SH   20190424  11.76  11.77  11.51  11.62      11.70   -0.08  -0.6838   382011.08   444929.313 

.tail()  查看后n行数据,默认值是5

  1. df.tail() 
  2. Out[2]:  
  3.       ts_code trade_date   open   high    low  close  pre_close  change  pct_chg        vol      amount 
  4. 16  600000.SH   20190408  11.79  11.96  11.65  11.72      11.71    0.01   0.0854  778703.73  920513.531 
  5. 17  600000.SH   20190404  11.55  11.71  11.54  11.71      11.50    0.21   1.8261  752325.27  876099.547 
  6. 18  600000.SH   20190403  11.37  11.54  11.34  11.50      11.44    0.06   0.5245  502710.29  575799.446 
  7. 19  600000.SH   20190402  11.50  11.52  11.41  11.44      11.44    0.00   0.0000  467147.10  534896.810 
  8. 20  600000.SH   20190401  11.36  11.52  11.29  11.44      11.28    0.16   1.4184  706374.05  808657.530 

.shape  查看数据维数

  1. df.shape 
  2. Out[3]: (2111

.columns  查看所有列名

  1. df.columns 
  2. Out[4]:  
  3. Index(['ts_code''trade_date''open''high''low''close''pre_close'
  4.        'change''pct_chg''vol''amount'], 
  5.       dtype='object'

.info()  查看索引、数据类型和内存信息

  1. df.info() 
  2. <class 'pandas.core.frame.DataFrame'
  3. RangeIndex: 21 entries, 0 to 20 
  4. Data columns (total 11 columns): 
  5. ts_code       21 non-null object 
  6. trade_date    21 non-null object 
  7. open          21 non-null float64 
  8. high          21 non-null float64 
  9. low           21 non-null float64 
  10. close         21 non-null float64 
  11. pre_close     21 non-null float64 
  12. change        21 non-null float64 
  13. pct_chg       21 non-null float64 
  14. vol           21 non-null float64 
  15. amount        21 non-null float64 
  16. dtypes: float64(9), object(2
  17. memory usage: 1.9+ KB 

.describe()  查看每列数据的基本统计值,包括计数值、均值、标准差、最小最大值、1/4、1/2、3/4分位数。

  1. df.describe() 
  2. Out[7]:  
  3.             open       high        low      close  pre_close     change    pct_chg           vol        amount 
  4. count  21.000000  21.000000  21.000000  21.000000  21.000000  21.000000  21.000000  2.100000e+01  2.100000e+01 
  5. mean   11.630476  11.777619  11.524286  11.637143  11.604286   0.032857   0.296252  5.734931e+05  6.704836e+05 
  6. std     0.215348   0.228930   0.184840   0.207512   0.206799   0.193213   1.671099  2.333355e+05  2.792896e+05 
  7. min    11.350000  11.520000  11.280000  11.320000  11.280000  -0.300000  -2.497900  2.627369e+05  3.017520e+05 
  8. 25%    11.470000  11.560000  11.410000  11.480000  11.470000  -0.060000  -0.519900  4.102754e+05  4.739735e+05 
  9. 50%    11.560000  11.750000  11.480000  11.540000  11.540000   0.000000   0.000000  5.027103e+05  5.757994e+05 
  10. 75%    11.760000  11.990000  11.650000  11.720000  11.710000   0.100000   0.839600  7.050917e+05  8.161270e+05 
  11. max    12.020000  12.200000  11.880000  12.010000  12.010000   0.490000   4.268300  1.234747e+06  1.466715e+06 

.value_counts()  查看Series对象的唯一值和计数值

  1. df['close'].value_counts(dropna=False) 
  2. Out[8]:  
  3. 11.48    2 
  4. 11.47    2 
  5. 11.71    2 
  6. 11.54    2 
  7. 11.91    2 
  8. 11.44    2 
  9. 11.72    1 
  10. 11.95    1 
  11. 11.70    1 
  12. 11.32    1 
  13. 11.49    1 
  14. 12.01    1 
  15. 11.62    1 
  16. 11.50    1 
  17. 11.97    1 
  18. Name: close, dtype: int64 

如果上面这些操作还不够直观的话,就作图看看,需要先导入Python可视化库 matplotlib , 为了规范代码书写,统一写在了最前面。

① 直方图

  1. df['close'].plot(kind='hist', rot=0
  2. plt.show() 

大数据的哪些方法数据清洗 80% 的工作量_大数据_数据分析_数据管理_课课家

② 箱型图

  1. df.boxplot(column='close', by='ts_code', rot=0
  2. plt.show() 

③ 散点图

  1. df.plot(kind='scatter', x='close', y='pre_close', rot=0
  2. plt.show() 

二、清洗数据

了解数据集之后,我们就可以开始对数据集进行清洗了,前面提到通常要处理的问题有 包含无效信息, 列名不规范、格式不一致,存在重复值,缺失值,异常值等,下面我们一个一个来看。

01

去除不需要的行、列

在分析一个数据集的时候,很多信息其实是用不到的,因此,需要去除不必要的行或列。这里以csv文件为例,在导入的时候就可以通过设置 pd.read_csv() 里面的参数来实现这个目的。

先来感受一下官方文档中给出的详细解释,里面的参数是相当的多,本文只介绍比较常用的几个,感兴趣的话,可以好好研究一下文档,这些参数还是非常好用的,能省去很多导入后整理的工作。

【 header 】默认header=0,即将文件中的0行作为列名和数据的开头,但有时候0行的数据是无关的,我们想跳过0行,让1行作为数据的开头,可以通过将header设置为1来实现。

【 usecols 】 根据列的位置或名字,如[0,1,2]或[‘a’, ‘b’, ‘c’],选出特定的列。

【 nrows 】 要导入的数据行数,在数据量很大、但只想导入其中一部分时使用。

获取数据:

从NYC OpenData网站下载csv格式原始数据

数据样本如下:

导入数据,只选取前100行和特定几列。

  1. subset_columns = ['Job #''Doc #''Borough''Initial Cost''Total Est. Fee'
  2. df = pd.read_csv('文件路径', nrows=100, usecols=subset_columns) 
  3. df.head() 
  4. Out[15]:  
  5.        Job #  Doc #   Borough Initial Cost Total Est. Fee 
  6. 0  420291794      1    QUEENS     $2000.00        $100.00 
  7. 1  420291801      1    QUEENS    $15000.00        $151.50 
  8. 2  340644128      1  BROOKLYN    $44726.00        $234.00 
  9. 3  421685439      1    QUEENS        $0.00        $243.00 
  10. 4  421677974      2    QUEENS   $105000.00       $1275.60 

再看一下将header设置为1的效果,但这里其实不需要这么做,因为0行数据是有用的。

  1. df = pd.read_csv('文件路径', nrows=100, header=1
  2. df.head() 
  3. Out[15]:  
  4. 0  420291794      1    QUEENS     $2000.00        $100.00 
  5. 1  420291801      1    QUEENS    $15000.00        $151.50 
  6. 2  340644128      1  BROOKLYN    $44726.00        $234.00 
  7. 3  421685439      1    QUEENS        $0.00        $243.00 
  8. 4  421677974      2    QUEENS   $105000.00       $1275.60 

如果在数据导入之后,还想删除某些行和列,可以用  .drop()  方法。

先创建一个列表list,把不需要的列名放进去,再调用 .drop() 方法,参数 axis 为 1 时代表列,为 0 时代表行,参数 inplace=True 表示不创建新的对象,直接对原始对象进行修改。这里我们删除前两列。

  1. to_drop = ['Job #''Doc #'
  2. df.drop(to_drop, axis=1, inplace=True) 
  3. df.head() 
  4. Out[22]:  
  5.     Borough Initial Cost Total Est. Fee 
  6. 0    QUEENS     $2000.00        $100.00 
  7. 1    QUEENS    $15000.00        $151.50 
  8. 2  BROOKLYN    $44726.00        $234.00 
  9. 3    QUEENS        $0.00        $243.00 
  10. 4    QUEENS   $105000.00       $1275.60 

02

重新命名列

当原始数据的列名不好理解,或者不够简洁时,可以用 .rename() 方法进行修改。这里我们把英文的列名改成中文, 先创建一个字典,把要修改的列名定义好,然后调用 rename() 方法。

  1. new_names = {'Borough''区''Initial Cost''初始成本''Total Est. Fee''总附加费用'
  2. df.rename(columns=new_names, inplace=True) 
  3. df.head() 
  4. Out[23]:  
  5.           区        初始成本     总附加费用 
  6. 0    QUEENS    $2000.00   $100.00 
  7. 1    QUEENS   $15000.00   $151.50 
  8. 2  BROOKLYN   $44726.00   $234.00 
  9. 3    QUEENS       $0.00   $243.00 
  10. 4    QUEENS  $105000.00  $1275.60 

03

重新设置索引

数据默认的索引是从0开始的有序整数,但如果想把某一列设置为新的索引,可以用 .set_index() 方法实现,在示例中我们把"区"这列设置为新索引。

  1. df.set_index('区', inplace=True) 
  2. df.head() 
  3. Out[24]:  
  4.                 初始成本     总附加费用 
  5. 区                              
  6. QUEENS      $2000.00   $100.00 
  7. QUEENS     $15000.00   $151.50 
  8. BROOKLYN   $44726.00   $234.00 
  9. QUEENS         $0.00   $243.00 
  10. QUEENS    $105000.00  $1275.60 

04

用字符串操作规范列

字符串 str 操作是非常实用的,因为列中总是会包含不必要的字符,常用的方法如下:

lower()

upper()

capitalize() 

replace()

strip()

split()

get()

contains() 

find()

str.lower()  是把大写转换成小写, 同理, str.upper() 是把小写转换成大写,将示例中用大写字母表示的索引转换成小写,效果如下:

  1. df.index = df.index.str.lower() 
  2. df.head() 
  3. Out[25]:  
  4.                 初始成本     总附加费用 
  5. 区                              
  6. queens      $2000.00   $100.00 
  7. queens     $15000.00   $151.50 
  8. brooklyn   $44726.00   $234.00 
  9. queens         $0.00   $243.00 
  10. queens    $105000.00  $1275.60 

str.capitalize()  设置首字母大写

  1. df.index = df.index.str.capitalize() 
  2. df.head() 
  3. Out[26]:  
  4.                 初始成本     总附加费用 
  5. 区                              
  6. Queens      $2000.00   $100.00 
  7. Queens     $15000.00   $151.50 
  8. Brooklyn   $44726.00   $234.00 
  9. Queens         $0.00   $243.00 
  10. Queens    $105000.00  $1275.60 

str.replace('$', '')  替换特定字符。这里把列中的美元符号$去掉,替换成空字符。

  1. df['初始成本'] = df['初始成本'].str.replace('$'''
  2. df['总附加费用'] = df['总附加费用'].str.replace('$'''
  3. df.head() 
  4. Out[27]:  
  5.                初始成本    总附加费用 
  6. 区                            
  7. Queens      2000.00   100.00 
  8. Queens     15000.00   151.50 
  9. Brooklyn   44726.00   234.00 
  10. Queens         0.00   243.00 
  11. Queens    105000.00  1275.60 

str.strip()  去除字符串中的头尾空格、以及\\n \\t

  1. df['初始成本'] = '   ' + df['初始成本'
  2. df['初始成本'][0
  3. Out[28]: '   2000.00' 
  4.  
  5. df['初始成本'] = df['初始成本'].str.strip() 
  6. df['初始成本'][0
  7. Out[29]: '2000.00' 

str.split('x')  使用字符串中的 'x' 字符作为分隔符,将字符串分隔成列表。这里将列中的值以 '.' 进行分割,效果如下:

  1. df['总附加费用'] = df['总附加费用'].str.split('.'
  2. df.head() 
  3. Out[30]:  
  4.                初始成本       总附加费用 
  5. 区                               
  6. Queens      2000.00   [10000
  7. Queens     15000.00   [15150
  8. Brooklyn   44726.00   [23400
  9. Queens         0.00   [24300
  10. Queens    105000.00  [127560

str.get() 选取列表中某个位置的值。接着上面分割后的结果,我们用 str.get(0) 取出列表中前一个位置的数值,生成新的一列“总附加费用_整数”,即取出金额中的整数部分。

  1. df['总附加费用_整数'] = df['总附加费用'].str.get(0
  2. df.head() 
  3. Out[31]:  
  4.                初始成本       总附加费用 总附加费用_整数 
  5. 区                                        
  6. Queens      2000.00   [10000]      100 
  7. Queens     15000.00   [15150]      151 
  8. Brooklyn   44726.00   [23400]      234 
  9. Queens         0.00   [24300]      243 
  10. Queens    105000.00  [127560]     1275 

str.contains() 判断是否存在某个字符,返回的是布尔值。这里判断一下"总附加费用_整数"列中是否包含字符'0'。

  1. df['总附加费用_整数'].str.contains('0'
  2. Out[33]:  
  3. 区 
  4. Queens            True 
  5. Queens           False 
  6. Brooklyn         False 
  7. Queens           False 
  8. Queens           False 

str.find() 检测字符串中是否包含子字符串str,如果是,则返回该子字符串开始位置的索引值。示例中的'0'字符最开始出现的位置是1。

  1. df['总附加费用_整数'][0
  2. Out[13]: '100' 
  3. df['总附加费用_整数'][0].find('0'
  4. Out[14]: 1 

学完基本的字符串操作方 法,我们来看一下如何结合 NumPy 来提高字符串操作的效率。

获取数据,这里我们用一个新的数据集,下载链接如下,里面包含两个csv文件和一个txt文件:

https://github.com/realpython/python-data-cleaning

① BL-Flickr-Images-Book.csv

② olympics.csv

③ university_towns.txt

导入csv文件①,先观察一下" Place of Publication"这一列。

  1. df = pd.read_csv('文件路径'
  2. df['Place of Publication'].head(10
  3. Out[38]:  
  4. 0                                 London 
  5. 1               London; Virtue & Yorston 
  6. 2                                 London 
  7. 3                                 London 
  8. 4                                 London 
  9. 5                                 London 
  10. 6                                 London 
  11. 7    pp. 40. G. Bryan & Co: Oxford, 1898 
  12. 8                                London] 
  13. 9                                 London 
  14. Name: Place of Publication, dtype: object 

我们发现,这一列中的格式并不统一,比如1行中的London; Virtue & Yorston,London后面的部分我们不需要,还有7行的pp. 40. G. Bryan & Co: Oxford, 1898,有效信息只是Oxford。

再用 .tail(10) 方法观察这一列的最后十行:

  1. df['Place of Publication'].tail(10
  2. Out[39]:  
  3. 8277               New York 
  4. 8278                 London 
  5. 8279               New York 
  6. 8280                 London 
  7. 8281    Newcastle-upon-Tyne 
  8. 8282                 London 
  9. 8283                  Derby 
  10. 8284                 London 
  11. 8285    Newcastle upon Tyne 
  12. 8286                 London 
  13. Name: Place of Publication, dtype: object 

我们发现,8281行的Newcastle-upon-Tyne中间有连字符,但8285行却没有,这些都是要解决的格式不规范的问题。

为了清洗这一列,我们可以将Pandas中的 .str() 方法与NumPy的 np.where 函数相结合, np.where 函数是Excel的IF()宏的矢量化形式,它的语法如下:

  1. >>> np.where(condition, then, else

如果 condition 条件为真,则执行 then ,否则执行 else 。这里的condition条件可以是一个类数组的对象,也可以是一个布尔表达式,我们也可以利用 np.where 函数嵌套多个条件进行矢量化计算和判断。

  1. >>> np.where(condition1, x1,  
  2.         np.where(condition2, x2,  
  3.             np.where(condition3, x3, ...))) 

下面的这个实例,就是同时嵌套两个条件解决上面提到的那两个字符串问题。思路是,如果字符串里面包含'London',就用'London'代替,这样可以去除其他冗余信息,否则,如果字符串里面包含'Oxford',则用'Oxford'代替,同时如果字符串里面包含符号'-',则用空格代替。

  1. pub = df['Place of Publication'
  2. london = pub.str.contains('London'
  3. oxford = pub.str.contains('Oxford'
  4.  
  5.  
  6. df['Place of Publication'] = np.where(london, 'London'
  7.                                       np.where(oxford, 'Oxford'
  8.                                                pub.str.replace('-'' '))) 

打印出前十行和后十行,结果如下,可以和整理前的数据进行对比。

  1. df['Place of Publication'].head(10
  2. Out[42]:  
  3. 0    London 
  4. 1    London 
  5. 2    London 
  6. 3    London 
  7. 4    London 
  8. 5    London 
  9. 6    London 
  10. 7    Oxford 
  11. 8    London 
  12. 9    London 
  13. Name: Place of Publication, dtype: object 
  1. df['Place of Publication'].tail(10
  2. Out[43]:  
  3. 8277               New York 
  4. 8278                 London 
  5. 8279               New York 
  6. 8280                 London 
  7. 8281    Newcastle upon Tyne 
  8. 8282                 London 
  9. 8283                  Derby 
  10. 8284                 London 
  11. 8285    Newcastle upon Tyne 
  12. 8286                 London 
  13. Name: Place of Publication, dtype: object 

05

用函数规范列

在某些情况下,数据不规范的情况并不局限于某一列,而是更广泛地分布在整个表格中。因此,自定义函数并应用于整个表格中的每个元素会更加高效。用 applymap() 方法可以实现这个功能,它类似于内置的 map() 函数,只不过它是将函数应用于整个表格中的所有元素。

我们打开文件txt文件 ③ ,先观察一下数据:

  1. $ head Datasets/univerisity_towns.txt 
  2.  
  3. Alabama[edit] 
  4. Auburn (Auburn University)[1
  5. Florence (University of North Alabama) 
  6. Jacksonville (Jacksonville State University)[2
  7. Livingston (University of West Alabama)[2
  8. Montevallo (University of Montevallo)[2
  9. Troy (Troy University)[2
  10. Tuscaloosa (University of Alabama, Stillman College, Shelton State)[3][4
  11. Tuskegee (Tuskegee University)[5
  12. Alaska[edit] 

观察发现,数据格式有如下特点:

州A[edit]

城市A(大学)

城市B(大学)

州B[edit]

城市A(大学)

城市B(大学)

......

我们可以利用这一数据格式,创建一个(州、市)元组列表,并将该列表转化成一个DataFrame。先创建一个列表,列表中包含州和城市(大学)信息。

  1. university_towns = [] 
  2. with open('D:/code/tushare interpret and tech team/python-data-cleaning-master/Datasets/university_towns.txt') as file: 
  3.     for line in file: 
  4.         if '[edit]' in line:  # 该行有[edit] 
  5.             state = line      # 将改行信息赋值给“州”,记住这个“州”,直到找到下一个为止 
  6.         else
  7.             university_towns.append((state, line))  # 否则,改行为城市信息,并且它们都属于上面的“州” 
  8.  
  9.  
  10. university_towns[:5
  11. Out[44]:  
  12. [('Alabama[edit]\\n''Auburn (Auburn University)[1]\\n'), 
  13.  ('Alabama[edit]\\n''Florence (University of North Alabama)\\n'), 
  14.  ('Alabama[edit]\\n''Jacksonville (Jacksonville State University)[2]\\n'), 
  15.  ('Alabama[edit]\\n''Livingston (University of West Alabama)[2]\\n'), 
  16.  ('Alabama[edit]\\n''Montevallo (University of Montevallo)[2]\\n')] 

用 pd.DataFrame() 方法将这个列表转换成一个DataFrame,并将列设置为"State"和"RegionName"。Pandas 将接受列表中的每个元素,并将元组左边的值传入"State"列,右边的值传入"RegionName"列。

  1. towns_df = pd.DataFrame(university_towns, columns=['State''RegionName']) 
  2. towns_df.head() 
  3. Out[45]:  
  4.              State                                         RegionName 
  5. 0  Alabama[edit]\\n                    Auburn (Auburn University)[1]\\n 
  6. 1  Alabama[edit]\\n           Florence (University of North Alabama)\\n 
  7. 2  Alabama[edit]\\n  Jacksonville (Jacksonville State University)[2]\\n 
  8. 3  Alabama[edit]\\n       Livingston (University of West Alabama)[2]\\n 
  9. 4  Alabama[edit]\\n         Montevallo (University of Montevallo)[2]\\n 

接下来就要对列中的字符串进行整理,"State"列中的有效信息是州名,"RegionName"列中的有效信息是城市名,其他的字符都可以删掉。当然,除了用之前提到的利用循环和 .str() 方法相结合的方式进行操作,我们还可以选择用 applymap() 方法,它会将传入的函数作用于整个DataFrame所有行列中的每个元素。

先定义函数 get_citystate(item) ,功能是只提取元素中的有效信息。

  1. def get_citystate(item): 
  2.     if ' (' in item: 
  3.         return item[:item.find(' (')] 
  4.     elif '[' in item: 
  5.         return item[:item.find('[')] 
  6.     else
  7.         return item 

然后,我们将这个函数传入 applymap() ,并应用于towns_df,结果如下:

  1. towns_df = towns_df.applymap(get_citystate) 
  2. towns_df.head() 
  3. Out[48]:  
  4.      State    RegionName 
  5. 0  Alabama        Auburn 
  6. 1  Alabama      Florence 
  7. 2  Alabama  Jacksonville 
  8. 3  Alabama    Livingston 
  9. 4  Alabama    Montevallo 

现在towns_df表格看起来是不是干净多了!

06

删除重复数据

重复数据会消耗不必要的内存,在处理数据时执行不必要的计算,还会使分析结果出现偏差。因此,我们有必要学习如何删除重复数据。

先看一个来自DataCamp的数据集,调用info()方法打印出每列数据的具体信息和内存信息,共有24092行数据,内存占用量是 753.0+ KB。

  1. tracks = billboard[['year''artist''track''time']] 
  2. print(tracks.info()) 
  3.  
  4. <class 'pandas.core.frame.DataFrame'
  5. RangeIndex: 24092 entries, 0 to 24091 
  6. Data columns (total 4 columns): 
  7. year      24092 non-null int64 
  8. artist    24092 non-null object 
  9. track     24092 non-null object 
  10. time      24092 non-null object 
  11. dtypes: int64(1), object(3
  12. memory usage: 753.0+ KB 
  13. None 

下面调用 .drop_duplicates() 函数删除重复数据。

  1. In [11]: tracks_no_duplicates = tracks.drop_duplicates() 
  2. ... print(tracks_no_duplicates.info()) 
  3. ...  
  4. <class 'pandas.core.frame.DataFrame'
  5. Int64Index: 317 entries, 0 to 316 
  6. Data columns (total 4 columns): 
  7. year      317 non-null int64 
  8. artist    317 non-null object 
  9. track     317 non-null object 
  10. time      317 non-null object 
  11. dtypes: int64(1), object(3
  12. memory usage: 12.4+ KB 
  13. None 

删完之后我们发现,数据量减少到了317个,内存占用缩减至 12.4+ KB。

07

填充缺失值

数据集中经常会存在缺失值,学会正确处理它们很重要,因为在计算的时候,有些无法处理缺失值,有些则在默认情况下跳过缺失值。 而且,了解缺失的数据,并思考用什么值来填充它们,对做出无偏的数据分析至关重要。

同样是来自DataCamp的一个存在缺失值的数据集:

  1. In [3]: airquality.head(10
  2. Out[3]:  
  3.    Ozone  Solar.R  Wind  Temp  Month  Day 
  4. 0   41.0    190.0   7.4    67      5    1 
  5. 1   36.0    118.0   8.0    72      5    2 
  6. 2   12.0    149.0  12.6    74      5    3 
  7. 3   18.0    313.0  11.5    62      5    4 
  8. 4    NaN      NaN  14.3    56      5    5 
  9. 5   28.0      NaN  14.9    66      5    6 
  10. 6   23.0    299.0   8.6    65      5    7 
  11. 7   19.0     99.0  13.8    59      5    8 
  12. 8    8.0     19.0  20.1    61      5    9 
  13. 9    NaN    194.0   8.6    69      5   10 

以"Ozone"列为例,我们可以调用 fillna() 函数,用该列的均值 .mean() 填充NaN值。

  1. oz_mean = airquality.Ozone.mean() 
  2. airquality['Ozone'] = airquality['Ozone'].fillna(oz_mean) 
  3. print(airquality.head(10)) 
  4.  
  5.        Ozone  Solar.R  Wind  Temp  Month  Day 
  6. 0  41.000000    190.0   7.4    67      5    1 
  7. 1  36.000000    118.0   8.0    72      5    2 
  8. 2  12.000000    149.0  12.6    74      5    3 
  9. 3  18.000000    313.0  11.5    62      5    4 
  10. 4  43.195402      NaN  14.3    56      5    5 
  11. 5  28.000000      NaN  14.9    66      5    6 
  12. 6  23.000000    299.0   8.6    65      5    7 
  13. 7  19.000000     99.0  13.8    59      5    8 
  14. 8   8.000000     19.0  20.1    61      5    9 
  15. 9  43.195402    194.0   8.6    69      5   10 

三、总结

了解如何进行数据清洗非常重要,因为它是数据科学的重要组成部分。好在Python提供了非常好用的 Pandas 和 NumPy 库来帮助我们清理数据集,本文介绍的方法都是在实际中经常会用到的,希望大家能牢记于心。

一般认为,一个数据结构是由数据元素依据某种逻辑联系组织起来的。对数据元素间逻辑关系的描述称为数据的逻辑结构;数据必须在计算机内存储,数据的存储结构是数据结构的实现形式,是其在计算机内的表示;此外讨论一个数据结构必须同时讨论在该类数据上执行的运算才有意义。一个逻辑数据结构可以有多种存储结构,且各种存储结构影响数据处理的效率。

赞(16)
踩(0)
分享到:
华为认证网络工程师 HCIE直播课视频教程