加载中...

6.13 数据的累加与统计操作


问题

你需要处理一个很大的数据集并需要计算数据总和或其他统计量。

解决方案

对于任何涉及到统计、时间序列以及其他相关技术的数据分析问题,都可以考虑使用 Pandas库 。

为了让你先体验下,下面是一个使用Pandas来分析芝加哥城市的老鼠和啮齿类动物数据库 的例子。在我写这篇文章的时候,这个数据库是一个拥有大概74,000行数据的CSV文件。

  1. >>> import pandas
  2. >>> # Read a CSV file, skipping last line
  3. >>> rats = pandas.read_csv('rats.csv', skip_footer=1)
  4. >>> rats
  5. <class 'pandas.core.frame.DataFrame'>
  6. Int64Index: 74055 entries, 0 to 74054
  7. Data columns:
  8. Creation Date 74055 non-null values
  9. Status 74055 non-null values
  10. Completion Date 72154 non-null values
  11. Service Request Number 74055 non-null values
  12. Type of Service Request 74055 non-null values
  13. Number of Premises Baited 65804 non-null values
  14. Number of Premises with Garbage 65600 non-null values
  15. Number of Premises with Rats 65752 non-null values
  16. Current Activity 66041 non-null values
  17. Most Recent Action 66023 non-null values
  18. Street Address 74055 non-null values
  19. ZIP Code 73584 non-null values
  20. X Coordinate 74043 non-null values
  21. Y Coordinate 74043 non-null values
  22. Ward 74044 non-null values
  23. Police District 74044 non-null values
  24. Community Area 74044 non-null values
  25. Latitude 74043 non-null values
  26. Longitude 74043 non-null values
  27. Location 74043 non-null values
  28. dtypes: float64(11), object(9)
  29. >>> # Investigate range of values for a certain field
  30. >>> rats['Current Activity'].unique()
  31. array([nan, Dispatch Crew, Request Sanitation Inspector], dtype=object)
  32. >>> # Filter the data
  33. >>> crew_dispatched = rats[rats['Current Activity'] == 'Dispatch Crew']
  34. >>> len(crew_dispatched)
  35. 65676
  36. >>>
  37. >>> # Find 10 most rat-infested ZIP codes in Chicago
  38. >>> crew_dispatched['ZIP Code'].value_counts()[:10]
  39. 60647 3837
  40. 60618 3530
  41. 60614 3284
  42. 60629 3251
  43. 60636 2801
  44. 60657 2465
  45. 60641 2238
  46. 60609 2206
  47. 60651 2152
  48. 60632 2071
  49. >>>
  50. >>> # Group by completion date
  51. >>> dates = crew_dispatched.groupby('Completion Date')
  52. <pandas.core.groupby.DataFrameGroupBy object at 0x10d0a2a10>
  53. >>> len(dates)
  54. 472
  55. >>>
  56. >>> # Determine counts on each day
  57. >>> date_counts = dates.size()
  58. >>> date_counts[0:10]
  59. Completion Date
  60. 01/03/2011 4
  61. 01/03/2012 125
  62. 01/04/2011 54
  63. 01/04/2012 38
  64. 01/05/2011 78
  65. 01/05/2012 100
  66. 01/06/2011 100
  67. 01/06/2012 58
  68. 01/07/2011 1
  69. 01/09/2012 12
  70. >>>
  71. >>> # Sort the counts
  72. >>> date_counts.sort()
  73. >>> date_counts[-10:]
  74. Completion Date
  75. 10/12/2012 313
  76. 10/21/2011 314
  77. 09/20/2011 316
  78. 10/26/2011 319
  79. 02/22/2011 325
  80. 10/26/2012 333
  81. 03/17/2011 336
  82. 10/13/2011 378
  83. 10/14/2011 391
  84. 10/07/2011 457
  85. >>>

嗯,看样子2011年10月7日对老鼠们来说是个很忙碌的日子啊!^_^

讨论

Pandas是一个拥有很多特性的大型函数库,我在这里不可能介绍完。但是只要你需要去分析大型数据集合、对数据分组、计算各种统计量或其他类似任务的话,这个函数库真的值得你去看一看。


还没有评论.