提问人:Walt Reed 提问时间:6/24/2017 最后编辑:AsclepiusWalt Reed 更新时间:11/10/2023 访问量:95496
Pandas - 将大型数据帧切成块
Pandas - Slice large dataframe into chunks
问:
我有一个大的数据帧(>3MM 行),我正在尝试通过一个函数传递(下面的函数在很大程度上简化了),并且我不断收到一条消息。Memory Error
我认为我将太大的数据帧传递到函数中,所以我正在尝试:
1) 将数据帧切成更小的块(最好由 AcctName
切片)
2) 将数据帧传递到函数中
3) 将数据帧连接回一个大型数据帧
def trans_times_2(df):
df['Double_Transaction'] = df['Transaction'] * 2
large_df
AcctName Timestamp Transaction
ABC 12/1 12.12
ABC 12/2 20.89
ABC 12/3 51.93
DEF 12/2 13.12
DEF 12/8 9.93
DEF 12/9 92.09
GHI 12/1 14.33
GHI 12/6 21.99
GHI 12/12 98.81
我知道我的函数可以正常工作,因为它可以在较小的数据帧(例如 40,000 行)上工作。我尝试了以下方法,但未能成功将小数据帧连接回一个大数据帧。
def split_df(df):
new_df = []
AcctNames = df.AcctName.unique()
DataFrameDict = {elem: pd.DataFrame for elem in AcctNames}
key_list = [k for k in DataFrameDict.keys()]
new_df = []
for key in DataFrameDict.keys():
DataFrameDict[key] = df[:][df.AcctNames == key]
trans_times_2(DataFrameDict[key])
rejoined_df = pd.concat(new_df)
我如何设想拆分数据帧:
df1
AcctName Timestamp Transaction Double_Transaction
ABC 12/1 12.12 24.24
ABC 12/2 20.89 41.78
ABC 12/3 51.93 103.86
df2
AcctName Timestamp Transaction Double_Transaction
DEF 12/2 13.12 26.24
DEF 12/8 9.93 19.86
DEF 12/9 92.09 184.18
df3
AcctName Timestamp Transaction Double_Transaction
GHI 12/1 14.33 28.66
GHI 12/6 21.99 43.98
GHI 12/12 98.81 197.62
答:
152赞
Scott Boston
6/24/2017
#1
您可以使用列表推导式将数据帧拆分为列表中包含的较小数据帧。
n = 200000 #chunk row size
list_df = [df[i:i+n] for i in range(0,df.shape[0],n)]
或者使用 numpy ,有关差异,请参阅此注释:array_split
list_df = np.array_split(df, n)
您可以通过以下方式访问这些区块:
list_df[0]
list_df[1]
etc...
然后,您可以使用 pd.concat 将其组装回一个数据帧中。
由 AcctName 提供
list_df = []
for n,g in df.groupby('AcctName'):
list_df.append(g)
评论
0赞
Walt Reed
6/24/2017
谢谢斯科特!有没有办法根据而不是块大小拆分为更小的数据帧?AcctName
0赞
Scott Boston
6/24/2017
@WaltReed 使用 groupby 尝试第二部分。
1赞
Scott Boston
6/24/2017
如果您在函数旁边创建了该列表,那么它就是一个局部变量。您可能需要将关键字 global 放在 list_df = [] 的前面
1赞
Asclepius
9/24/2020
可以使用 代替 .len(df)
df.shape[0]
4赞
roganjosh
3/22/2022
你的 numpy 方法不等同于列表推导。我想你是故意的?如果目的是展示两种不同的方法来分块 df,我认为 numpy 方法需要一些初步解释。即使使用也不能保证与文档中第二个示例中所示的行为相同np.array_split(df, math.ceil(len(df) / N))
math.ceil()
23赞
ilykos
1/20/2021
#2
我建议使用依赖项more_itertools
。它处理所有边缘情况,例如数据帧的不均匀分区,并返回一个迭代器,这将使事情变得更有效率。
(使用 @Acumenus 中的代码更新)
from more_itertools import sliced
CHUNK_SIZE = 5
index_slices = sliced(range(len(df)), CHUNK_SIZE)
for index_slice in index_slices:
chunk = df.iloc[index_slice] # your dataframe chunk ready for use
评论
3赞
santon
11/3/2021
你不能做一些更直接的事情吗:?for chunk in sliced(df, CHUNK_SIZE)
0赞
Martin Ueding
6/19/2022
@santon:是的,没有区别。无论如何,生成器只能迭代一次,因此将其存储为变量没有多大意义。
5赞
rodrigo-silveira
1/7/2022
#3
我喜欢@ScottBoston答案,虽然,我还没有记住咒语。下面是一个更详细的函数,它执行相同的操作:
def chunkify(df: pd.DataFrame, chunk_size: int):
start = 0
length = df.shape[0]
# If DF is smaller than the chunk, return the DF
if length <= chunk_size:
yield df[:]
return
# Yield individual chunks
while start + chunk_size <= length:
yield df[start:chunk_size + start]
start = start + chunk_size
# Yield the remainder chunk, if needed
if start < length:
yield df[start:]
要重建数据框,请将每个块累积到列表中,然后pd.concat(chunks, axis=1)
0赞
Swati Mishra
10/19/2023
#4
感谢您的解决方案。
我尝试了两种建议的方法:
方法1:
measure = time.time()
n = 10**6
list_df = [df[i:i+n] for i in range(0, df.shape[0], n)]
list_df[0]
print(time.time()-measure) # 0.00800180435180664 seconds
这更快。
方法2:
import math
measure = time.time()
n = 10**6
list_df = np.array_split(df, math.ceil(len(df)/n))
list_df[0]
print(time.time()-measure) # 56.50256133079529 seconds
这速度较慢。
评论
0赞
OCa
10/24/2023
对于性能问题,请提供参考资料或您自己的测量结果,例如使用时间模块来支持您的声明
1赞
Swati Mishra
10/30/2023
确定。我将使用时间模块编辑帖子以支持我的主张。谢谢。
0赞
julaine
11/10/2023
如果性能差异如此之大,则值得考虑。但我怀疑这个结果会随着数据帧的大小和数量而有很大差异n
0赞
Swati Mishra
11/10/2023
是的。数据帧大小决定了所花费的时间。上述差异适用于具有 2700 万行的 df。
上一个:替换字符串中反转的单词,从列表中
评论