我正在访问一个非常大的Pandas数据帧作为全局变量.通过
joblib并行访问此变量.
例如.
df = db.query("select id,a_lot_of_data from table") def process(id): temp_df = df.loc[id] temp_df.apply(another_function) Parallel(n_jobs=8)(delayed(process)(id) for id in df['id'].to_list())
以这种方式访问原始df似乎是跨进程复制数据.这是意料之外的,因为原始df在任何子进程中都没有被改变? (或者是吗?)
解决方法
对于joblib创建的每个进程,需要对整个DataFrame进行pickle和unpickled.在实践中,这非常慢并且还需要很多次的记忆.
一种解决方案是使用表格格式将数据存储在HDF(df.to_hdf)中.然后,您可以使用select来选择数据子集以进行进一步处理.在实践中,这对于交互式使用来说太慢了.它也非常复杂,您的工作人员需要存储他们的工作,以便在最后一步中进行整合.
另一种方法是使用target =’parallel’探索numba.vectorize.这将需要使用NumPy数组而不是Pandas对象,因此它也有一些复杂性成本.
从长远来看,希望dask能够为熊猫带来并行执行,但这不是很快就会发生的事情.