python分块读取大数据,避免内存不足的方法

Uma ·
更新时间:2024-11-13
· 892 次阅读

如下所示:

def read_data(file_name): ''' file_name:文件地址 ''' inputfile = open(file_name, 'rb') #可打开含有中文的地址 data = pd.read_csv(inputfile, iterator=True) loop = True chunkSize = 1000 #一千行一块 chunks = [] while loop: try: chunk = dcs.get_chunk(chunkSize) chunks.append(chunk) except StopIteration: loop = False print("Iteration is stopped.") data = pd.concat(chunks, ignore_index=True) #print(train.head()) return data

以上这篇python分块读取大数据,避免内存不足的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持软件开发网。

您可能感兴趣的文章:python解析yaml文件过程详解python+logging+yaml实现日志分割Python集中化管理平台Ansible介绍与YAML简介详解Python读取yaml文件多层菜单python中yaml配置文件模块的使用详解Python从数据库读取大量数据批量写入文件的方法浅谈python下tiff图像的读取和保存方法Python从Excel中读取日期一列的方法Python读取YAML文件过程详解



方法 数据 内存不足 大数据 Python

需要 登录 后方可回复, 如果你还没有账号请 注册新账号