python如何流式读取数G超大文件
发表于:2025-01-18 作者:千家信息网编辑
千家信息网最后更新 2025年01月18日,这篇文章将为大家详细讲解有关python如何流式读取数G超大文件,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。如何流式读取数G超大文件使用 with...open.
千家信息网最后更新 2025年01月18日python如何流式读取数G超大文件
这篇文章将为大家详细讲解有关python如何流式读取数G超大文件,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。
如何流式读取数G超大文件
使用 with...open... 可以从一个文件中读取数据,这是所有 Python 开发者都非常熟悉的操作。
但是如果你使用不当,也会带来很大的麻烦。
比如当你使用了 read 函数,其实 Python 会将文件的内容一次性的全部载入内存中,如果文件有 10 个G甚至更多,那么你的电脑就要消耗的内存非常巨大。
# 一次性读取 with open("big_file.txt", "r") as fp: content = fp.read()
对于这个问题,你也许会想到使用 readline 去做一个生成器来逐行返回。
def read_from_file(filename): with open(filename, "r") as fp: yield fp.readline()
可如果这个文件内容就一行呢,一行就 10个G,其实你还是会一次性读取全部内容。
最优雅的解决方法是,在使用 read 方法时,指定每次只读取固定大小的内容,比如下面的代码中,每次只读取 8kb 返回。
def read_from_file(filename, block_size = 1024 * 8): with open(filename, "r") as fp: while True: chunk = fp.read(block_size) if not chunk: break yield chunk
上面的代码,功能上已经没有问题了,但是代码看起来代码还是有些臃肿。
借助偏函数 和 iter 函数可以优化一下代码
from functools import partial def read_from_file(filename, block_size = 1024 * 8): with open(filename, "r") as fp: for chunk in iter(partial(fp.read, block_size), ""): yield chunk
关于"python如何流式读取数G超大文件"这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。
文件
代码
内容
一次性
函数
更多
篇文章
一行
内存
方法
还是
问题
面的
不当
不错
实用
巨大
很大
臃肿
优雅
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
襄阳软件开发工作
国家网络安全法第九条解释
写入access数据库
保证网络安全最根本的措施是
修改war中数据库配置
方舟生存进化租什么样的服务器
wifi服务器名称在哪里看
奇迹ex902数据库
暖暖获取数据库
山西信息化软件开发补贴
软件开发工具对比
从事网络技术工作需要什么样的人
得到app软件开发公司
esxi搭建流媒体服务器
虚拟机 轻量应用服务器
腾讯云服务器配置安全策略
网络安全宣传展板免费
做城市智慧系统软件开发年薪
采购20万台服务器
网络软件开发智能信息处理
公务员网络安全管理类
网络技术员招聘岗位职责
数据库脚本文件有什么用
上海电信代理服务器
数据库会感染吗
网络安全法规定采取监测记录
广东广电服务器亮橙灯云空间
广州社交软件开发客户
浙江正朔互联网科技有限公司
如何黑原神服务器