文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

Python | NumPy | numpy.core._exceptions.MemoryError: Unable to allocate 1.04 MiB for an array

2023-09-09 19:39

关注

本文简要概括出现类似于 numpy.core._exceptions.MemoryError: Unable to allocate 1.04 MiB for an array with shape (370, 370) and data type float64 报错信息的原因及解决方法。

更新:2023 / 2 / 4


Python | NumPy | numpy.core._exceptions.MemoryError: Unable to allocate 1.04 MiB for an array


报错

numpy.core._exceptions.MemoryError: Unable to allocate 1.04 MiB for an array with shape (370, 370) and data type float64

原因

主要原因是电脑 RAM 内存不足,因为需要处理的数据量太大,GPU性能不够,存在内存溢出现象 12


解决方案

参考这里 34


修改 float 精度

在代码中使用的是 flaot 64 类型,然而实际上未必需要这么大的精度,这时候可以使用 numpy 中的 float32float16 等,这样可以降低很多的内存需求。


python 库、Pandas 和 Numpy 库更新为 64

python 原始的数据类型是 32 bit,但是最大只能使用 2G 内存,超过 2G 报错 MemoryError
如果你的 Python 用的是 32 bit 的,那么你的 pandasNumpy 也只能是 32 bit 的,那么当你的内存使用超过 2G 时,就会自动终止内存。而 64bit python 则无此限制。
因此,可以先检查自己安装的 python 是多少位的 5,如果是 32 bit,那么就重装 64 bitPython


如果你的 python 本来安装的就是 64 位的,可以采用下面的方法


扩充虚拟内存

在运行代码的过程中发现,内存其实只用到了一半不到,但是为什么会出现 Memory 的错误呢?
进过百度发现说是内存被限制了,所以考虑采用扩大虚拟内存的方法。

对于 windows 系统,扩大虚拟内存的方法:

修改 pycharm 的运行内存 6


更改 Python 读取大文件的方法

出现 memoryError 错误和文件读取太慢的问题,后来找到了两种比较快 Large File Reading 的方法,这里将介绍这两种读取方法。


Preliminary

我们谈到 文本处理 时,我们通常是指处理的内容。Python 将文本文件的内容读入可以操作的字符串变量非常容易。

文件对象提供了三个 方法,.read().readline().readlines()。每种方法可以接受一个变量以限制每次读取的数据量,但它们通常不使用变量。

.read() 每次读取整个文件,它通常用于将文件内容放到一个字符串变量中。然而 .read() 生成文件内容最直接的字符串表示,但对于连续的面向行的处理,它却是不必要的,并且如果文件大于可用内存,则不可能实现这种处理。

下面是 .read() 方法示例:

try:    f = open('/path/to/file', 'r')    print f.read()finally:    if f:        f.close()

调用 read() 会一次性读取文件的全部内容,如果文件有 10G,内存就爆了,所以,要保险起见,可以反复调用 read(size) 方法,每次最多读取 size 个字节的内容。

另外,调用 readline() 可以每次读取一行内容,调用 readlines() 一次读取所有内容并按行返回list。因此,要根据需要决定怎么调用。

如果文件很小,read() 一次性读取最方便;如果不能确定文件大小,反复调用 read(size) 比较保险;如果是配置文件,调用 readlines() 最方便:

for line in f.readlines():    process(line) # 

Read In Chunks

处理大文件是很容易想到的就是将大文件分割成若干小文件处理,处理完每个小文件后释放该部分内存。这里用了 iter & yield

def read_in_chunks(filePath, chunk_size=1024*1024):    """    Lazy function (generator) to read a file piece by piece.    Default chunk size: 1M    You can set your own chunk size     """    file_object = open(filePath)    while True:        chunk_data = file_object.read(chunk_size)        if not chunk_data:            break        yield chunk_dataif __name__ == "__main__":    filePath = './path/filename'    for chunk in read_in_chunks(filePath):        process(chunk)    # 

Using with open()

with 语句打开和关闭文件,包括抛出一个内部块异常。
for line in f 文件对象 f 视为一个迭代器,会自动的采用缓冲 IO 和内存管理,所以你不必担心大文件。

#If the file is line basedwith open(...) as f:    for line in f:        process(line) # 

参考链接


  1. Numpy.core._exceptions.MemoryError: Unable to allocate array with shape (51, 6, 64, 2) and data type float32 ↩︎

  2. MemoryError: Unable to allocate MiB for an array with shape and data type, when using anymodel.fit() in sklearn ↩︎

  3. 解决numpy.core._exceptions.MemoryError: Unable to allocate 1.04 MiB for an array ↩︎

  4. Very large matrices using Python and NumPy ↩︎

  5. 查看python是32位的还是64位的 ↩︎

  6. MemoryError: Unable to allocate array with shape (61721, 16000) and data typ ↩︎

来源地址:https://blog.csdn.net/MissMango0820/article/details/128871441

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯