首页   注册   登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
推荐学习书目
Learn Python the Hard Way
Python 学习手册
Python Cookbook
Python 基础教程
Python Sites
PyPI - Python Package Index
http://www.simple-is-better.com/
http://diveintopython.org/toc/index.html
Pocoo
值得关注的项目
PyPy
Celery
Jinja2
Read the Docs
gevent
pyenv
virtualenv
Stackless Python
Beautiful Soup
结巴中文分词
Green Unicorn
Sentry
Shovel
Pyflakes
pytest
Python 编程
pep8 Checker
Styles
PEP 8
Google Python Style Guide
Code Style from The Hitchhiker's Guide
V2EX  ›  Python

Python 或 pandas 怎么读取 1g 的大 json 文件?

  •  
  •   habin · 75 天前 · 2146 次点击
    这是一个创建于 75 天前的主题,其中的信息可能已经有所发展或是发生改变。

    json 格式是:

    {

    "AAPP":["0","0","0","0","0"],

    "AAPP_TD":["0","0","0","0","0"],

    "ABC1_ECM":["1","1","1","1","1"],

    ...,

    "ROWKEY":"30072019B20020051"}

    19 回复  |  直到 2019-08-30 13:11:30 +08:00
        1
    habin   75 天前
    提取其中需要的键值对进 pandas,比如"ABC1_ECM":["1","1","1","1","1"] 中的 ABC1_ECM 作为表头,列表作为数据
        2
    faketemp   75 天前
    如果要一次性装载 1G 大小的 json 在内存中分析 感觉会很卡很慢
    试过用 python 加载 200M 左右的文本文件约 1000 万行数据,用传说中的大数据清洗工具 flashtext 替换一个字词超过半个钟(不知道是不是姿势不太对),只能放弃

    不知道大文本 /大数据清洗到底该用什么趁手工具或者库?
        3
    JCZ2MkKb5S8ZX9pq   75 天前   ♥ 1
    这么大的话,我会选择先搞进 mongodb,顺便把常用的索引也做了。
        4
    Orenoid   75 天前
    这个大小就不应该用 json 存吧。。格式固定的话,自己逐行读取解析吧
        5
    mystorp   75 天前 via Android
    使用 json stream parser 如果是 node,可以看看这个库:JSONStream。其它语言的自己搜索下
        6
    IanPeverell   75 天前
    先存到 mongo 或者 redis 里然后再读吧
        7
    CCColby   75 天前
    按照行读,设置 chunk size ?然后 for 处理咯
        8
    SbloodyS   75 天前
    1G 不大,开多几个进程切片就好了,想快就开 spark
        9
    shuson   75 天前
    用 hive,create external table
    然后用 spark sql 读
        10
    flyingghost   75 天前
    这么规整的文件,是否可以考虑尝试当做 csv 来读? read_csv 的 sep 参数支持正则的。
        11
    liprais   75 天前 via iPhone
    pyspark 读完写入数据库
    轻轻松松
        12
    JunoNin   75 天前 via Android
    这么大,来看看别人怎么说
        13
    gam2046   75 天前
    分情况,内存状况是否允许一次性载入内存

    - 允许:一把梭,小文件怎么搞,这个一样搞,无非费点内存
    - 不允许:使用 Stream API 读取,避免一次性载入内存
        14
    smallgoogle   75 天前
    真心太大了。还先想想把它导入数据库把。
        15
    gamexg   75 天前   ♥ 1
    流式解析,流式写入即可

    python 不熟悉,关键字 python stream json 搜索到的库:

    https://github.com/danielyule/naya

    http://explique.me/Ijson/
        16
    arrow8899   75 天前   ♥ 1
    同楼上,可以通过 stream 来解析;
    不过我好奇这文件怎么来的,而且用 Json 来传输这么大的数据损耗太严重了,用其他二进制格式的话,数据大小可以减小好几倍;再分析下数据的规律,其实还有很大的压缩空间。
        17
    momocraft   75 天前
    这个 json 的 py 内存表示 可能比 json 字符串本身大不少
        18
    necomancer   72 天前
    pandas 不是有 read_json 函数么……没用过,但是印象里 pandas 的解析器大多是 C 版的,效率应该不差。
        19
    feelyou   53 天前
    我这里有个 96g 的 json。。。
    关于   ·   FAQ   ·   API   ·   我们的愿景   ·   广告投放   ·   感谢   ·   实用小工具   ·   4162 人在线   最高记录 5043   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.3 · 34ms · UTC 06:00 · PVG 14:00 · LAX 23:00 · JFK 02:00
    ♥ Do have faith in what you're doing.