V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
drymonfidelia
V2EX  ›  程序员

架构复杂度增加是不是导致了稳定性下降?最近动不动就是谷歌崩了、微信崩了、淘宝崩了、网易崩了,以前都没这么多事件

  •  
  •   drymonfidelia · 17 天前 · 5480 次点击
    42 条回复    2024-09-09 14:56:37 +08:00
    ztm0929
        1
    ztm0929  
       17 天前 via iPhone   ❤️ 4
    主要是因为人员变动,裁员裁到动脉了
    evan9527
        2
    evan9527  
       17 天前
    降本增笑
    fffq
        3
    fffq  
       17 天前   ❤️ 2
    怎么实现我不管,明天上线
    jasonkayzk
        4
    jasonkayzk  
       17 天前
    降本增笑不是说着玩的。
    weian
        5
    weian  
       17 天前
    肯定是裁员呗
    lithiumii
        6
    lithiumii  
       17 天前 via Android
    以前互联网公司也没这么重要,随便谁崩几个小时不够上新闻
    virusdefender
        7
    virusdefender  
       17 天前
    即使是大公司稳定性也是大量的资金和人员保障出来的,比如主备机房网络和服务器、运维 24 小时值班等等,这部分支出减少了之后,经常崩我觉得也可以理解。
    mywind
        8
    mywind  
       17 天前
    关注度和影响力的原因,小公司软件天天崩,用户都没几个,自然没什么人关注
    lujiaxing
        9
    lujiaxing  
       17 天前   ❤️ 6
    一方面是的。任何系统都是这样,越复杂,出问题的概率越大。目前已知的唯一一个极其复杂但没有任何 BUG 的系统就是物理。但这是神的领域,非吾等凡人可以企及。对于人类来说,人的大脑终归是有极限的,能想到的逻辑分支也是有限的。制造出来的系统必然也会有 BUG 。此事古难全。那么为了完善这种复杂系统,就需要很多的人一起来维护。但是现在中国大陆经济政策严重失误 + 全球经济下行的大环境下,各企业都为了自保开始裁员。这就导致一部分复杂的系统缺少必要的维护,进而产生崩溃等问题。
    niubee1
        10
    niubee1  
       17 天前   ❤️ 1
    基本的概率学,当一个服务可靠度 99.9%,100 个服务组合成的系统的整体可靠度就只有 90.4%了,其实微服务在遇到裁员砍到大动脉后,系统可靠度会指数级别下降
    crackidz
        11
    crackidz  
       17 天前
    因为互联网公司都在降本增笑
    sagaxu
        12
    sagaxu  
       17 天前   ❤️ 1
    以前事儿也不少,

    2005 年的金手指事件,“以 61 万日元的价格,卖出 1 股”,误操作成“以每股 1 日元的价格,卖出 61 万股”,由于交易系统的 bug 无法撤单,瑞穗证券损失超过 400 亿日元。

    2012 年雅虎日本,系统故障导致 5000 多家客户丢数据。

    2015 年还是雅虎日本,丢失 200 多万个邮件。

    2020 年还是雅虎日本,错改几十万账号地址,导致发货发错人。
    des
        13
    des  
       17 天前   ❤️ 17
    你以为的:裁到大动脉了,大崩溃
    实际上的:裁到屁股了,兜不住屎了
    Tink
        14
    Tink  
       17 天前
    以前也崩,但是大家不知道
    Falcon1
        15
    Falcon1  
       17 天前
    换代速度太快了,要是一个版本不动用十年,基本 bug 都排除得差不多了
    CEBBCAT
        16
    CEBBCAT  
       17 天前
    @lujiaxing #9 计算机也是物理,从 PCB 到半导体,都是利用物理定律。BUG 是人类意识(漏洞)的体现
    jim9606
        17
    jim9606  
       17 天前 via Android
    增长期:死堆人力撑着,不然影响用户信心就拉不到投资了
    平稳期:炸就炸吧反正低价值用户

    总有人拿推特裁员说精准,我就没觉得现在推的搜索和突然上传可靠过
    lneoi
        18
    lneoi  
       17 天前   ❤️ 1
    换个角度考虑,接受几次崩溃之后人员能够熟悉问题稳定维护,换来能够削减人员,说不定就有想冒这样风险的,实在搞不定的再把几个大牛招回去,其他的依然削减。
    mytsing520
        19
    mytsing520  
       17 天前
    本质上是资源占用的矛盾
    James369
        20
    James369  
       17 天前
    不注重测试和维护,只会加功能
    yjxjn
        21
    yjxjn  
       17 天前   ❤️ 1
    @sagaxu #12 接触过一些日本的程序员,除了少部分优秀的,其余大部分都是菜。测试居然是 Happy Path Test
    YVAN7123
        22
    YVAN7123  
       17 天前
    降本,没有主备系统了呗
    Foxkeh
        23
    Foxkeh  
       17 天前
    感觉像游戏一样停机维护还更直接更靠谱一些
    dif
        24
    dif  
       17 天前
    一方面:系统大了就会这样,我以前参与的项目十几个人一起开发,经常有雷。
    另一方面:我经历过的都是快速迭代,有坑再填。实际上老板要求填坑也不能影响迭代,所以,慢工出细活还是有些道理的。
    jhdxr
        25
    jhdxr  
       17 天前
    @jim9606 #17 推特裁员也从来没精准过吧。裁完以后既没有少崩,也没少嘲笑马斯克啊
    Perry
        26
    Perry  
       17 天前 via iPhone
    听离职推特的朋友说的,推特裁员把很多高水平的逼到主动辞职(离职包裹给的还行),留下来的都是等绿卡的外籍程序员(印度为主)
    DOLLOR
        27
    DOLLOR  
       17 天前
    @sagaxu
    日本今年还有角川 niconico 网站关停两个月,数据泄露,实在叹为观止
    512357301
        28
    512357301  
       17 天前 via Android
    本质上还是用户量太大了,用户量涨一个数量级,硬件成本不能也涨一个数量级啊,而且机器多了,运维成本也高了。
    功能多,用的人多了,代码量自然也就大了,为了快速迭代,提升开发速度,自然架构就复杂了,专人专岗是效率最高的方式。
    说到底所谓的互联网大厂,本质上就是一个个开发工厂。特别是那些外包公司,更是血汗工厂。
    james122333
        29
    james122333  
       17 天前
    所以简单的东西才是王道 刻意复杂化的东西没有不垃圾的 不论使用还是学习
    现在流行的大多是垃圾东西
    guanhui07
        30
    guanhui07  
       17 天前 via Android
    降本增笑
    james122333
        31
    james122333  
       17 天前 via Android
    如何简单精妙实现一样的效果才是吾辈追求
    smlcgx
        32
    smlcgx  
       17 天前 via iPhone
    人类总是乐观看待风险和高估自身能力
    能抵抗百年不遇的洪水
    闯一个红灯没关系的
    把老员工都裁了不会有问题的,系统很成熟了
    scienhub
        33
    scienhub  
       17 天前   ❤️ 2
    @lujiaxing "目前已知的唯一一个极其复杂但没有任何 BUG 的系统就是物理": 很有意思的点。

    但是物理系统之所以没有 bug ,可能是因为我们意识里就觉得物理世界是对的,如果没有按我们理解的运行,那肯定是我们理解有问题。比如光地双缝干涉这种,你可以认为这是物理世界的 bug ,但是绝大部分人,都认为这是物理世界的规则,只是我们没有理解透彻。
    laminux29
        34
    laminux29  
       17 天前   ❤️ 1
    这并不是什么裁到大动脉,而是老板、项目经理不愿意付出时间成本,来给员工预留写文档与读文档的时间,导致员工踩坑。

    团队协作的场景,为了确保软件质量,为了减少坑,每个员工,在做实现之前,必须要写详细的设计文档,交接工作时必须要读完前任写的文档。但只要你去打听,在国内,无论大小厂,无论体制内外,极少听说老板与项目经理,预留足够时间,让员工去读写文档。

    不写文档,不读文档,自然会容易踩坑。

    你问问你自己,你的上级,给你预留写文档与读文档的时间了吗?
    GoLand
        35
    GoLand  
       17 天前
    多方面原因因素:
    1. 复杂度确实增加了,迭代时间越久,加上各种砍一刀、优惠券乱七八糟的功能,系统肯定变得更复杂了,相对应的稳定性必然会下降。
    2. 使用的人多了,同样复杂度的系统,要做到可用性 99.99%,100QPS 和 1 万 QPS 难度差很多很多。
    3. 迭代变快了,以前竞争没这么激烈,需求迭代也比较慢,变更引入的事故也少。
    ....
    iovekkk
        36
    iovekkk  
       17 天前
    我司之前裁了一个外包都裁了出问题了你敢信不?
    原因就是这个外包不知是有意还是无意反正非常注重防御性编程,代码一坨屎但是能勉强运行
    他在职的时候就属他的模块 bug 最多但是他愿意加班维护,不会太拖延整体进度
    他离职之后其他人都不想接手他的代码,迫于无奈,领导从其他项目里要了一个人过来
    结果新来的人搞了快两周还没熟悉他的代码,bug 改不过来新需求完全做不了
    于是现在又把他重新招回来了,降本增效又一经典案例
    p1gd0g
        37
    p1gd0g  
       16 天前
    以前也不少吧?可能以前信息流不那么顺畅,出事未免会成为热点
    satoru
        38
    satoru  
       16 天前
    组织架构也变臃肿了
    coderxy
        39
    coderxy  
       16 天前
    @iovekkk 防御性编程成功案例?
    opengps
        40
    opengps  
       16 天前
    你既然要说以前,可得知道那时候都是停机更新。各种功能融合在一起,甚至一个错别字都得中断几秒钟
    ala2008
        41
    ala2008  
       15 天前
    所以互联网所谓的可用性 11 个 9 都是假的( doge
    kw8023cn
        42
    kw8023cn  
       15 天前
    @scienhub 双缝干涉就是物理的 bug ,如果把它说成规则,那这个世界就不存在 bug 了,都可以被称之为“特性”,我理解的 bug ,就是按照已经的规则对输入给出既定的输出响应就应该被视为 bug ,至少目前粒子的双缝干涉实验就是触发了人物已知的物理规律的 bug 。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1034 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 27ms · UTC 22:22 · PVG 06:22 · LAX 15:22 · JFK 18:22
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.