V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  xxfye  ›  全部回复第 2 页 / 共 28 页
回复总数  555
1  2  3  4  5  6  7  8  9  10 ... 28  
@sun1991 废话,出了事情为什么不甩锅?
@mingl0280 为啥会出现多次插入?
应急方案是啥?能否回退?业务如何规避?今晚能不能解决?
防重放的设计咋写的?为什么能过评审,为什么代码能过 review ?测试为什么测不出来?业务为什么测不出来?平时的灰度吃屎了?
如果上面的重重防线都被击穿,还造成了比较大的社会影响,那就麻烦主管科技的副行长去人行金管局解释一下了,毕竟这个改造任务是总行下达的嘛。
@mingl0280 数据库不一致是啥问题,你是想说数据不一致?
@mingl0280 我就在干这件事情
@mingl0280 现在银行核心早就禁止了存储过程了。
如果在代码中定期调用 system.gc.collect 是否有内存下降,如果是的话,说明可能是高代的对象内存泄漏了。
我模糊印象中,StackExchange.Redis 早期版本有内存泄漏问题,升级一下试试?
34 天前
回复了 kksd0912334 创建的主题 Kubernetes 如何劝领导不要搭建备用 k8s 集群
@me1onsoda 最主要的原因就是,不同场景对于资源的要求是不一样的。
比如大数据集群,就禁止超售,该分配给 spark 作业 20c ,就一定要独占 20c ,不然无法保证 spark 作业按时效顺利完成,如果超售内存,麻烦就更大了,可能导致作业 OOM 挂了,甚至把宿主机整挂了。
业务集群运行 CPU 和内存可以按 2-4 倍超售,GPU 集群甚至能把 GPU 按 4 到 8 倍超售。
其他集群也各有特点:
比如混部集群,6 点到 22 点优先提供给业务集群扩容,其他时间都给大数据集群用。
还有信创 ARM/x86 集群,里面就全是信创的机器。机器特点是单核性能低,但核心多内存大。
35 天前
回复了 kksd0912334 创建的主题 Kubernetes 如何劝领导不要搭建备用 k8s 集群
多个 k8s 集群不是很正常嘛,我们都有将近 10 套集群了,而且 k8s 版本还不一样。
业务集群,GPU 集群,大数据集群,混部集群等等,每种集群都是在两地机房独立部署的。
38 天前
回复了 lstz 创建的主题 OpenAI 用贵的国产大模型 API 是否效果堪比 GPT4?
有些人的幻觉比大模型强多了。
也许这就是为什么大模型永远比不过人的原因。
38 天前
回复了 lstz 创建的主题 OpenAI 用贵的国产大模型 API 是否效果堪比 GPT4?
@JeriffCheng 为啥要应付检查丢库房?那不买不就好了。要买还得走长长的采购流程。
银行为啥要发布大模型,银行是讲究效益的地方,连大模型都不想从头训练,都是采购外面的大模型,微调一下就用的。
你以为 A100 除了大模型就没有别的事情可以干么。
38 天前
回复了 lstz 创建的主题 OpenAI 用贵的国产大模型 API 是否效果堪比 GPT4?
@JeriffCheng 银行早在 A100 发布之初就买了一大堆了,后续搞国产化就收手不买了,哪里还等到制裁和黑市
38 天前
回复了 lstz 创建的主题 OpenAI 用贵的国产大模型 API 是否效果堪比 GPT4?
@JeriffCheng 你说互联网企业没 2 千张 A100 是认真的吗。
就我所知,就连几家国有银行都有 2 千张卡了。
38 天前
回复了 lstz 创建的主题 OpenAI 用贵的国产大模型 API 是否效果堪比 GPT4?
今日笑话:国内大模型是 llama 微调出来的。
@sh3937
放不放实习是小事,研究生 3 年如何度过,未来就业方向才是大事,这才是你应该重点考虑的东西。不要捡了芝麻丢了西瓜。
40 天前
回复了 anerevol 创建的主题 职场话题 华为 OD 快一年了,谈谈感受
都微服务了,还搞 ddd ?无语😓。
不是因为假备案号才被屏蔽吗,和 cn 有啥关系?
1  2  3  4  5  6  7  8  9  10 ... 28  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   4057 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 33ms · UTC 10:08 · PVG 18:08 · LAX 03:08 · JFK 06:08
Developed with CodeLauncher
♥ Do have faith in what you're doing.