智能助手网
标签聚合 不够

/tag/不够

linux.do · 2026-04-17 23:33:37+08:00 · tech

最近一直在纠结一个问题: 要不要买新笔记本? (又到周五了,开心~~~~~~) 现在的笔记本是最后一款带TouchBar的13寸的M1的MacBookPro 16G,跑跑轻量的任务没问题,但一旦涉及编译、跑模型、多服务并发或者是多开几个Docker就卡的一批。而家里恰好有一台配置相当不错的 Arch Linux 主机常年吃灰(自己一直折腾)—— 主要是因为我更多时候是拿笔记本在公司工作。 作为一个重度 Nvim + Linux 用户,我开始认真考虑: 与其花上万买新Mac本(虽然我这个Mac用了将近6年了,但是续航还是很不错的)不如把家里的主机变成远程开发机?有没有搞头 我的基本判断 对于像我这样的Terminal开发来说,远程开发的体验其实非常接近本地: SSH + tmux + Neovim,延迟敏感度极低,在局域网内几乎感觉不到差异 不依赖 GUI,也就不存在远程桌面卡顿、分辨率错乱这些经典问题 编译、构建全部跑在主机上,笔记本只负责输入 所以对我来说,远程开发机方案的性价比相当高—— 买笔记本的钱,可以用来给主机加内存、加 SSD ,实际收益更直接。而且家里自己也组了Nas,2T SSD做读写缓存,8T机械做的存储矩阵。 网络连通:绕不开的第一道坎 远程开发最核心的问题不是工具,而是 怎么让外网稳定打回家 。我看到过以下几种主流方案,各有取舍: 我个人倾向 Tailscale 作为入门首选 ,配置成本几乎为零;如果对稳定性有更高要求,再考虑换 WireGuard 自建。 工作流:纯终端党的天堂 我目前的工作流设想是这样的: Tailscale 打通网络 → SSH 连进 Arch 主机 → Tmux 管理多窗口 → Neovim 写代码 → 所有编译/运行全在主机侧 或者各位佬们有更好的想法吗? 那要不要买新笔记本? 笔记本的边际价值在于"性能",但如果性能的主要负载都转移到了远程主机,那笔记本只需要够用就行——轻薄、续航好、键盘手感不错,这些才是移动端真正需要的。现有的本子在这几点上完全够用。 钱如果要花,我更倾向于给主机加一条更大的内存,或者用来买一台低功耗的小机器专门跑 Tailscale 和常驻服务? 想听听各位佬的意见和想法? 12 个帖子 - 8 位参与者 阅读完整话题

linux.do · 2026-04-15 22:09:41+08:00 · tech

今天的宕机真的是离谱。不过,除去算力资源不够用的因素外,客户端本身的缺陷也是反复造成retry的一个重要原因?我发现: 一、 Google AI 开发者论坛上一份标注为"CRITICAL"的 bug 报告揭示了一个严重的客户端缺陷:本地 Language Server 初始化失败后,Antigravity 会进入崩溃循环(crash loop),其后台 Agent 在 Language Server 尚未稳定时便 反复读取 prompt 上下文并尝试重新执行请求 ,导致用户的付费额度(尤其是 Ultra 层的5小时刷新桶)在数分钟内被消耗殆尽。该报告者称此现象每天发生 30–40 次。该缺陷的核心欺骗性在于:错误信息指向"云端服务器容量",但实际故障源是本地 127.0.0.1 回环连接失败——“Priority Ultra 的负载均衡器根本未被触及”。 具体可见 这个链接 二、(至于这一点,记得其他佬友有提供解决方案,各位佬友自行搜索下?) 另一经用户逆向工程确认的 bug 是:当 Antigravity 通过 Remote WSL 扩展连接至 WSL2 时,Language Server 进程被错误地指向 daily/staging 端点 ( daily-cloudcode-pa.googleapis.com ),而非生产端点( cloudcode-pa.googleapis.com )。根源在于 main.js 中的 Tws 函数对 isGcpTos 和 isTierGCPTos 条件的判断在远程场景下发生了异常偏移。 具体可参考 这个链接 抛砖引玉,希望能够找到缓解retry的好法子……(PS:刚刚我的antigravity,retry了40次,才完整跑完 ) 5 个帖子 - 5 位参与者 阅读完整话题

linux.do · 2026-04-15 17:18:18+08:00 · tech

现在的compaction感觉不是很靠谱,无论是丢信息啊还是之类的。刚刚突然在想,之前经常因为一些原因一个session烂掉,这个时候我想续上这个session,我就会直接复制这个session的最后大约20k(我也不太清楚)的内容,然后作为prompt塞进下一个session就好了,然后对话就续上了 感觉比compaction便宜还快 不如直接做成每次满了,就去掉前80%然后就好了 虽然最好的方式显然是滑动窗口,但是由于缓存便宜,所以完全行不通。 评价是: context rot的根源是大模型太贵了(用缓存才稍微正常一点)(大模型厂商怎么这么坏,就知道节省计算资源 )(虽然是缓存计算成本低是客观事实)(虽然缓存确实对用户的钱包更友好一点) 1 个帖子 - 1 位参与者 阅读完整话题