智能助手网
标签聚合 token

/tag/token

linux.do · 2026-04-18 22:25:04+08:00 · tech

虽是V0.3版本,但实际上对体验进行了大量完善优化,力求降低AI接入的门槛,为更多人人群带来专注AI体验; 1.独立导入模式支持:支持直接从当前浏览器打开的中转站自动化导入了 插件/备份导入依旧支持,可通过此最佳实践路径补充完善; 2.批量检测模型进一步优化:余额查看、快速对话、模型性能统计(TTFT、TPS、Latency)能力、站点管理 引入站点管理,简化每次导入逻辑,批量检测更加方便 3.高级代理网关,支持优先级自定义、自动切换、故障转移、多渠道队列、整流修正功能; 支持claude客户端使用openai等模型、自行排序队列、RPM限定等高级设置 mini侧栏可实时观看哪些节点被调度中、实时检测调用性能 4.优化体验:自定义key、标签备注、侧栏实时队列监控、全平台适配已完成 如有疏漏不佳体验、欢迎继续发掘指正问题 开源地址在初始发布贴: https://linux.do/t/topic/1828809 1 个帖子 - 1 位参与者 阅读完整话题

linux.do · 2026-04-18 22:06:31+08:00 · tech

1:结构化agents/claude 初始提示词. 只应该放置你是谁你在什么环境,本机有什么内容,现在的项目介绍一句话. 2:mcp标准化简略化. 可以配置disable 把不需要的mcp 工具给关闭. 3:skill搭配mcp工具特化如grok/context7/adb/chrome/supabase等 4:重点model基本化 配置示范 codex config.toml (点击了解更多详细信息) claude CLAUDE.md (点击了解更多详细信息) 项目说明使用 github.com GitHub - TokenRollAI/llmdoc: TokenRoll LLMDoc for Coding Agent TokenRoll LLMDoc for Coding Agent 记忆管理使用 github.com GitHub - gaoziman/claude-context-manager: claude-context-manager for claude code claude-context-manager for claude code model setting 使用 high 代替xhigh. todoplan 任务纲要使用 chatgpt 网页的pro对话完成 pro 反代公益站点 一次对话完成一件事情. 避免长上下文. 第一是我打出来的高缓存+高token 对话切费率低. 如果你们看懂了 就知道我说的是什么. llm最爱 代码行数低于1000/1个文件 组织结构化的文件目录. 清晰的顶层目录 每个大目录都应该有claude/agents文档. 从0~1~95%号池自建 自建号池状态页1Etoken=67刀 留下小爱心 冲击lv 3 1 个帖子 - 1 位参与者 阅读完整话题

linux.do · 2026-04-18 12:59:31+08:00 · tech

之前用古法注册机弄了点GPT的Free账号,然后自己搭了个sub2api进行反代。在CC中调用时,发现sub2api的使用记录里的缓存值一直是一个固定值,似乎没有命中更多缓存。 这也导致每次请求消耗的额度很高,二十几个账号的额度很快就没了。 虽然Free账号额度本来也比较少,但还是想请教下各位佬友,有什么办法能提高这个缓存token命中率吗?或者CC的配置中需要加什么特殊的值吗? 3 个帖子 - 2 位参与者 阅读完整话题

linux.do · 2026-04-18 10:43:30+08:00 · tech

可以不需要邀请码了,直接就能用了 需要赞助plus token。 第一天送1850个积分。以后每天送950积分。 之前的用户不受到影响。没有赞助的用户每天只有50积分。 api也弄好了,大家可以试试看。 我之前弄了一个free的gpt图片生成站,然后我今天发现只要改一个模型就能用 GPT-Image2。 现在我遇到的问题如下: 1.我只有5个plus账号。我后面会弄成提供plus账号送积分。我只需要accessToken就可以了。如果你愿意提供cli的格式我也不说什么。之前是1个账号120个图片额度。我不知道 GPT-Image2。是不是也是这样算的。 2.我需要一个公益的图床。我的服务器在日本,传国内免费的图床很慢。还不如直接从服务器下载。 3.暂时没想到 。 记得选gpt-image2 提示词最好告诉ai,需要的是图片,如果ai回复你文字 可能就没有图了。 47 个帖子 - 35 位参与者 阅读完整话题

hnrss.org · 2026-04-18 08:47:20+08:00 · tech

I built this to run OpenClaw safely. The problem: every sandbox I tried still handed the real API token to the agent as an env var. nilbox never gives the agent the real token. It gets a fake placeholder instead (ANTHROPIC_API_KEY=ANTHROPIC_API_KEY). nilbox intercepts outbound API calls and swaps in the real token at the network layer. So if the agent leaks the "token" — attacker gets a useless string. That's it. Also ships a managed Linux runtime (consistent across mac/win/linux) and a Store for one-click agent app installs. Full shell access too. Available for macOS, Windows, and Linux https://nilbox.run Curious how others are thinking about token security when running agents locally. Comments URL: https://news.ycombinator.com/item?id=47812193 Points: 3 # Comments: 0

hnrss.org · 2026-04-18 03:11:06+08:00 · tech

I've grown increasingly skeptical that public coding benchmarks tell me much about which model is actually worth paying for and worried that as demand continues to spike model providers will silently drop performance. I did a few manual analyses but found it non-trivial to compare across models due to difference in token caching and tool-use efficiency and so wanted a tool for repeatable evaluations. So the goal was an OSS tool get data to help answer questions like: “Would Sonnet have solved most of the issues we gave Opus? "How much would that have actually saved?” “What about OSS models like Kimi K2.5 or GLM-1?” “The vibes are off, did model performance just regress from last month?” Right now the project is a bit medium-rare - but it works end-to-end. I’ve run it successfully against itself, and I’m waiting for my token limits to reset so I can add support for more languages and do a broader run. I'm already seeing a few cases where I could've used 5.4-mini instead of 5.4 for some parts of implementation. I’d love any feedback, criticism, and ideas. I am especially interested if this is something you might pay for as a managed service or if you would contribute your private testcases to a shared commons hold-out set to hold AI providers a bit more accountable. https://repogauge.org [email protected] https://github.com/s1liconcow/repogauge Thanks! David Comments URL: https://news.ycombinator.com/item?id=47809457 Points: 1 # Comments: 0