各位佬有遇到这样的事情吗,如何解决,求助求助 6 个帖子 - 4 位参与者 阅读完整话题
有佬使用claude-opus-4-7遇到这个问题没?这道德限制限制比codex都还强了。以前的提示词注入方法绕不过了 4 个帖子 - 4 位参与者 阅读完整话题
611. 有效三角形的个数 - 力扣(LeetCode) 思路 1.使用双指针的思想,利用单调性进行快速找到符合条件的三元组的个数 2.情况A:nums[left] + nums[right] > nums[i]这说明当前的 left 是满足条件的最小下限。既然最小的都能过,那么 left 右侧到 right-1 之间的所有元素作为第一条边都必然成立。动作: 计数并执行 right–。理由: 我们已经穷举了以当前 right 为第二条边的所有可能,下一步需要减小 right 来检测更小的边界。 3.情况B:nums[left] + nums[right] <= nums[i]这说明当前的 left 太小了,即便加上当前最大的 right 也够不到三角形的门槛。动作: 执行 left++。理由: 既然当前的 right 已经给出了最大支援还是失败,那么当前的 left 绝不可能出现在任何以 i 为最大边的组合中,必须舍弃。 代码 package doublepointer; import java.util.Arrays; //给定一个包含非负整数的数组 nums , //返回其中可以组成三角形三条边的三元组个数。 //输入: nums = [2,2,3,4] //输出: 3 //解释:有效的组合是: // 2,3,4 (使用第一个 2) // 2,3,4 (使用第二个 2) // 2,2,3 public class TriangleNumber { public int triangleNumber(int[] nums) { Arrays.sort(nums); int ret=0,n=nums.length; for (int i = n-1; i >=2 ; i--) { int left=0,right=i-1; while(left<right) { if (nums[left] + nums[right] > nums[i]) { ret += right - left; right--; } else { left++; } } } return ret; } public static void main(String[] args) { int[] nums={2,2,3,4}; TriangleNumber triangleNumber=new TriangleNumber(); System.out.println(triangleNumber.triangleNumber(nums)); } } 1 个帖子 - 1 位参与者 阅读完整话题
我自己一个人蹬不完 分享给佬友们一起蹬 133个codex账号.zip (385.5 KB) 1 个帖子 - 1 位参与者 阅读完整话题
参考了一些gpt官方教程之后,发现高和超高,模式并不适合写前端,不知道是不是过度聚合导致写的很难看,但是的确是用中等模式写出来会好看点这个是我甩了图给GPT 5.4 中等模式生成组件 当然项目本身已经设置DESIGE.md这些,但是我依旧有点颠覆我对于gpt 前端这件事的 1 个帖子 - 1 位参与者 阅读完整话题
Claude Code 出现中文乱码是什么原因啊?好像只有国产模型遇到这个问题目前? 2 个帖子 - 2 位参与者 阅读完整话题
CPA + Codex 配置避坑指南 前言 本文记录了配置 CLI Proxy API (CPA) 与 Codex 集成时遇到的各种坑,希望能帮助后来者少走弯路。 环境信息 系统 : macOS (Apple Silicon) CPA 版本 : v6.9.29 Codex 版本 : 0.121.0 代理工具 : ClashX / Clash Verge 核心问题:502 Bad Gateway 症状 Codex 启动后尝试连接 API 时,反复出现: Unexpected status 502 Bad Gateway: Unknown error, url: http://localhost:8321/v1/responses 根本原因 系统代理拦截了 localhost 请求! ClashX/Clash Verge 等代理工具默认会拦截所有 HTTP 请求,包括 localhost 和 127.0.0.1 。当 Codex 尝试访问本地 CPA 服务时,请求被代理转发,导致: 请求无法直接到达本地服务 代理返回 502 错误 日志中看不到任何请求记录(因为请求根本没到达目标服务) 解决方案 方法 1:设置 NO_PROXY 环境变量(推荐) # 添加到 ~/.zshrc 或 ~/.bashrc export NO_PROXY="localhost,127.0.0.1" # 应用配置 source ~/.zshrc 重要: 必须在新终端中启动 Codex,才能加载新的环境变量。 方法 2:配置代理绕过规则 在 ClashX/Clash Verge 中添加绕过规则,让 localhost 不走代理。 其他常见问题 1. API Key 不匹配 (401 Unauthorized) 症状: Unexpected status 401 Unauthorized: {"error":"Invalid API key"} 原因: Codex 使用了自己的 API key(格式如 sk-sub-Pack6n6X... ),而不是配置文件中的 api_key 。 解决方案: 将 Codex 使用的 key 添加到 CPA 配置中: # ~/cpa-config.yaml api-keys: - "your-custom-key" - "sk-sub-Pack6n6X_yKXdwEwPB2mT0iGkcQyE4IMMHe-kCN7TIy4L-gf" # Codex 的 key 重启 CPA: pkill -f "cpa.*config" ~/.local/bin/cpa -config ~/cpa-config.yaml > /tmp/cpa.log 2>&1 & 2. 端口被占用 症状: Error: listen EADDRINUSE: address already in use 127.0.0.1:8321 原因: 旧的 shim 进程还在运行 LaunchAgent 自动重启服务 解决方案: # 查找占用端口的进程 lsof -nP -iTCP:8321 -sTCP:LISTEN # 停止进程 kill -9 <PID> # 禁用自动启动 launchctl unload ~/Library/LaunchAgents/com.linkunkun.codex.cliproxy-shim.plist 3. 旧版本冲突 症状: Homebrew 安装的旧版本 cliproxyapi 自动重启。 解决方案: # 停止 Homebrew 服务 brew services stop cliproxyapi # 卸载旧版本 brew uninstall cliproxyapi # 清理配置 rm -rf /opt/homebrew/etc/cliproxyapi* rm -f ~/Library/LaunchAgents/homebrew.mxcl.cliproxyapi.plist 4. Shim 是否必需? 答案:不需要! 早期以为需要 shim 来转换请求格式,但实际上: CPA 原生支持 /v1/responses 端点 直接连接 CPA 更简洁高效 推荐配置: # ~/.codex/config.toml [model_providers.custom] name = "custom" wire_api = "responses" base_url = "http://localhost:8317/v1" # 直接连 CPA api_key = "your-api-key" 完整安装步骤 1. 安装 CPA # 下载最新版本 curl -L -o /tmp/cpa.tar.gz https://github.com/router-for-me/CLIProxyAPI/releases/download/v6.9.29/CLIProxyAPI_6.9.29_darwin_arm64.tar.gz # 解压并安装 cd /tmp tar -xzf cpa.tar.gz mkdir -p ~/.local/bin mv cli-proxy-api ~/.local/bin/cpa chmod +x ~/.local/bin/cpa # 添加到 PATH echo 'export PATH="$HOME/.local/bin:$PATH"' >> ~/.zshrc source ~/.zshrc 2. 配置 CPA # 复制示例配置 cp /tmp/config.example.yaml ~/cpa-config.yaml # 编辑配置 vim ~/cpa-config.yaml 关键配置项: port: 8317 # 管理密钥 remote-management: secret-key: "your-admin-password" # API keys api-keys: - "your-api-key" 3. 启动 CPA nohup ~/.local/bin/cpa -config ~/cpa-config.yaml > /tmp/cpa.log 2>&1 & 4. 配置 Codex # ~/.codex/config.toml model_provider = "custom" model = "gpt-5.4" [model_providers.custom] name = "custom" wire_api = "responses" base_url = "http://localhost:8317/v1" api_key = "your-api-key" 5. 配置代理绕过(关键!) # 添加到 ~/.zshrc echo 'export NO_PROXY="localhost,127.0.0.1"' >> ~/.zshrc source ~/.zshrc 6. 测试 # 测试 CPA curl http://localhost:8317/v1/models -H "Authorization: Bearer your-api-key" # 在新终端启动 Codex codex 调试技巧 1. 查看 CPA 日志 tail -f /tmp/cpa.log 2. 查看 Codex 日志 tail -f ~/.codex/log/codex-tui.log 3. 检查端口占用 lsof -nP -iTCP:8317 -sTCP:LISTEN 4. 测试 API 连接 curl -v http://localhost:8317/v1/responses \ -H "Authorization: Bearer your-api-key" \ -H "Content-Type: application/json" \ -d '{"model":"gpt-5.4","input":[{"role":"user","content":[{"type":"input_text","text":"test"}]}]}' 5. 检查代理设置 # 查看环境变量 env | grep -i proxy # 查看活动连接 lsof -nP -iTCP | grep codex | grep ESTABLISHED 常见错误排查流程 502 Bad Gateway ↓ 检查是否有代理 (lsof -nP -iTCP | grep codex) ↓ 有代理 → 设置 NO_PROXY ↓ 无代理 → 检查服务是否运行 ↓ 401 Unauthorized ↓ 检查 Codex 使用的 API key (查看日志) ↓ 将 key 添加到 CPA 配置 ↓ 重启 CPA 总结 配置 CPA + Codex 的最大坑就是 系统代理 。记住: 设置 NO_PROXY 环境变量 在新终端启动 Codex 直接连接 CPA,不需要 shim 将 Codex 的 API key 添加到 CPA 配置 遵循这些原则,可以避免 90% 的问题。 参考资源 CPA GitHub CPA 文档 管理界面 最后更新 : 2026-04-18 作者 : 基于实际踩坑经历整理 5 个帖子 - 3 位参与者 阅读完整话题
请教各位佬友一个问题, codex聊天记录除了本地存储外, 云端会有存储吗, 如果别人拿到账号密码登录是否能看到codex的历史记录 2 个帖子 - 2 位参与者 阅读完整话题
感觉额度砍了超级多,两个team号加一个free号,五小时限额跑光才47.1M token,全程gpt5.4 5x pro账号现在五小时可以跑200m token吗 7 个帖子 - 4 位参与者 阅读完整话题
RT,这两天有没有仍然可用的codex或者Claude呀,中转站或者公益站都行,或者有没有不太贵的氪金玩法,求各位佬们推荐 18 个帖子 - 14 位参与者 阅读完整话题
RT,之前看到有大佬去计算CodeX套餐对应的额度 那么是否计算过智谱新套餐/Kimi各套餐的对应额度吗? 今天看到腾讯出了企业套餐,那么其实在考虑如果直接用各家云的按量计费不知道对比CodingPlan成本会上浮多少? 毕竟在某些用量下有可能在按量计费的前提也许比直接订购还便宜 感谢! 1 个帖子 - 1 位参与者 阅读完整话题
1 个帖子 - 1 位参与者 阅读完整话题
1:结构化agents/claude 初始提示词. 只应该放置你是谁你在什么环境,本机有什么内容,现在的项目介绍一句话. 2:mcp标准化简略化. 可以配置disable 把不需要的mcp 工具给关闭. 3:skill搭配mcp工具特化如grok/context7/adb/chrome/supabase等 4:重点model基本化 配置示范 codex config.toml (点击了解更多详细信息) claude CLAUDE.md (点击了解更多详细信息) 项目说明使用 github.com GitHub - TokenRollAI/llmdoc: TokenRoll LLMDoc for Coding Agent TokenRoll LLMDoc for Coding Agent 记忆管理使用 github.com GitHub - gaoziman/claude-context-manager: claude-context-manager for claude code claude-context-manager for claude code model setting 使用 high 代替xhigh. todoplan 任务纲要使用 chatgpt 网页的pro对话完成 pro 反代公益站点 一次对话完成一件事情. 避免长上下文. 第一是我打出来的高缓存+高token 对话切费率低. 如果你们看懂了 就知道我说的是什么. llm最爱 代码行数低于1000/1个文件 组织结构化的文件目录. 清晰的顶层目录 每个大目录都应该有claude/agents文档. 从0~1~95%号池自建 自建号池状态页1Etoken=67刀 留下小爱心 冲击lv 3 1 个帖子 - 1 位参与者 阅读完整话题
我个人观察到的现象是,会话创建后的首条消息正常,之后的消息会延迟数秒才能发出,在 mac 和 windows 平台都出现了此问题; 并且 mac 版本还出现了运行时 cpu 使用率过高,发热严重的问题。 github 上也有不少类似的反馈,首个发现的版本应该是 26.415.21839 ;有人反映关闭记忆功能后可绕过此问题,但对大多数人包括我自己无效,目前只能通过降级解决。 github.com/openai/codex Fix: Desktop App - Message send is delayed for ~8 seconds in new sessions after the latest update 已打开 04:31AM - 17 Apr 26 UTC JavierPiedra bug app session ### What version of the Codex App are you using (From “About Codex” dialog)? 26 … .415.21839 ### What subscription do you have? Pro ### What platform is your computer? Darwin 25.3.0 arm64 arm ### What issue are you seeing? ## Summary In the Codex desktop app, sending a message can take around 8 seconds before the message is actually sent. This appears to have started after the latest update. It did not happen in older sessions before. ## Environment - App: Codex desktop app - Codex version: `26.415.21839 (1763)` - macOS: `26.3.1 (build 25D771280a)` - Hardware: `MacBook Air (Apple M3, 24 GB RAM)` ## Actual behavior After pressing Enter to send a message, the message does not send immediately. Observed behavior: - The spinner appears in the send button - The message remains pending for about `8 seconds` - Lowering reasoning does not help This is affecting sessions created after the latest update. ### What steps can reproduce the bug? ## Reproduction Observed repro: 1. Open Codex desktop 2. Open a newer thread created after the latest update 3. Type a normal message 4. Press Enter 5. Observe the spinner in the send button and a delay of about `8 seconds` before the message is sent Additional observation: - In a brand-new thread, the first message sent immediately - The second message in that same new thread then started taking a very long time to send ## Scope / pattern - Happens in newer sessions created after the latest update - Did **not** happen in older sessions tested by the user - Not fixed by lowering reasoning - Seen with `GPT-5.4` and `Extra High`, but reasoning level does not appear to be the cause ### What is the expected behavior? ## Expected behavior Pressing Enter should enqueue and send the message immediately, or at least show near-instant client acknowledgment. ### Additional information ## Notes This feels like client-side send latency rather than raw network latency. Local diagnostics from the machine at the time: - Network path looked healthy in macOS logs - Codex renderer/helper processes showed noticeable CPU activity while the issue was occurring - No obvious network failure was visible from the local system logs ## Impact This makes normal back-and-forth use of Codex frustrating because even short messages feel blocked before they are sent. If you want, I can also compress this into a shorter GitHub-style version, or turn it into a more technical issue with a small `Additional diagnostics` section at the end. 本以为是梯子又出问题,但看了下发现是 app 的锅,记录一下 9 个帖子 - 8 位参与者 阅读完整话题
还是reconnecting,好像还是去识别的我之前用的公益站添加的api,这应该怎么办呀 2 个帖子 - 2 位参与者 阅读完整话题
我这么大一个 不支持codex,只支持/v1/chat/completions请求 没人看见吗? 后台全是报错。。。。。。 (刚好当鉴别机器人了。。。。。。) 17 个帖子 - 12 位参与者 阅读完整话题
No self-reporting. Only code. Built a platform that tries to infer what you know from your actual work. Comments URL: https://news.ycombinator.com/item?id=47815869 Points: 1 # Comments: 0
前天开gpt5.4pro的进阶思考,每次大约要7-10分钟,昨天6分钟左右,今天4-5分钟。codex上使用也是一样,前几天死慢,但是思考确实很有深度,并且检查的异常细致,把可能出现的风险点都加上了,最令我惊讶的他还能通过网络找对标案例来进行分析。今天思考异常短,并且经常做一些低级的错误。现在AI是个循环了,新模型——买——降智——换——新模型。我这几天也在思考,之前开个影音会员又是拼车又是尼区,现在买个token真舍得花钱,一个max说买就买,一个pro说买就买 2 个帖子 - 2 位参与者 阅读完整话题
抽奖主题:抽10个codex free json 账号,导入就可以使用 奖品详情: [奖品1]:[5个codex] [奖品2]:[5个codex] 活动时间: 开始时间: Sat, Apr 18, 2026 9:00 PM CST 截止时间: Sun, Apr 19, 2026 9:00 PM CST 参与方式: 在本贴下回复任意内容即可参与。 抽奖规则: 每位用户仅允许参与一次。 将使用 LINUX DO 抽奖工具 在所有回复中随机抽取中奖者。 注意事项: 本活动将在活动截止时间后关闭回帖,以确保公正性。 中奖者将在活动结束后在本帖公布,并通过论坛站内信由发起人通知领奖方式。 所有规则及抽奖结果由 @kexincolar 及论坛 管理团队 最终解释。 发起人承诺: 作为本次抽奖的发起人 @kexincolar ,我承诺本话题的抽奖活动严格遵守 LINUX DO 社区抽奖规则 。因违反上述规定引发的公平性争议或其他问题,均由我独立承担相应的道德与法律责任。 期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系 @kexincolar 或论坛 管理团队 。 42 个帖子 - 42 位参与者 阅读完整话题
本地部署了deepseek-coder-v2:16b-lite-base-q4_K_M,我问了几个简单问题,这家伙给我一顿胡乱输出,这模型很坑啊。 1 个帖子 - 1 位参与者 阅读完整话题