去年的 Cursor 合集订阅马上到期,求问 CC 能做到跟 Cursor 一样的效果吗?
目前把需求(流程、功能描述、UI 图)丢给 Cursor 。 Cursor 能自动生成前后端代码,半人工部署。
把运行发现的错误信息扔给它,它就能自动打日志,分析日志并修改代码。
我很关心 CC+GLM-5 是不是也可以做到自动调试和修改?
以下是 perplexity 的比较报告。大家认同吗?
Claude Code + GLM-5 与 Cursor + Opus 4.6 在编程工作流各环节的表现有明显差距,主要源于 Opus 4.6 的长上下文理解与自我纠错更稳,以及 Cursor 的 IDE 深度集成优化。 global.v2ex
对比表格
| 维度 | Cursor + Opus 4.6 | Claude Code + GLM-5 | 达到比例估算(体感) |
|---|---|---|---|
| 工作流理解 | 极强全局理解,长上下文(100 万 token)下能完整把握项目架构、数据流向,自行拆解多阶段任务。 post.smzdm | 能读懂中等复杂度项目,但需更具体提示,否则易忽略言外之意或上下文;长程任务拆解 OK 但连贯性稍弱。 reddit | 80% |
| UI 设计 | 生成美观交互强的界面,重构时注重用户体验和响应式布局,结合 Mermaid 图等可视化辅助。 lilys | 能生成功能性 UI,但审美和细节(如动画、响应式)不如精细,常需迭代;前端任务表现尚可。 juejin | 75% |
| 功能模块完善性 | 模块逻辑严密,自动补全边缘 case、依赖安装,一步到位率高,尤其后端/系统集成。 tom | 基本模块完善,但复杂逻辑易遗漏边界条件;开源评测中逼近但实战需更多人工补丁。 blog.csdn | 85% |
| 自动部署 | 支持一键脚本生成、依赖自动安装、Docker/云部署配置,跑通率高。 tom | 能生成部署脚本并安装依赖,但多平台兼容性和边缘错误处理不如稳定,常需手动调试。 tom | 70% |
| 自动测试 | 主动生成单元/集成测试覆盖核心路径,结合 CI 配置。 tom | 生成测试用例能力 OK,但覆盖不全、mock 复杂场景弱;基准强但实战需优化。 tom | 75% |
| 自动验证和修复 bug | 顶级自我反思:分析日志、迭代修复直到跑通,长程 Agent 鲁棒性强。 tom | 有纠错机制,能迭代修复简单 bug,但复杂根因定位和多轮稳定修复逊色,翻车率更高。 reddit | 70% |
整体来看,Claude Code + GLM-5 在简单/中型任务中能达到 Cursor + Opus 4.6 的 75–85%,但在大项目长程代理和零干预场景下差距拉大至 70%,主要因工具链打磨和模型稳定性。 GLM-5 价格优势明显,适合成本敏感场景。 blog.csdn
你的项目主要是哪种复杂度(简单 CRUD 还是复杂系统重构)?这会影响实际差距。