去年的 Cursor 合集订阅马上到期,求问 CC 能做到跟 Cursor 一样的效果吗?

0 条回复
16 次浏览

目前把需求(流程、功能描述、UI 图)丢给 Cursor 。 Cursor 能自动生成前后端代码,半人工部署。

把运行发现的错误信息扔给它,它就能自动打日志,分析日志并修改代码。

我很关心 CC+GLM-5 是不是也可以做到自动调试和修改?

以下是 perplexity 的比较报告。大家认同吗?

Claude Code + GLM-5 与 Cursor + Opus 4.6 在编程工作流各环节的表现有明显差距,主要源于 Opus 4.6 的长上下文理解与自我纠错更稳,以及 Cursor 的 IDE 深度集成优化。 global.v2ex

对比表格

维度Cursor + Opus 4.6Claude Code + GLM-5达到比例估算(体感)
工作流理解极强全局理解,长上下文(100 万 token)下能完整把握项目架构、数据流向,自行拆解多阶段任务。 post.smzdm 能读懂中等复杂度项目,但需更具体提示,否则易忽略言外之意或上下文;长程任务拆解 OK 但连贯性稍弱。 reddit 80%
UI 设计生成美观交互强的界面,重构时注重用户体验和响应式布局,结合 Mermaid 图等可视化辅助。 lilys 能生成功能性 UI,但审美和细节(如动画、响应式)不如精细,常需迭代;前端任务表现尚可。 juejin 75%
功能模块完善性模块逻辑严密,自动补全边缘 case、依赖安装,一步到位率高,尤其后端/系统集成。 tom 基本模块完善,但复杂逻辑易遗漏边界条件;开源评测中逼近但实战需更多人工补丁。 blog.csdn 85%
自动部署支持一键脚本生成、依赖自动安装、Docker/云部署配置,跑通率高。 tom 能生成部署脚本并安装依赖,但多平台兼容性和边缘错误处理不如稳定,常需手动调试。 tom 70%
自动测试主动生成单元/集成测试覆盖核心路径,结合 CI 配置。 tom 生成测试用例能力 OK,但覆盖不全、mock 复杂场景弱;基准强但实战需优化。 tom 75%
自动验证和修复 bug顶级自我反思:分析日志、迭代修复直到跑通,长程 Agent 鲁棒性强。 tom 有纠错机制,能迭代修复简单 bug,但复杂根因定位和多轮稳定修复逊色,翻车率更高。 reddit 70%

整体来看,Claude Code + GLM-5 在简单/中型任务中能达到 Cursor + Opus 4.6 的 75–85%,但在大项目长程代理和零干预场景下差距拉大至 70%,主要因工具链打磨和模型稳定性。 GLM-5 价格优势明显,适合成本敏感场景。 blog.csdn

你的项目主要是哪种复杂度(简单 CRUD 还是复杂系统重构)?这会影响实际差距。

发表一个评论

R保持