一个思考:智能体的核心,不是怎么写 prompt 、Agent ,而是——如何准确控制一个会说话的概率引擎。

4 条回复
47 次浏览
马上来

其实跟规范人是一样的,人也是一个不稳定可靠的因素。所以你能看到各种各样的规章制度、各种的 SOP、各种的权限设置。

比如我给我们的 AI 程序员一个完整的 Git 系统账号,但是我不能真的把生产仓库的写权限给他,给他个读权限,让他做 Fork、PR 就可以了。

种子用户

个人觉得,模型本身像是人内在的思维模式,通过长期经验形成,而 prompt 和 agent 更是环境和短期记忆。

发表一个评论

R保持