对于 Ai 使用现状的个人理解

7 条回复
119 次浏览

Title 可能有点大。
对于现在的 AI 而言,我觉得核心更多在于 prompt。
对于熟悉的领域,prompt 会想得更专业,自然语言组织也更直接清晰。
而在不熟悉的领域,想出来的 prompt 往往是用了一些“捏造”的词,语言表达也歪七扭八,
这样很容易陷入恶性循环——一直烧 Token,却始终达不到预期。
最终额度用完了,想要的结果还是没出来。

在这个过程中还会出现一个现象,就是模型能力的差异。
我浅薄地认为,模型的能力主要体现在两个方面:
一是输出内容是否合理且响应快速;
二是对长上下文的理解与支持能力。
当聊天上下文达到一定长度时,差一点的模型就开始胡言乱语了;
好一点的模型虽然不至于胡言乱语,但效果相比最初也会有所下降。
关于模型的长上下文能力,我深有体会——从最早的 GPT-3 到现在的 5.1 一直在用,当然模型在这方面确实一直在进步,最初的时候网上也都是在讨论模型的上下文能力。

不为 openai 打 call, 其他的也都在用 Gemini、Grok、Clause Sonnet、DeepSeek、豆包、通义等等都有使用~~~

  • 附言 1

    再说另外一个东西 Mcp
    这玩意确定好用,但也是真烧 Token.........

    chrome-devtools-mcp、next-devtools-mcp.....

    想说一句:网上炒那些个前端已死的麻烦装一个 FigmaMCP, 使用 gemini3 尝试一下看看生成的内容在“吃”这波流量。😷

种子用户
OP

好用,
https://platform.iflow.cn/mcp。
简单的理解就是他直接接入你的应用了。
可以代替你执行应用的操作,当前也可以监控报错等等。
你可以尝试一下 chrome-devtools-mcp。
或者安装一个 openai 之前推出的 Atlas 浏览器,
你说一句,他就可以帮你直接在 web 端发一篇微博。(前提对他开放一定的权限)

种子用户
OP

@halfmoon 也对吧,不过正常 Agent 是没有办法连接外界。
mcp 是 Agent 连接外界的工具,相当于一个 bridge 吧。

发表一个评论

R保持