对于 Ai 使用现状的个人理解
Title 可能有点大。
对于现在的 AI 而言,我觉得核心更多在于 prompt。
对于熟悉的领域,prompt 会想得更专业,自然语言组织也更直接清晰。
而在不熟悉的领域,想出来的 prompt 往往是用了一些“捏造”的词,语言表达也歪七扭八,
这样很容易陷入恶性循环——一直烧 Token,却始终达不到预期。
最终额度用完了,想要的结果还是没出来。
在这个过程中还会出现一个现象,就是模型能力的差异。
我浅薄地认为,模型的能力主要体现在两个方面:
一是输出内容是否合理且响应快速;
二是对长上下文的理解与支持能力。
当聊天上下文达到一定长度时,差一点的模型就开始胡言乱语了;
好一点的模型虽然不至于胡言乱语,但效果相比最初也会有所下降。
关于模型的长上下文能力,我深有体会——从最早的 GPT-3 到现在的 5.1 一直在用,当然模型在这方面确实一直在进步,最初的时候网上也都是在讨论模型的上下文能力。
不为 openai 打 call, 其他的也都在用 Gemini、Grok、Clause Sonnet、DeepSeek、豆包、通义等等都有使用~~~
还没玩过 mcp,这玩意好用吗