深夜了,聊聊大语言模型

7 条回复
118 次浏览

用了一个月 ChatGPT 5.2 Thinking(一直开着思考),可以感觉到大语言模型的误差还是太致命了,搜索引擎的中文资源经常会污染结果。实际上也不能破开多少信息茧房,目前我认为找资源什么的还是得靠能工智人,去群聊、论坛和博客之类的地方找人问,这样能把每个人的信息茧房串在一起(现在所有人把你的书签、应用和历史记录发给我,我知道这很难但这是命令()。在专业问题上经常要连续问很多次才会说完整,提示词可能有用,但提示词有用不太可能。

是因为模型回复你不是基于预测,而是基于训练数据学习到的概率分布,预测下一个最可能出现的 token,他没有合适的数据的时候,就会找相似,就陷入幻觉了

种子用户

用 llm 工具一大问题就是,期待它一下子就能做完美,这是设置了错误的预期。

AI 目前还是比较适合写代码的这部份工作,因为能及时反馈是否正确

发表一个评论

R保持