你可以在2026-01-25 02:37:08前修改节点 1 次。
用了一个月 ChatGPT 5.2 Thinking(一直开着思考),可以感觉到大语言模型的误差还是太致命了,搜索引擎的中文资源经常会污染结果。实际上也不能破开多少信息茧房,目前我认为找资源什么的还是得靠能工智人,去群聊、论坛和博客之类的地方找人问,这样能把每个人的信息茧房串在一起(现在所有人把你的书签、应用和历史记录发给我,我知道这很难但这是命令()。在专业问题上经常要连续问很多次才会说完整,提示词可能有用,但提示词有用不太可能。
大语言模型最致命的缺点就是它自己会胡说八道
特别是文科东西,车轱辘话一堆一堆的。9 真 1 假最致命。
是因为模型回复你不是基于预测,而是基于训练数据学习到的概率分布,预测下一个最可能出现的 token,他没有合适的数据的时候,就会找相似,就陷入幻觉了
用 llm 工具一大问题就是,期待它一下子就能做完美,这是设置了错误的预期。
国内能用就行了
AI 目前还是比较适合写代码的这部份工作,因为能及时反馈是否正确
一次性无法输出全部。例如 李白所有诗歌作品名称
大语言模型最致命的缺点就是它自己会胡说八道