你可以在2026-01-17 03:53:55前修改节点 1 次。
今天清理 cf 缓存 发现到了 geminipro3 并没有主动意识到当只有一个通配符且在最后的时候 就相当于 prefix
这跟 llm 最难回答的问题一样 限于原理 llm 几乎不可能出现真正的”冷门”回答
一个比较好的测试就是问你的 llm 让他根据月亮和 constansino 这两个完全不相干的东西列举五个超级冷门的笑话 并且列出每个笑话的概率
强制列出概率会让 llm 思维发散 但依然不够
我们已经开始需要一个完全预料不到回复结果 每次都惊诧连连的 llm 了
目前大模型的底层逻辑,就决定了 AI 的回答基于人类知识的概率分布,它的本质是【平庸的正确】。
大模型没有思维,只是推测下一个token出现的概率,一切回答都是基于已经存在的最合乎常理的那个回答
token
正确概率最高的文字组合
目前大模型的底层逻辑,就决定了 AI 的回答基于人类知识的概率分布,它的本质是【平庸的正确】。