深夜有感 现阶段最聪明的 llm 思维也不够发散

3 条回复
78 次浏览

image
今天清理 cf 缓存 发现到了 geminipro3 并没有主动意识到当只有一个通配符且在最后的时候
就相当于 prefix

这跟 llm 最难回答的问题一样 限于原理 llm 几乎不可能出现真正的”冷门”回答

一个比较好的测试就是问你的 llm 让他根据月亮和 constansino 这两个完全不相干的东西列举五个超级冷门的笑话 并且列出每个笑话的概率

强制列出概率会让 llm 思维发散 但依然不够

我们已经开始需要一个完全预料不到回复结果 每次都惊诧连连的 llm 了

前排打手

目前大模型的底层逻辑,就决定了 AI 的回答基于人类知识的概率分布,它的本质是【平庸的正确】。

种子用户

大模型没有思维,只是推测下一个token出现的概率,一切回答都是基于已经存在的最合乎常理的那个回答

发表一个评论

R保持