什么是熵?
在信息论中, 熵 衡量事件的“惊喜”或“信息内容”。它以克劳德·香农 (Claude Shannon) 的名字命名,量化系统中存在多少不确定性。对于 Wordle,熵告诉我们: 特定的猜测会在多大程度上减少我们对答案的不确定性?
从数学上讲,香农熵计算如下:
H(X) = ∽ p(x) · log ∽(p(x))
在哪里 p(x) 是每个结果的概率。熵值越高意味着平均获得的信息越多。
Wordle Analyser 如何计算熵
对于每个候选猜测词,Wordle 分析器会模拟所有 243 种可能的颜色模式(3×= 5 个位置的 243 种绿/黄/灰组合)。对于每个模式,它计算剩余答案中有多少会产生该模式。
步骤是:
- 对于每个候选词,迭代剩余的每个可能的答案
- 计算颜色模式 这将由这个猜测-答案对得出
- 按模式对答案进行分组 – 243 种模式中每种模式有多少剩余单词产生
- 计算概率 对于每个模式:p =(产生该模式的单词)/(剩余单词总数)
- 应用香农公式 获得位熵
为什么 CRANE 优于 ADIEU
ADIEU 是一个受欢迎的选择,因为它测试 4 个元音。但熵分析表明它不是最理想的:
| 单词 | 熵 | 独特的模式 | 平均。其余的 |
|---|---|---|---|
| CRANE | 5.87位 | 150 | 39.5 |
| 再见 | 5.34位 | 112 | 57.1 |
起重机生产 150 种不同的模式 与 ADIEU 的 112 种相比。这意味着 CRANE 创建了更多可能答案的“桶”,并且每个桶平均更小。结果:使用 CRANE 进行一次猜测后,您通常会剩下 40 个单词 vs。 57 与 ADIEU — 提高了 30%。
行动中的熵:一个真实的例子
假设答案是 TIGER。让我们追踪熵如何引导我们:
- 猜测 1:起重机 → ðŸŸ́ầ̀́œðŸŸ́ (C 是黄色,E 是黄色) ⇒ 还剩下 35 个单词
- 猜测 2:OPTIC (剩余单词的最高熵) ⇒ â̩̄œðŸŸ́🟩🟟 ̀ ̶ ~ 3 个单词仍然
- 猜想 3:TIGER †’ 🟩🟩ðŸ©ðŸŸ©ðŸ© 3 内解决!
超越熵:Wordle 分析器的综合分数
虽然熵是最强大的单一指标,但 Wordle 分析器将其与三个附加维度相结合,形成完整的评分公式:
- 熵 (40%) ——猜测的信息增益
- 字母频率 (30%) ——常见字母的位置加权评分
- 独特字母(15%) ——测试尽可能多的不同字母的奖励
- 解决方案奖励(15%) ——对也可能是答案的单词有轻微偏好
自己尝试
理解熵的最好方法是进入任何Wordle游戏状态。进入 Wordle 分析器 ,并观察随着您提供更多信息,熵分数如何变化。效率计显示您通过每个猜测消除了多少可能性空间。