エントロピーとは?
情報理論では、 エントロピー イベントの「驚き」または「情報内容」を測定します。クロード・シャノンにちなんで名付けられたもので、システム内にどの程度の不確実性が存在するかを定量化します。 Wordle の場合、エントロピーは次のことを示します: 特定の推測によって、答えについての不確実性はどの程度軽減されますか?
数学的には、シャノンのエントロピーは次のように計算されます:
ここで p(x) は各結果の確率です。エントロピー値が高いほど、平均してより多くの情報が得られることを意味します。
Wordle Analyzer によるエントロピーの計算方法
各候補の推測単語について、Wordle Analyzer は 243 の可能なカラー パターンすべてをシミュレートします (3âµ = 5 つの位置にわたる緑/黄/グレーの 243 の組み合わせ)。パターンごとに、そのパターンを生成する残りの回答の数を計算します。
手順は次のとおりです:
- 候補単語ごと、まだ残っている考えられるすべての回答を繰り返します
- この推測と回答のペアから得られるカラー パターンを計算します 回答をグループ化します
- 次の基準で回答をグループ化しますパターン 「243 パターンのそれぞれを生成する残りの単語の数
- 確率を計算 各パターンについて: p = (このパターンを生成する単語) / (残りの単語の合計)
- シャノンの公式を適用 ビット単位でエントロピーを取得する
なぜCRANE は ADIEU を上回ります
ADIEU は 4 つの母音をテストするため人気がありますが、エントロピー分析により次善であることが判明しました:
| 単語 | エントロピー | 独特のパターン | 残り |
|---|---|---|---|
| クレーン | 5.87 ビット | 150 | 39.5 |
| ADIEU | 5.34ビット | 112 | 57.1 |
CRANE が生成します ADIEU の 112 と比較して、150 の異なるパターン 。これは、CRANE が考えられる答えのより多くの「バケツ」を作成し、各バケツが平均して小さいことを意味します。結果: CRANE で 1 回推測すると、通常 40 語が残ります 対。 57 with ADIEU – 30% の改善。
エントロピーの動作: 実際の例
答えが TIGER であると仮定します。エントロピーがどのように私たちを導くかを追跡しましょう:
- 推測 1: CRANE → 🟨â Camel (C は黄色、E は黄色) → ~35 単語が残っています
- 推測 2: OPTIC (残りの単語の最大エントロピー) → â Cambridge Dictionary → 残り 3 単語
- 推測 3: TIGER â†' 🟩🟩🟩🟩🟩 → 3 で解決!
エントロピーを超えて: Wordle Analyzer のコンポジットスコア
エントロピーは最も強力な単一指標ですが、Wordle Analyzer はエントロピーを 3 つの追加ディメンションと組み合わせて完全なスコア計算式を作成します:
- エントロピー (40%) | 推測から得られる情報
- 文字頻度 (30%) | 一般的な位置重み付けスコアリング文字
- ユニークな文字 (15%) â できるだけ多くの異なる文字をテストするとボーナス
- 解決ボーナス (15%) â 答えにもなりそうな単語を少し優先
自分で試してみる
理解する最良の方法エントロピーは、Wordle ゲームの状態を実際に表示することです Wordle アナライザー さらに情報を入力すると、エントロピー スコアがどのように変化するかを観察できます。効率メーターには、各推測でどの程度の可能性スペースが除去されているかが表示されます。