ショーン・マクルーアのツイート。 
 翻訳はTwitterで(グーグル翻訳)。 1/10 科学は「証拠に基づく」と想定されていますが、その用語だけではあまり意味がありません。何が良い証拠を構成しますか?証拠はどのように使用されていますか?それは仮説を支持するのか、それとも反論するのか?仮説と実験計画は事前に決定されていましたか、それとも事後的に発見されましたか? 2/10 現実には、ほとんどすべての物語の「証拠」を見つけることができます。サンプルサイズ、チェリーピック研究などを制限します。系統的レビュー、メタアナリシス、およびランダム化比較試験はすべて、選択的な解釈/物語の誤謬の影響を受けやすくなります。 3/10 問題の中心にあるのは、一緒に動く2つのことを定量化するだけの単純な統計手法への過度の依存です。 4/10 共分散に基づいて、ピアソンの相関を取ります。変動は、無数の理由で2つの変数間で同時に増加する可能性があり、そのほとんどは偽物です。しかし、この「因果関係」の単純な概念は、多くの科学文献を裏付けています。 5/10 一方、情報理論的(エントロピーベース)アプローチでは、依存性の*一般的な*測定値を評価できます。エントロピーは、同時変動に基づく特殊な(線形)ビューではなく、変数内および変数間に含まれる情報の量を含みます。 6/10 「証拠」という用語に本物の信頼できる意味を与えることに本当に興味がある場合は、アサーションを支えるために使用される方法は厳密です。 ( assertion 主張,断言,断定 ) 7/10 何かを証拠として示すために便利で単純化された方法を探すのではなく、確率変数に保持されている情報の予想量を評価できる尺度を探します。情報ほど基本的なものはありません。 8/10 相互情報量(MI)について考えてみましょう。これは、別の確率変数を観察することによって、ある確率変数について取得された情報の量を定量化します。変数間の関係をこのように観察することが、測定と証拠のすべてです。 9/10 MIは、結合エントロピーが周辺エントロピーとどの程度異なるかを決定します。変数間に真の依存関係がある場合、すべての変数から一度に収集される情報(ジョイント)は、独立変数からの情報の合計(周辺)よりも少ないと予想されます。 10/10 「エビデンスに基づく」科学が真に本物の測定に投資された場合、それは依存の*一般的な*測定を活用するでしょう。それには、情報理論に根ざしたアプローチが必要です。エントロピーがなければ、データを選び、物語を選び、それを「証拠」と呼ぶだけです。