Sean McClure 「エビデンスに基づく」の説明
1/10 科学は「証拠に基づく」と想定されていますが、その用語だけではあまり意味がありません。何が良い証拠を構成しますか?証拠はどのように使用されていますか?それは仮説を支持するのか、それとも反論するのか?仮説と実験計画は事前に決定されていましたか、それとも事後的に発見されましたか?1/10
— Sean McClure (@sean_a_mcclure) January 13, 2021
Science is assumed to be “evidence-based” but that term alone doesn’t mean much. What constitutes good evidence? How is evidence being used? Is it supporting or refuting a hypothesis? Was the hypothesis and experimental design predetermined or found ex post facto?
2/10 現実には、ほとんどすべての物語の「証拠」を見つけることができます。サンプルサイズ、チェリーピック研究などを制限します。系統的レビュー、メタアナリシス、およびランダム化比較試験はすべて、選択的な解釈/物語の誤謬の影響を受けやすくなります。2/10
— Sean McClure (@sean_a_mcclure) January 13, 2021
The reality is you can find “evidence” for almost any narrative. Limit the sample size, cherry-pick studies, etc. Systematic reviews, meta analyses, and randomized controlled trials are all susceptible to selective interpretation/narrative fallacy.
3/10 問題の中心にあるのは、一緒に動く2つのことを定量化するだけの単純な統計手法への過度の依存です。3/10
— Sean McClure (@sean_a_mcclure) January 13, 2021
At the heart of the problem is the over-reliance on simplistic statistical techniques that do little more than quantify 2 things moving together.
4/10 共分散に基づいて、ピアソンの相関を取ります。変動は、無数の理由で2つの変数間で同時に増加する可能性があり、そのほとんどは偽物です。しかし、この「因果関係」の単純な概念は、多くの科学文献を裏付けています。4/10
— Sean McClure (@sean_a_mcclure) January 13, 2021
Take Pearson’s correlation, based on covariance. Variation can increase simultaneously across 2 variables for countless reasons, most of which are spurious. Yet this simple notion of “causality” undergirds much of scientific literature.
5/10 一方、情報理論的(エントロピーベース)アプローチでは、依存性の*一般的な*測定値を評価できます。エントロピーは、同時変動に基づく特殊な(線形)ビューではなく、変数内および変数間に含まれる情報の量を含みます。5/10
— Sean McClure (@sean_a_mcclure) January 13, 2021
Information-theoretic (entropy based) approaches on the other hand can assess *general* measures of dependence. Rather than some specialized (linear) view based on concurrent variation, entropy encompasses the amount of information contained in and between variables.
6/10 「証拠」という用語に本物の信頼できる意味を与えることに本当に興味がある場合は、アサーションを支えるために使用される方法は厳密です。 ( assertion 主張,断言,断定 )6/10
— Sean McClure (@sean_a_mcclure) January 13, 2021
If you were genuinely interested in giving the term “evidence” an authentic and reliable meaning then the methods used to underpin an assertion would be rigorous.
7/10 何かを証拠として示すために便利で単純化された方法を探すのではなく、確率変数に保持されている情報の予想量を評価できる尺度を探します。情報ほど基本的なものはありません。7/10
— Sean McClure (@sean_a_mcclure) January 13, 2021
We wouldn’t look to conveniently simplistic methods to denote something as evidential, rather we would look for a measure capable of assessing the expected amount of information held in a random variable; there is nothing more fundamental than information.
8/10 相互情報量(MI)について考えてみましょう。これは、別の確率変数を観察することによって、ある確率変数について取得された情報の量を定量化します。変数間の関係をこのように観察することが、測定と証拠のすべてです。8/10
— Sean McClure (@sean_a_mcclure) January 13, 2021
Consider Mutual Information (MI), which quantifies the amount of information obtained about one random variable through observing another random variable. This observing of the relationship between variables is what measurement and evidence is all about.
9/10 MIは、結合エントロピーが周辺エントロピーとどの程度異なるかを決定します。変数間に真の依存関係がある場合、すべての変数から一度に収集される情報(ジョイント)は、独立変数からの情報の合計(周辺)よりも少ないと予想されます。9/10
— Sean McClure (@sean_a_mcclure) January 13, 2021
MI determines how different joint entropy is from marginal entropies. If there is a genuine dependence between variables we would expect information gathered from all variables at once (joint) to be less than the sum of information from independent variables (marginals).
10/10 「エビデンスに基づく」科学が真に本物の測定に投資された場合、それは依存の*一般的な*測定を活用するでしょう。それには、情報理論に根ざしたアプローチが必要です。エントロピーがなければ、データを選び、物語を選び、それを「証拠」と呼ぶだけです。10/10
— Sean McClure (@sean_a_mcclure) January 13, 2021
If “evidence-based” science was genuinely invested in authentic measurement it would leverage *general* measures of dependence; that demands an approach rooted in information-theory. Without entropy you’re just picking data, choosing a narrative, and calling it “evidence.”
コメント
0 件のコメント :
コメントを投稿