自分の書いていることをもう一度よく読んで、

id:aggren0xが「ちょっと突っ込み。 - Celaeno Fragments」につけたコメントに返答するが。

さて、私の文章のどこからuncertaintyとprobabilityを同じ意味だと考えているというように読み取られたのでしょうか。ご教示ください。おそらく私の国語力が悪いのでしょう。しかしわざわざWikipediaまで提示して頂きましたものの、この両単語が意味合いが違うのは、高校生レベルかあるいは中学生レベルでもわかる程度だと思いますが。

同じ意味に捉えている、というのは間違いでした。uncertaintyのWikipediaの内容は読んでないし理解してない、ぐらいが妥当でしたね。

ところで、本来はMedicine is a science of probability, and an art of uncertaintyと言った方が意味は通りやすいと思われる。だがそれをひっくり返した。わざとやったのだろう。「確率の科学」なんて言ってしまうと対象がかなり限られ視野が狭くなってしまうし、第一、冷たすぎる。確率を科学するのはその通りだが、その目的、本質は不確実性を科学したいことにあると強調した。いっぽう「不確実性のアート」なんて言ってしまうと、もはやあいまいな医療行為のほとんどはアートの名を使って逃げることができてしまうようになる。ホメオパシーだって免疫賦活療法だってなんだってそれで追求を逃げ切れてしまう、医師免許さえあれば。しかしオスラーはそう言わなかった。むしろ「確率のアート」と言った。つまり、医者がアートと言う行為、はっきり言ってしまえば「科学的とは言えない行為」を行う場合、十分な科学的研究のもとに得られた「確率」をもとにしているというのがまず大前提であり、それをもとに患者背景や状況や自らの経験を元にちょっと動かすという程度のアートにとどめるべきだ。と言っているのではないか。医療行為にアートは必要である。医者はそれを行うことを許されるべきである。しかしその使用範囲には最大限気をつけるべきだと言っているのではないか。このように老練な、卓越した知識を持つ医師の優れた見解を一文に全て込めているように、読める。

「科学の曖昧さや不確かさに対する皮膚感覚の欠如」を改善するには、なにか素敵な言葉が必要なのではないだろうか - aggren0xの日記

uncertaintyとprobability、scienceとartを区別してどちらかのセットを作る場合、まず逆にはならないということは言及しておきましょうか。
研究と施術の両面、そしてそれぞれに含まれる曖昧さを記述したものだとは思いますが、得られる結果の曖昧さというのがuncertaintyで、未来の曖昧さというのがprobabilityです。逆転は無理です。


uncertaintyをゼロにすることは出来ませんが、研究の諸条件を揃えたりすること、平均・標準偏差などの記述統計を使うことでのuncertaintyの減少は行えます。
当時、既に経験主義が発展していた、ということは言及しておいてもよいでしょうか。腸チフスのメアリーという事件が起こったのがこの頃です。まだ、疫学的調査というのが、病院から報告される患者数とかで把握出来ない状態で(まあそんな統計も保険診療中心の日本などの先進国ぐらいしか今でもないですが)、病気になっていない人も調べる必要が現代科学の水準ではありますが、そこまでは出来ていない状態です。
ここで出てくるのはprobability、ではありません。uncertaintyを含んだscienceです。
「○分の○はこの薬を投与したら改善した」というのもuncertaintyを含んだ状態だ、というところを認識しているのは慧眼だ、というのも、まあ言ってもいいかも知れませんが、それは現代の科学水準が高いからそう思うわけで、実際にはこの頃は医学論文にもトンでもない理屈が載ってたりするわけですが。てか、この後もまだロボトミーとか出てきますよね。


probabilityの方がもっと学術的な意味よりも広義の意味も含むでしょう。
確率、を「厳密なもの」と考えるのはやりがちな罠だと思うのですが、例えば薬剤の治験で認可が下りるまでに得られた「実際の副作用の発現率」は、「実際の副作用の発現率」の見積もりには使えますが、それから「外れる」ケースは多くあります。大抵、治験中には分からなかった、という場合に「薬害だ!」とか騒がれるのですが、再審査前の薬ってのは、そりゃ三千人も試されていない(これぐらいが再評価の前に必要な症例数です)ので意外とズレます。元データからある程度の信頼区間を想定してますが、治験参加者が対象患者の正しい像だとは限らないのです。
蓋然性、という言い方がいいかも知れませんが、可能性、ぐらいが正しかろうと思います。
Medicine、も範囲が広い言葉ですが、そもそも、この頃の薬でまともに生きてるのはキニーネアスピリン、ぐらいでしょうか。サルファ剤とかはもう少し後です。あと、ワクチン。この頃のワクチンは弱毒化があんまり上手くされていないために、現行のものと同じとは言いがたいのですが。
軟膏も若干ありますか。
あとの薬は、薬局方に残っているような、なんかなあと思う薬が多いです。治療法もナカナカ薦められたものではありません。そんな時代ですので、施術そのものはartと呼んでいるのでしょう。まあ、効果を確実に期待出来るわけではありませんし。

そこであなたにもしかすると勘違いがあることを指摘しておきます。統計学は「誤差の学問」ではありません。統計学や不確定性というものを誤差の学問であると考えるなら、それは確かにラプラスの惑星の運動論の辺りですでに始まっています。しかしラプラスの言っていたのは、科学が十分発展すれば完全に決定可能であるものの、現時点の科学技術では十分突き止められないために生じる誤差について述べたのです。ピアソンと言うよりフィッシャーやネイマンとエゴン(本文中「ネイマン・ピアソンのお父さん」ってなんですか???)が確立した統計学というものは、その母集団においても真値は測定不能で、確率分布を取るというものです。つまり、どれほどまで科学技術が発展しても、本質的にそのふるまいは確率的であるというものです(コペンハーゲン解釈について説明しているのです)。真値ではなくその分布のパラメータを検討するのが統計学です。それは「誤差」ではなくばらつきそれそのものが本質です。分布のパラメータ自体もまた確率的に振る舞うと考える場合、それはベイズ統計学です。

ちょっと面白くなったので続けます。
ネイマンとピアソンが混ざってますね、エゴン・ピアソンですね、失礼しました。


母集団においても真の値は測定不能で、確率分布を取る、ということは「本質的にその振る舞いは確率的である」ということと一致しません。
というか、「母集団の真の値」というのは、平均値や中央値と言った「代表値」である、ということは重要なことだと思いますが。


今の統計学は、どれも、基本的に、大数の法則中心極限定理に従うことを前提に作られています。
一個一個は極めてランダムに振る舞う物質であっても、大量のデータの「平均」なり代表値をとれば、正規分布に従うことを前提にしています。小標本の場合には、正規分布よりも別の分布の方が妥当、というのはありますが。
ハイゼンベルク不確定性原理は、その一個の素粒子レベルのものが、位置と時間を同時には決定できないという原理です。そもそも想定されるサイズも、集団としての振る舞いではないというところもレイヤーが違います。個々の測定値が確定しない、というレベルのお話です。


治療のお話で言えば、患者さんが治ったか治らないかは確率事象で表現するというものになります。
「うーん、この患者さんは60%の確率で治った或いは快復しているといえる」みたいなことを想定しているとは思えませんし、そのレベルで「確率事象だ!」とか言うなら「取りあえず診断学をやりなおせ」という所でしょう。病とは何ぞやという所で、正常と異常の境界線というのはいつもあやふやなものですが、それは確率事象だからってことではなくて、uncertaintyが含まれる医学の領域です。


個々の事象発生が決定的であるか確率分布に従うかというのは、頻度・尤度主義とベイズ主義の違いではありません。
母集団の真の値(例えば平均値)が定数である、と考えるのが頻度・尤度主義、母集団の真の値が確率分布である、と考えるのがベイズ主義と言われています。
が、それも多分あまり正確ではなく、母集団の真の値を帰納的に考えていくのが頻度主義、母集団の真の値を演繹的に考えていくのがベイズ主義、とでも書いておきましょう。観測者側から見れば、「尤度」でしか「真の値を推定することは出来ないが、母集団は真の値(一定の数)を持つと考えるのが頻度・尤度主義、観察者側から見た「確率」(事後確率・主観確率)を使ってきましょうというのがベイズ主義です。まあ、そんなにベイジアンモデル嬲っているわけではないので、この説明は的が外れているかも知れませんが。
母集団の真の値が測定不能、というのは、推定統計学のどんなモデルでも大抵は前提条件です。測定可能なら、推定する必要がありませんので。どっかの掲示板で、「全例調査するのなら検定とか不要」みたいなこと言われるのはそれが所以です。


「個々の事象は決定的なのに、全体は確率的に振る舞う」というのはボルツマンが最初ではないと思いますが、ボルツマンが「統計力学」の祖とよく言われるので例に挙げました。集団扱う学問から、「集団としての振る舞いについて数学的に考察を加えた箇所を抽出」というのが統計学であるように思います。


誤差、のうち、系統誤差については、主に分析科学と呼ばれる分野、測定機器の誤差などの分野に格納されました。偶然誤差については、統計学の中で扱われるようになってます。無論、両方とも最早誤差といいづらいものになっていますが、やはり、一部の言葉には残されています。
SEMが母集団の平均値の標準誤差、と言われる場合の誤差については、偶然誤差を想定したものです。偶然誤差は、良く測定回数を増やし平均を取ることで打ち消せる、といわれるのですが、その偶然誤差がまあサンプル数少なければサンプルの平均値と母集団の平均値にズレが生じますよね。その誤差を想定しているのがSEMです。
系統誤差、については、個々の測定機器や場所・研究パターンによって違います。そして大抵一方に偏ります。滴定などで「複数回測定のうちの初回のデータは捨てる」などは系統誤差を減少させる為に行われますし、極端な外れ値の除去とかは、統計的な見地ではなく測定の見地から行われます。ぶっちゃけ、選択基準とかそうですね。系統誤差と偶然誤差が実際のブレには入ってくるのですが、BMIが極端な人は薬の代謝が大分違う可能性がありますので排除したりします。


で、id:aggren0xのコメントに対して応答しつつ、コメントの間違いを指摘するなら、
「「本質的に確率的事象」かどうかというのは統計学の範疇ではない(統計学は「個々の事象」の原因を追究しない・集団の「振る舞い」の記述)」って所が大きいですかね。
あと、根本的に頻度主義勘違いしてませんか。母集団の真の値が存在しない!確率分布で!というのは、どちらかってーとベイズ主義の解説です。
母集団の真の値が直接的には求められない、というのは統計の大前提ですが。それでも猶真の値を想定し、likehoodを想定したのがフィッシャーです。ネイマン型のは、もうちっと融通が利かないです。