イリノイ大学シカゴ校医学教育部の大西弘高と申します. 現在,医師による診断過程への診断システム応用がもたらす 診断補助的意義や,誤診のメカニズムについての研究を しています. 医師の診断は,不確定な状況下で問診や診察,検査を通じて 様々な情報が加わるベイズ統計学的な過程として扱われる ことが多いのですが,症例によっては医師が全く正しい診断を 頭に描いていない(すなわち事前確率ゼロ)ということが 誤診の原因に繋がることがあります. 診断システムは医師が思い出せなかった鑑別診断を挙げてくれる ことによって,事前確率ゼロの状態からいくらか事前確率を引き 上げてくれるような効果が期待されます.しかし,診断システムに 医師が偏った情報ばかりを入力したり,出てきた情報に跳び着いて しまうことで誤診の原因ともなり得ます. 質問は,この誤診の心理メカニズムの判定が医師の主観を伴い やすいので,判定の信頼性確認のため2名の判定者が独立に 判定を行い,誤診の有無について信頼性の高い判定ができて いるかどうか確認するというステップについてです. 27名の医師が一つの症例について同じ診断プロセスを経て います.しかし,ある誤診(1)は誤診と判定されることが少なく, 誤診(2)は半数程度,誤診(3)は判定が多かったため,次のような 度数になったというふうに仮定します. 誤診(1)判定者A 誤診(2)判定者A 誤診(3)判定者A + - + - + - 判定 + 1 1 判定 + 14 1 判定 + 25 0 者B - 1 24 者B - 1 11 者B - 2 0 観察される一致率をPoとすると, 誤診(1) 誤診(2) 誤診(3) Po Kappa Po Kappa Po Kappa 0.93 0.46 0.93 0.85 0.93 0.00 という結果が得られます. さて,ここで(2)と(3)でPoが同じにもかかわらずKappa値が著しく 異なることについては,すでに様々な論文で言及されている現象 ですが,今でも医学論文には国内国外を問わず「Kappa値が0.6を 越えているから」あるいは「Kappa値の95%信頼区間が0を含まない から」信頼性が高いというような記述を時々目にします. これに従うと,誤診(3)の判定は信頼性が全くなく,コインを 投げて判定したのと同じ(Kappa値の元々の意義ではそう言って いました)となり,誤診(1)の判定はKappa値の95%信頼区間で 決定すべきと言えるのでしょうか? Kappa値で判定するよりも,よい指標がありますでしょうか? また,Kappa値は,特に(1)や(3)のように判定が+か-に偏って いる場合に,少しデータの誤解釈があると一気に低下するという 性質もありますが,データの偏りと,あるべきサンプル数の 関係などは確立されているのでしょうか? 最後に,上の3つの誤診カテゴリーの判定は全て判定者Aと 判定者Bの間で行われていますが,全ての判定を総合した指標と してのKappa値を想定することは可能でしょうか? すなわち,上の3つの2X2表の数値を各セル毎に全て足し 合わせ,新たな2X2表を作ると, 誤診 判定者A + - 判定 + 40 2 Po = 0.93 者B - 4 35 Kappa = 0.85 という結果を得ることもできます.これを判定全体の指標として 用いるというような考え方についてどのように思われます でしょうか? 我々は,医学教育評価において「ある技能ができたかどうか」 をチェックリストで判定するという方法もしばしば利用して いますが,二名の判定者が独立にチェックリストで判定した時の チェックリスト全体での信頼性指標が必要なときがよくあります. しかし,なかなか明快な指標がないようで困っています. どうぞよろしくお願いします. -- Hirotaka Onishi University of Illinois at Chicago, Department of Medical Education College of Medicine, CME 986 808 South Wood Street Chicago, IL 60612-7309 USA Tel 1-312-996-4422 Fax 1-312-413-2048 oonishih (at) post.saga-med.ac.jp
ここは心理学研究の基礎メーリングリストに投稿された過去の記事を掲載しているページです。