サービス紹介
このウェブアプリは、Exner(CS)体系によるロールシャッハ検査の構造要約計算を、より安定的かつ効率的に支援するために作られました。臨床心理士、研修中の実務家、学習中の学生が、繰り返し入力して確認する項目を一つの流れの中で整理できるように構成されており、位置、決定因、形態水準、特殊得点、主要指標を一画面で確認しながら作業できます。構造要約計算と参照文書の検索は、ログインしなくても利用できます。
このアプリには、構造要約計算や符号化の過程で参照できる文書も整理されています。これらの文書は、ロールシャッハ検査とExner(CS)体系の規則、概念、変数、符号化基準を主題ごとに整理した読み物であり、ソウル臨床心理研究所(SICP)とMOWが共同で作成・整理しました。概念や基準が曖昧になったときには、利用者が直接検索して確認できます。
ログインした利用者は、自分のOpenAIまたはGoogle APIキーを登録してAI機能を使うことができます。ここでいうBYOKとは、「利用者自身が自分のAPIキーを直接つないで使う方式」という意味です。この方式を選んだのは、心理検査のような機微な内容を扱う場面では、API利用が方針上保護された経路であり、プロジェクトの基盤となったワークショップ資料でも、API経由で送信されたデータがモデル学習に使われない点が重視されていたからです。
また、このサービスがAIの参照文書を公開しているのも同じ設計思想によります。臨床家や研修者、学生が、AIがどの基準に基づいて答えているのかを自分で確かめ、応答を批判的に検討できるようにしたいと考えました。つまり、このサービスのAIは、隠れたブラックボックスというより、人が最後まで検討と判断の中心に残るための補助道具として設計されています。
このサービスはSICPとMOWが共同で運営しています。SICPは臨床的助言と運営方針を、MOWは製品実装と技術運営を担当します。運営、障害報告、個人情報に関する問い合わせは sicpseoul@gmail.com までお寄せください。なお、このサービスとAI機能はあくまで参考と補助のための道具であり、専門家の独立した臨床判断や正式な診断を置き換えるものではありません。最終的な解釈と責任は常に利用者にあります。
Human-in-the-Loop:人間中心AIの原則に基づいて設計されたサービスです
このサービスは、AIが専門家に代わって判断するためではなく、臨床心理士や研修生がより明確な基準に基づいて検討し判断できるよう支援することを目的に設計されています。以下は、このWebアプリのAI機能と運用方法を設計する際に基盤とした、5つの倫理原則に基づくフレームワークの要約です。
人間中心AIとHITLの詳しい内容は、次のリンクから確認できます。 ワークショップ動画を見る.
1. 自律性と十分な説明に基づく同意
AIをなぜ使うのか、データがどのように扱われるのか、この道具にどのような限界があるのかを、利用者が理解できる言葉で説明する必要があります。心理領域のような敏感な場面では、機能の便利さだけでなく、構造を理解したうえで選べることが重要です。
また、利用者はいつでもAI利用を拒否したり中断したりできるべきであり、その場合でも人間専門家による検討が可能でなければなりません。AIは人の選択肢を広げるものであって、静かに奪うものであってはなりません。
2. 善行と無危害
AIは効率を高める一方で、不正確な応答や過度な単純化を生み出すこともあります。そのため出力は常に批判的に見直される必要があり、リスクの高い判断は自動化ではなく人間の専門家が担うべきです。
さらに、科学的妥当性や文化的適切性も重要です。便利だから使うのではなく、実際に役立ち、不要な害を生まないかという観点で検討されるべきです。
3. 機密保持・プライバシー・透明性
心理検査資料は機微な情報であるため、データ処理はできるだけ最小限で、統制され、適切に保護される必要があります。このアプリがBYOK方式を採用している理由の一つは、API利用が方針上保護され、送信データがモデル学習に使われない設計であることを重視したためです。
同時に、透明性とはAIがどのような基準に依拠しているかを利用者が確認できることでもあります。そのため、このサービスはAIが参照する文書を公開し、ブラックボックス化を避けています。
4. 公正・公平・包摂性
AIシステムは、文化的偏りや構造的不公平、集団ごとの不均一な性能について継続的に点検されるべきです。心理領域では、便利であることだけでは不十分で、誰かにとって不公平な支援になっていないかを見逃してはなりません。
したがって、公平性は単なる標語ではなく、出力や利用経験を継続的に見直す実践でなければなりません。このサービスは、利用者が自動化された提案をそのまま受け入れるのではなく、再検討できるようにすることを重視しています。
5. 専門的誠実性と責任
AIの出力を責任をもって解釈できるだけの訓練と専門性を持つ人が使う場合にのみ、こうした道具は適切だといえます。重要なのはAIの存在そのものではなく、その結果をどのような専門的判断のもとで扱うかです。
このサービスが最終判断を肩代わりしないように設計されているのもそのためです。最終責任は常に人間の利用者に残り、AIはより一貫した検討を助ける補助道具として位置づけられます。