Sobre o serviço
Este aplicativo web foi criado para apoiar de forma mais estável e eficiente o cálculo do Structural Summary no sistema Exner (CS) do teste de Rorschach. Ele ajuda profissionais, pessoas em formação e estudantes a organizar em um único fluxo os itens que precisam ser inseridos e revistos repetidamente, permitindo consultar localização, determinantes, qualidade formal, pontuações especiais e índices principais em uma só tela. O cálculo do Structural Summary e a busca nos documentos de referência podem ser usados mesmo sem login.
O aplicativo também inclui documentos de referência que podem ser consultados durante a codificação e o trabalho de Structural Summary. Esses materiais organizam por tema regras, conceitos, variáveis e critérios de codificação do teste de Rorschach e do sistema Exner (CS), e foram criados e organizados conjuntamente pela SICP e pela MOW. Quando a pessoa usuária precisa conferir um conceito ou uma regra, pode pesquisar esses documentos diretamente.
Usuários com login podem usar os recursos de IA registrando sua própria chave API da OpenAI ou do Google. Aqui, BYOK significa “usar a própria chave”, isto é, a pessoa conecta e usa a sua própria chave API em vez de depender de uma chave fornecida pelo serviço. Escolhemos esse formato porque o uso por API é protegido por políticas importantes quando se lida com material sensível, e os materiais de workshop usados neste projeto destacam que os dados enviados por API ficam protegidos contra uso em treinamento de modelo.
A decisão de tornar públicos os documentos de referência segue a mesma lógica de design. Queríamos que profissionais, pessoas em formação e estudantes pudessem verificar em que a IA se apoia e revisar criticamente a base e os limites de suas respostas. Assim, a IA do serviço não foi pensada como uma caixa preta, mas como uma ferramenta de apoio cuja base pode ser inspecionada por pessoas.
O serviço é operado conjuntamente pela SICP e pela MOW. A SICP contribui com orientação clínica e direção geral, enquanto a MOW cuida da implementação do produto e da operação técnica. Para dúvidas sobre operação do serviço, erros ou privacidade, escreva para sicpseoul@gmail.com. Este serviço e seus recursos de IA são ferramentas de apoio e referência; não substituem julgamento clínico independente nem diagnóstico formal. A interpretação final e a responsabilidade permanecem com a pessoa usuária.
Human-in-the-Loop: serviço desenhado com base em princípios de IA centrada no ser humano
Este serviço foi desenhado não para que a IA julgue no lugar de profissionais, mas para ajudar psicólogos clínicos e pessoas em formação a revisar e decidir com base em critérios mais claros. O conteúdo abaixo resume o framework baseado em cinco princípios éticos que orientou o desenho dos recursos de IA e do modo de operação deste aplicativo web.
Mais detalhes sobre IA centrada no ser humano e HITL estão disponíveis no link a seguir. Ver o vídeo do workshop.
1. Autonomia e consentimento informado
É preciso explicar com clareza por que a IA está sendo usada, como os dados são tratados e quais são os limites da ferramenta. Em contextos psicológicos sensíveis, compreender a ferramenta é tão importante quanto conseguir usá-la.
Além disso, a pessoa deve poder recusar ou interromper o uso da IA e continuar tendo alternativas humanas disponíveis. A IA deve ampliar opções, não retirar o controle da pessoa sobre o processo.
2. Beneficência e não maleficência
A IA pode aumentar a eficiência, mas também pode errar ou simplificar demais. Por isso, seus resultados precisam ser revisados criticamente, e julgamentos de alto risco devem continuar sob responsabilidade de profissionais humanos.
A validade científica e a adequação cultural também importam. Uma ferramenta deve ser usada porque gera benefício real, e não apenas porque é conveniente.
3. Confidencialidade, privacidade e transparência
Material de avaliação psicológica é sensível, então o tratamento de dados deve ser mínimo, controlado e protegido. Uma das razões para adotar BYOK foi justamente o fato de o uso por API ser protegido por políticas e estruturado para evitar que dados enviados sejam usados em treinamento de modelo.
Transparência também significa permitir que a pessoa usuária veja em que a IA está se baseando. Por isso o serviço torna públicos os documentos de referência em vez de esconder a base das respostas dentro de uma caixa preta.
4. Justiça, equidade e inclusão
Sistemas de IA devem ser revisados quanto a vieses culturais, injustiças estruturais e desempenhos desiguais entre grupos. Em psicologia, conveniência nunca é motivo suficiente se a ferramenta puder oferecer apoio menos justo para algumas pessoas.
Equidade precisa ser tratada como prática contínua de revisão. O serviço busca ajudar a pessoa usuária a continuar examinando e questionando criticamente saídas automatizadas.
5. Integridade profissional e responsabilidade
Ferramentas de IA só são apropriadas quando quem as utiliza tem formação suficiente para interpretar seus resultados com responsabilidade. A questão central não é a presença da IA em si, mas o critério profissional com que ela é utilizada.
Por isso, este serviço não foi projetado para assumir o julgamento final. A responsabilidade permanece com a pessoa usuária, que deve combinar o apoio técnico com padrões profissionais e éticos.