Relatório de Conformidade
ISO/IEC 42001:2023
WeCann Academy
26 de Janeiro de 2026
ISO/IEC 42001:2023
Sistema de Gestão de Inteligência Artificial
Avaliação do Projeto WeCann - Agentes de IA para Educação Médica
Score Geral de Conformidade
Bom Progresso
Distribuição por Status
7
Conforme
9
Parcial
5
Atenção
3
Gap
Resumo Executivo
Pontos Fortes
- Arquitetura técnica robusta e bem documentada
- Pipeline RAG multi-source com diversidade garantida
- Sistema de pesos por nível de evidência científica
- Priorização do Tratado como fonte mais confiável
- Escalação para equipe médica implementada
- Logs e rastreabilidade de conversas
- Sistema de feedback dos usuários
- Infraestrutura cloud escalável
Áreas de Atenção
- Política formal de IA não estabelecida
- Avaliação de impacto de IA (AIIA) não realizada
- Programa de auditoria interna inexistente
- Revisões pela direção não formalizadas
- Papéis e responsabilidades não documentados
- Gestão de não-conformidades informal
- Conscientização sobre limitações da IA
- Análise de riscos de fornecedores
Conformidade por Cláusula
Cláusula 4
Contexto da Organização
Cláusula 5
Liderança
Cláusula 6
Planejamento
Cláusula 7
Suporte
Cláusula 8
Operação
Cláusula 9
Avaliação de Desempenho
Cláusula 10
Melhoria
Análise Detalhada
Cláusula 4
Contexto da Organização
75%
conformidade
Escopo do AIMS definido
ConformeDefinição clara do escopo do sistema de gestão de IA
Evidências
- Documentação em docs/PIPELINE_SPEC.md define escopo dos 3 agentes
- Arquitetura documentada em docs/stack-architecture.md
- Proposta comercial define objetivos e limites do sistema
Partes interessadas identificadas
ParcialIdentificação de stakeholders internos e externos
Evidências
- Alunos médicos identificados como usuários principais
- Equipe WeCann (Patricia, Daniel, Adam, Vitor) documentada
Recomendações
- Documentar formalmente todas as partes interessadas
- Incluir ANVISA e órgãos reguladores como stakeholders
- Mapear expectativas de cada grupo de stakeholders
Questões internas e externas
AtençãoAnálise de fatores que afetam o AIMS
Recomendações
- Criar análise SWOT específica para os agentes de IA
- Documentar requisitos regulatórios (LGPD, ANVISA)
- Avaliar impacto de mudanças tecnológicas (novos modelos LLM)
Propósito da IA documentado
ConformeDocumentação do propósito e uso pretendido dos sistemas de IA
Evidências
- Assistente de Aprendizagem: tirar dúvidas com base científica
- Montador de Trilha: personalizar percurso de aprendizagem
- Agente Comercial: métricas de engajamento (planejado)
Cláusula 5
Liderança
55%
conformidade
Comprometimento da alta direção
ParcialEnvolvimento ativo da liderança no AIMS
Evidências
- Dra. Patricia Montagner envolvida na curadoria técnica
- Daniel e Adam participam das decisões estratégicas
Recomendações
- Formalizar papéis e responsabilidades da liderança
- Criar comitê de governança de IA
- Estabelecer revisões periódicas pela direção
Política de IA estabelecida
GapPolítica formal de uso responsável de IA
Recomendações
- Criar documento de Política de IA da WeCann
- Definir princípios éticos para uso de IA em educação médica
- Estabelecer diretrizes de transparência e explicabilidade
- Comunicar política a todos os stakeholders
Papéis e responsabilidades
AtençãoDefinição clara de autoridades no AIMS
Evidências
- Consultor técnico (Eduardo) identificado
- Equipe técnica (Vitor) mencionada
Recomendações
- Criar matriz RACI para o projeto de IA
- Designar responsável pela ética em IA
- Definir responsável por monitoramento contínuo
Cláusula 6
Planejamento
70%
conformidade
Avaliação de riscos de IA
ParcialIdentificação e avaliação de riscos específicos de IA
Evidências
- Níveis de evidência científica definidos (1-5)
- Pesos por fonte implementados para mitigar viés
- Regra de sempre priorizar Tratado (fonte mais confiável)
Recomendações
- Criar registro formal de riscos de IA
- Avaliar riscos de alucinação e desinformação médica
- Documentar riscos de dependência de fornecedores (Anthropic, OpenAI)
Avaliação de impacto de IA (AIIA)
AtençãoAnálise de impactos potenciais do sistema de IA
Evidências
- Contexto médico reconhecido como alto risco
- Escalação para equipe médica implementada
Recomendações
- Realizar AIIA formal seguindo ISO 42001
- Avaliar impacto em decisões clínicas dos médicos
- Documentar consequências de respostas incorretas
- Considerar impacto em populações vulneráveis (gestantes, crianças)
Objetivos de IA mensuráveis
ConformeDefinição de objetivos e métricas para o AIMS
Evidências
- Métricas definidas: tempo de resposta, taxa de resolução
- Taxa de conclusão de cursos como KPI
- Nível de engajamento e satisfação monitorados
- Sistema de feedback implementado
Tratamento de riscos
ParcialPlanos de mitigação para riscos identificados
Evidências
- Multi-source RAG para evitar viés de fonte única
- Rerank com diversidade garantida
- Citação obrigatória de fontes
Recomendações
- Documentar controles para cada risco identificado
- Implementar circuit breakers para respostas de alto risco
- Criar processo de revisão humana para temas sensíveis
Cláusula 7
Suporte
80%
conformidade
Recursos adequados
ConformeAlocação de recursos para operação do AIMS
Evidências
- Stack técnica robusta definida (Claude Opus 4, Pinecone, Supabase)
- Infraestrutura cloud escalável (Vercel, Supabase)
- Orçamento de ~$130-180/mês documentado
Competência da equipe
ParcialConhecimentos e habilidades necessários
Evidências
- Consultor com expertise em IA e educação
- Curadoria médica pela Dra. Patricia Montagner
Recomendações
- Documentar competências necessárias para cada função
- Criar plano de capacitação em IA responsável
- Treinar equipe WeCann na operação do sistema
Conscientização
AtençãoConhecimento sobre política e procedimentos de IA
Recomendações
- Criar material de conscientização sobre IA para alunos
- Informar limitações do assistente de IA
- Estabelecer expectativas claras sobre o que a IA pode/não pode fazer
Informação documentada
ConformeDocumentação do AIMS mantida e controlada
Evidências
- Documentação técnica em docs/ (12+ arquivos)
- PIPELINE_SPEC.md com regras invioláveis
- RAG_MULTI_SOURCE_v2.md com arquitetura detalhada
- stack-architecture.md com diagramas
Cláusula 8
Operação
85%
conformidade
Planejamento e controle operacional
ConformeProcessos para operação do sistema de IA
Evidências
- Pipeline RAG documentado e implementado
- Fluxo de deploy automatizado (GitHub → Vercel)
- Logs detalhados de operação
- Configuração de fontes com prioridades definidas
Controle de fornecedores
ParcialGestão de produtos e serviços de terceiros
Evidências
- Fornecedores principais identificados (Anthropic, OpenAI, Cohere, Pinecone)
- Fallback OCR (Mistral) documentado
Recomendações
- Avaliar riscos de cada fornecedor
- Documentar SLAs e garantias
- Criar plano de contingência para indisponibilidade
Ciclo de vida do sistema de IA
ConformeGestão do desenvolvimento, implantação e operação
Evidências
- Pipeline de processamento documentado (PDF → Reducto → Embedding → Pinecone)
- Versionamento de código (GitHub)
- Deploy automatizado com CI/CD
- Checkpoints para retomada de processamento
Avaliação contínua de riscos
ParcialMonitoramento e reavaliação de riscos
Evidências
- Sistema de feedback implementado (56 registros)
- Logs de conversas armazenados (141 conversas)
Recomendações
- Implementar alertas para respostas de baixa confiança
- Criar dashboard de monitoramento de qualidade
- Estabelecer revisões periódicas de riscos
Cláusula 9
Avaliação de Desempenho
65%
conformidade
Monitoramento e medição
ParcialColeta e análise de dados de desempenho
Evidências
- Tabela feedback com ratings e comentários
- Contagem de conversas e mensagens
- Logs de uso de LLM (llm_usage_logs)
Recomendações
- Implementar métricas de qualidade de resposta
- Medir tempo de resposta end-to-end
- Criar KPIs de satisfação do usuário
Auditoria interna
GapAuditorias regulares do AIMS
Recomendações
- Estabelecer programa de auditoria interna
- Definir frequência de auditorias (trimestral recomendado)
- Criar checklist de auditoria baseado na ISO 42001
- Documentar não-conformidades e ações corretivas
Revisão pela direção
GapAnálise crítica pela alta direção
Recomendações
- Agendar revisões periódicas (mensal/trimestral)
- Criar template de relatório para direção
- Incluir métricas, riscos e oportunidades de melhoria
- Documentar decisões e ações da direção
Cláusula 10
Melhoria
60%
conformidade
Não-conformidades e ações corretivas
AtençãoProcesso para tratar desvios
Evidências
- Feedback negativo pode ser registrado
- Bugs corrigidos via desenvolvimento contínuo
Recomendações
- Criar processo formal de gestão de não-conformidades
- Implementar análise de causa raiz
- Documentar ações corretivas e verificar eficácia
Melhoria contínua
ParcialAprimoramento contínuo do AIMS
Evidências
- RAG evoluiu de v1.0 para v2.0 baseado em feedback
- Documentação de próximos passos mantida
- Integração WordPress planejada
Recomendações
- Formalizar processo de melhoria contínua
- Criar backlog priorizado de melhorias
- Estabelecer ciclos de revisão e atualização
Roadmap de Conformidade
Fundamentos de Governança
Estabelecer base documental e estrutura de governança
Processos de Controle
Implementar controles operacionais e monitoramento
Capacitação e Conscientização
Preparar equipe e usuários para uso responsável
Melhoria Contínua
Estabelecer ciclo de melhoria contínua
Sobre a ISO/IEC 42001:2023
A ISO/IEC 42001:2023 é o primeiro padrão internacional para Sistemas de Gestão de Inteligência Artificial (AIMS). Ela fornece uma estrutura para organizações que desenvolvem, fornecem ou utilizam sistemas de IA de forma responsável.
Ética e Responsabilidade
Aborda considerações éticas, transparência e responsabilidade no uso de IA.
Ciclo de Vida
Cobre todo o ciclo de vida da IA: design, desenvolvimento, implantação e operação.
Melhoria Contínua
Baseada no ciclo PDCA (Plan-Do-Check-Act) para melhoria contínua.