Relatório de Conformidade

ISO/IEC 42001:2023

Voltar

WeCann Academy

26 de Janeiro de 2026

Avaliação de Conformidade

ISO/IEC 42001:2023

Sistema de Gestão de Inteligência Artificial

Avaliação do Projeto WeCann - Agentes de IA para Educação Médica

Score Geral de Conformidade

70%

Bom Progresso

Distribuição por Status

7

Conforme

9

Parcial

5

Atenção

3

Gap

Resumo Executivo

Pontos Fortes

  • Arquitetura técnica robusta e bem documentada
  • Pipeline RAG multi-source com diversidade garantida
  • Sistema de pesos por nível de evidência científica
  • Priorização do Tratado como fonte mais confiável
  • Escalação para equipe médica implementada
  • Logs e rastreabilidade de conversas
  • Sistema de feedback dos usuários
  • Infraestrutura cloud escalável

Áreas de Atenção

  • Política formal de IA não estabelecida
  • Avaliação de impacto de IA (AIIA) não realizada
  • Programa de auditoria interna inexistente
  • Revisões pela direção não formalizadas
  • Papéis e responsabilidades não documentados
  • Gestão de não-conformidades informal
  • Conscientização sobre limitações da IA
  • Análise de riscos de fornecedores

Conformidade por Cláusula

Cláusula 4

Contexto da Organização

75

Cláusula 5

Liderança

55

Cláusula 6

Planejamento

70

Cláusula 7

Suporte

80

Cláusula 8

Operação

85

Cláusula 9

Avaliação de Desempenho

65

Cláusula 10

Melhoria

60

Análise Detalhada

Cláusula 4

Contexto da Organização

75%

conformidade

Escopo do AIMS definido

Conforme

Definição clara do escopo do sistema de gestão de IA

Evidências

  • Documentação em docs/PIPELINE_SPEC.md define escopo dos 3 agentes
  • Arquitetura documentada em docs/stack-architecture.md
  • Proposta comercial define objetivos e limites do sistema

Partes interessadas identificadas

Parcial

Identificação de stakeholders internos e externos

Evidências

  • Alunos médicos identificados como usuários principais
  • Equipe WeCann (Patricia, Daniel, Adam, Vitor) documentada

Recomendações

  • Documentar formalmente todas as partes interessadas
  • Incluir ANVISA e órgãos reguladores como stakeholders
  • Mapear expectativas de cada grupo de stakeholders

Questões internas e externas

Atenção

Análise de fatores que afetam o AIMS

Recomendações

  • Criar análise SWOT específica para os agentes de IA
  • Documentar requisitos regulatórios (LGPD, ANVISA)
  • Avaliar impacto de mudanças tecnológicas (novos modelos LLM)

Propósito da IA documentado

Conforme

Documentação do propósito e uso pretendido dos sistemas de IA

Evidências

  • Assistente de Aprendizagem: tirar dúvidas com base científica
  • Montador de Trilha: personalizar percurso de aprendizagem
  • Agente Comercial: métricas de engajamento (planejado)

Cláusula 5

Liderança

55%

conformidade

Comprometimento da alta direção

Parcial

Envolvimento ativo da liderança no AIMS

Evidências

  • Dra. Patricia Montagner envolvida na curadoria técnica
  • Daniel e Adam participam das decisões estratégicas

Recomendações

  • Formalizar papéis e responsabilidades da liderança
  • Criar comitê de governança de IA
  • Estabelecer revisões periódicas pela direção

Política de IA estabelecida

Gap

Política formal de uso responsável de IA

Recomendações

  • Criar documento de Política de IA da WeCann
  • Definir princípios éticos para uso de IA em educação médica
  • Estabelecer diretrizes de transparência e explicabilidade
  • Comunicar política a todos os stakeholders

Papéis e responsabilidades

Atenção

Definição clara de autoridades no AIMS

Evidências

  • Consultor técnico (Eduardo) identificado
  • Equipe técnica (Vitor) mencionada

Recomendações

  • Criar matriz RACI para o projeto de IA
  • Designar responsável pela ética em IA
  • Definir responsável por monitoramento contínuo

Cláusula 6

Planejamento

70%

conformidade

Avaliação de riscos de IA

Parcial

Identificação e avaliação de riscos específicos de IA

Evidências

  • Níveis de evidência científica definidos (1-5)
  • Pesos por fonte implementados para mitigar viés
  • Regra de sempre priorizar Tratado (fonte mais confiável)

Recomendações

  • Criar registro formal de riscos de IA
  • Avaliar riscos de alucinação e desinformação médica
  • Documentar riscos de dependência de fornecedores (Anthropic, OpenAI)

Avaliação de impacto de IA (AIIA)

Atenção

Análise de impactos potenciais do sistema de IA

Evidências

  • Contexto médico reconhecido como alto risco
  • Escalação para equipe médica implementada

Recomendações

  • Realizar AIIA formal seguindo ISO 42001
  • Avaliar impacto em decisões clínicas dos médicos
  • Documentar consequências de respostas incorretas
  • Considerar impacto em populações vulneráveis (gestantes, crianças)

Objetivos de IA mensuráveis

Conforme

Definição de objetivos e métricas para o AIMS

Evidências

  • Métricas definidas: tempo de resposta, taxa de resolução
  • Taxa de conclusão de cursos como KPI
  • Nível de engajamento e satisfação monitorados
  • Sistema de feedback implementado

Tratamento de riscos

Parcial

Planos de mitigação para riscos identificados

Evidências

  • Multi-source RAG para evitar viés de fonte única
  • Rerank com diversidade garantida
  • Citação obrigatória de fontes

Recomendações

  • Documentar controles para cada risco identificado
  • Implementar circuit breakers para respostas de alto risco
  • Criar processo de revisão humana para temas sensíveis

Cláusula 7

Suporte

80%

conformidade

Recursos adequados

Conforme

Alocação de recursos para operação do AIMS

Evidências

  • Stack técnica robusta definida (Claude Opus 4, Pinecone, Supabase)
  • Infraestrutura cloud escalável (Vercel, Supabase)
  • Orçamento de ~$130-180/mês documentado

Competência da equipe

Parcial

Conhecimentos e habilidades necessários

Evidências

  • Consultor com expertise em IA e educação
  • Curadoria médica pela Dra. Patricia Montagner

Recomendações

  • Documentar competências necessárias para cada função
  • Criar plano de capacitação em IA responsável
  • Treinar equipe WeCann na operação do sistema

Conscientização

Atenção

Conhecimento sobre política e procedimentos de IA

Recomendações

  • Criar material de conscientização sobre IA para alunos
  • Informar limitações do assistente de IA
  • Estabelecer expectativas claras sobre o que a IA pode/não pode fazer

Informação documentada

Conforme

Documentação do AIMS mantida e controlada

Evidências

  • Documentação técnica em docs/ (12+ arquivos)
  • PIPELINE_SPEC.md com regras invioláveis
  • RAG_MULTI_SOURCE_v2.md com arquitetura detalhada
  • stack-architecture.md com diagramas

Cláusula 8

Operação

85%

conformidade

Planejamento e controle operacional

Conforme

Processos para operação do sistema de IA

Evidências

  • Pipeline RAG documentado e implementado
  • Fluxo de deploy automatizado (GitHub → Vercel)
  • Logs detalhados de operação
  • Configuração de fontes com prioridades definidas

Controle de fornecedores

Parcial

Gestão de produtos e serviços de terceiros

Evidências

  • Fornecedores principais identificados (Anthropic, OpenAI, Cohere, Pinecone)
  • Fallback OCR (Mistral) documentado

Recomendações

  • Avaliar riscos de cada fornecedor
  • Documentar SLAs e garantias
  • Criar plano de contingência para indisponibilidade

Ciclo de vida do sistema de IA

Conforme

Gestão do desenvolvimento, implantação e operação

Evidências

  • Pipeline de processamento documentado (PDF → Reducto → Embedding → Pinecone)
  • Versionamento de código (GitHub)
  • Deploy automatizado com CI/CD
  • Checkpoints para retomada de processamento

Avaliação contínua de riscos

Parcial

Monitoramento e reavaliação de riscos

Evidências

  • Sistema de feedback implementado (56 registros)
  • Logs de conversas armazenados (141 conversas)

Recomendações

  • Implementar alertas para respostas de baixa confiança
  • Criar dashboard de monitoramento de qualidade
  • Estabelecer revisões periódicas de riscos

Cláusula 9

Avaliação de Desempenho

65%

conformidade

Monitoramento e medição

Parcial

Coleta e análise de dados de desempenho

Evidências

  • Tabela feedback com ratings e comentários
  • Contagem de conversas e mensagens
  • Logs de uso de LLM (llm_usage_logs)

Recomendações

  • Implementar métricas de qualidade de resposta
  • Medir tempo de resposta end-to-end
  • Criar KPIs de satisfação do usuário

Auditoria interna

Gap

Auditorias regulares do AIMS

Recomendações

  • Estabelecer programa de auditoria interna
  • Definir frequência de auditorias (trimestral recomendado)
  • Criar checklist de auditoria baseado na ISO 42001
  • Documentar não-conformidades e ações corretivas

Revisão pela direção

Gap

Análise crítica pela alta direção

Recomendações

  • Agendar revisões periódicas (mensal/trimestral)
  • Criar template de relatório para direção
  • Incluir métricas, riscos e oportunidades de melhoria
  • Documentar decisões e ações da direção

Cláusula 10

Melhoria

60%

conformidade

Não-conformidades e ações corretivas

Atenção

Processo para tratar desvios

Evidências

  • Feedback negativo pode ser registrado
  • Bugs corrigidos via desenvolvimento contínuo

Recomendações

  • Criar processo formal de gestão de não-conformidades
  • Implementar análise de causa raiz
  • Documentar ações corretivas e verificar eficácia

Melhoria contínua

Parcial

Aprimoramento contínuo do AIMS

Evidências

  • RAG evoluiu de v1.0 para v2.0 baseado em feedback
  • Documentação de próximos passos mantida
  • Integração WordPress planejada

Recomendações

  • Formalizar processo de melhoria contínua
  • Criar backlog priorizado de melhorias
  • Estabelecer ciclos de revisão e atualização

Roadmap de Conformidade

1
Crítico

Fundamentos de Governança

Estabelecer base documental e estrutura de governança

Criar Política de IA da WeCann
Definir papéis e responsabilidades (RACI)
Realizar Avaliação de Impacto de IA (AIIA)
Criar registro formal de riscos
2
Importante

Processos de Controle

Implementar controles operacionais e monitoramento

Estabelecer programa de auditoria interna
Criar processo de revisão pela direção
Implementar gestão de não-conformidades
Documentar controles para cada risco
3
Médio

Capacitação e Conscientização

Preparar equipe e usuários para uso responsável

Criar material de conscientização sobre IA
Treinar equipe WeCann na operação
Documentar limitações do assistente
Estabelecer expectativas claras para usuários
4
Melhoria

Melhoria Contínua

Estabelecer ciclo de melhoria contínua

Implementar dashboard de monitoramento
Criar KPIs de qualidade de resposta
Formalizar processo de melhoria contínua
Avaliar certificação ISO 42001

Sobre a ISO/IEC 42001:2023

A ISO/IEC 42001:2023 é o primeiro padrão internacional para Sistemas de Gestão de Inteligência Artificial (AIMS). Ela fornece uma estrutura para organizações que desenvolvem, fornecem ou utilizam sistemas de IA de forma responsável.

Ética e Responsabilidade

Aborda considerações éticas, transparência e responsabilidade no uso de IA.

Ciclo de Vida

Cobre todo o ciclo de vida da IA: design, desenvolvimento, implantação e operação.

Melhoria Contínua

Baseada no ciclo PDCA (Plan-Do-Check-Act) para melhoria contínua.