Docs
StandardPolicies

Critérios de Qualidade e Homologação

Como os MvFs são avaliados — seis dimensões de qualidade, o processo de homologação e tipos de não conformidade.

Propósito e escopo

A avaliação de qualidade de um dMRV serve a três propósitos simultâneos. Para o ecossistema, ela funciona como barreira de integridade — garante que apenas frameworks tecnicamente sólidos, auditáveis e implementáveis entrem em operação, protegendo a credibilidade dos créditos emitidos e a confiança dos participantes e compradores. Para o autor, ela funciona como guia de expectativas — ao conhecer antecipadamente os critérios de avaliação, o autor pode construir o MvF com foco nos requisitos que serão verificados, reduzindo retrabalho e ciclos de revisão. Para o developer, ela funciona como garantia de qualidade do insumo — um MvF homologado é, por definição, implementável sem interpretação, reduzindo risco e fricção no desenvolvimento do MvA.

O escopo desta página abrange a avaliação do MvF (framework), que é o entregável primário do autor e o principal objeto de curadoria no estágio atual do ecossistema. Os critérios de qualidade para o MvA (aplicação), por envolverem requisitos de engenharia de software e integração com a plataforma, são definidos pelo time de Engenharia em documento separado.

Os critérios descritos aqui refletem o modelo de curadoria interna vigente, no qual a validação do MvF é conduzida pelo time de Operações e Metodologias da Carrot. Conforme o ecossistema amadurece e a Comunidade de Especialistas avança em suas fases, essas responsabilidades poderão ser progressivamente transferidas, com salvaguardas e processos definidos pela governança aplicável.

Princípios de avaliação

A avaliação de qualidade de um MvF é orientada por seis princípios que refletem os valores do ecossistema dMRV e se aplicam tanto ao processo de curadoria interna atual quanto a futuros processos de revisão comunitária.

  1. Verificabilidade — Todo requisito descrito no MvF deve ser expresso de forma que alguém — seja o MvA em execução automatizada, seja um auditor em verificação independente — consiga responder, com base em evidências, se o requisito foi atendido. A pergunta orientadora é: "para cada regra, critério e parâmetro, existe uma forma objetiva de testar se foi cumprido?"

  2. Autocontenção — O MvF deve ser suficientemente completo para que o developer do MvA consiga implementar todas as regras, cálculos e validações sem consultar o autor ou a metodologia científica original. Isso não significa que o MvF substitui a referência externa, mas sim que o framework deve conter todas as informações operacionais necessárias para implementação e auditoria.

  3. Rastreabilidade — Deve ser possível percorrer o caminho completo entre a metodologia validada por terceiros e qualquer elemento operacional do MvF — regra, cálculo, parâmetro, critério de elegibilidade — demonstrando de onde cada requisito veio e como foi traduzido. A Matriz de Rastreabilidade é o instrumento que materializa esse princípio.

  4. Consistência interna — As diferentes partes do MvF devem ser coerentes entre si: os critérios de elegibilidade devem ser compatíveis com os eventos do catálogo, as regras de validação devem referenciar entradas que realmente existem nos eventos, os cálculos devem usar variáveis que foram definidas e têm fonte declarada, e os outputs devem ser justificados pela trilha de evidências dos eventos anteriores.

  5. Proporcionalidade — A avaliação reconhece que diferentes metodologias têm diferentes níveis de complexidade, e que os critérios de qualidade devem ser aplicados com razoabilidade. Um MvF para uma metodologia simples não precisa ter a mesma extensão documental de um MvF para uma metodologia complexa com dezenas de variáveis. O que deve ser constante é a qualidade e a precisão de cada componente, não necessariamente a quantidade.

  6. Adaptabilidade — O MvF deve ser desenhado para suportar aplicação em múltiplos territórios, separando claramente elementos universais de elementos parametrizáveis por geografia. Um framework que funciona apenas para um país específico — sem prever a interface com Anexos Geográficos — limita a escalabilidade da metodologia e gera retrabalho significativo quando a expansão territorial se torna necessária.

Dimensões de qualidade

Os critérios de qualidade são organizados em seis dimensões. Cada dimensão agrupa um conjunto de requisitos que, em conjunto, determinam se o MvF está pronto para homologação. A avaliação é feita dimensão por dimensão, e o resultado pode ser: Conforme, Conforme com ressalvas (pontos menores a ajustar que não comprometem a integridade do framework) ou Não conforme (lacunas que impedem a homologação e exigem revisão substantiva).

Completude

A dimensão de completude avalia se o MvF contém todos os componentes definidos na Estrutura Mínima do MvF e se os artefatos obrigatórios estão presentes e preenchidos. A Checklist de Completude do MvF é o instrumento de autoavaliação do autor para essa dimensão, mas a curadoria interna pode verificar aspectos adicionais além do checklist.

Na prática, a avaliação de completude verifica se cada seção da Estrutura Mínima está presente e não vazia: escopo e conceito, referência metodológica, elegibilidade e exclusões, catálogo de eventos, política de evidências, regras de validação, cálculos e parâmetros, outputs e adaptabilidade geográfica. Verifica também se os artefatos obrigatórios foram entregues: Matriz de Rastreabilidade, Catálogo de Eventos, Política de Evidências, Tabela de Regras de Validação e Tabela de Especificação de Cálculos e Parâmetros — todos com a coluna de Escopo Geográfico preenchida nas abas aplicáveis.

Verificabilidade

A dimensão de verificabilidade avalia se as regras, critérios e parâmetros do MvF estão descritos de forma que permitam teste objetivo. É a dimensão mais crítica para a qualidade operacional do framework, porque um MvF que não pode ser verificado não pode ser implementado de forma determinística.

A curadoria avalia verificabilidade por meio de uma análise amostral: seleciona um subconjunto representativo de regras de validação e critérios de elegibilidade e, para cada um, verifica se a descrição é suficiente para responder, sem ambiguidade, se o requisito foi atendido. Regras que contenham termos como "adequado", "razoável", "suficiente" ou "conforme necessário" sem definição operacional são consideradas não verificáveis e devem ser reformuladas.

A avaliação também verifica se os cenários de teste fornecidos (quando presentes) são consistentes com as fórmulas descritas — ou seja, se os resultados esperados são corretos quando se aplicam os inputs informados.

Rastreabilidade

A dimensão de rastreabilidade avalia se o MvF mantém conexão clara e documentada com a metodologia validada por terceiros que o fundamenta. O instrumento central dessa avaliação é a Matriz de Rastreabilidade, que deve conectar cada requisito relevante da metodologia externa ao elemento correspondente no MvF.

A curadoria verifica se a Matriz está preenchida de forma que permita a qualquer revisor percorrer o caminho entre a referência externa e a implementação operacional: o requisito original está identificado com precisão (seção, versão, trecho)? O MvF indica claramente onde e como esse requisito é atendido? Os eventos associados existem no catálogo? As evidências e validações são consistentes?

Além da Matriz, a rastreabilidade também é avaliada no corpo do MvF: as fórmulas referenciam suas fontes? Os parâmetros fixos indicam a origem do valor? As exclusões e exceções são justificadas pela metodologia? Quando o MvF faz escolhas de design que vão além do que a metodologia prescreve — por exemplo, definir granularidade de eventos ou fatores de desconto conservadores — essas escolhas devem ser documentadas com racional técnico.

Implementabilidade

A dimensão de implementabilidade avalia se o MvF fornece ao developer do MvA informação suficiente para codificar todas as regras, validações e cálculos sem precisar interpretar, inferir ou consultar o autor. É o princípio de autocontenção traduzido em critério de avaliação.

Na prática, a curadoria avalia se: as regras de validação especificam a condição testada, o critério de aceitação e a ação em caso de falha; os cálculos descrevem a equação, cada variável (com unidade, fonte e condições), e os parâmetros fixos com referência; os eventos do catálogo declaram entradas requeridas com metadados mínimos e formatos esperados; e os critérios condicionais explicitam o gatilho que ativa cada condição.

Uma forma pragmática de avaliar implementabilidade é a "regra do developer": se a curadoria pegar qualquer seção do MvF e a entregar a um developer que não participou da elaboração do framework, esse developer conseguiria implementar sem fazer perguntas ao autor? Se a resposta for não, a seção precisa ser refinada.

Auditabilidade

A dimensão de auditabilidade avalia se o MvF, quando executado, gera evidências suficientes para que um auditor independente consiga verificar o processo ponta a ponta — desde as entradas originais até os outputs finais — sem precisar acessar sistemas internos ou depender de explicações verbais.

A curadoria verifica se: a Política de Evidências distingue claramente o que é verificável digitalmente e o que exige auditoria ou inspeção; os gatilhos de escalonamento estão definidos para situações de inconsistência, ausência e anomalia; o pacote de evidências digitais contém os elementos necessários para justificar cada resultado; e o versionamento do MvF e do MvA está previsto nos outputs, permitindo reprodução futura dos resultados.

A auditabilidade é especialmente relevante porque o ecossistema Carrot envolve processos de validação, emissão e aposentadoria de créditos que exigem trilha auditável completa. Um MvF que não gere evidências auditáveis cria fricção em todo o ciclo e fragiliza a credibilidade dos créditos.

Adaptabilidade geográfica

A dimensão de adaptabilidade geográfica avalia se o MvF foi desenhado para suportar aplicação em múltiplos territórios, conforme as diretrizes de adaptabilidade geográfica. Essa dimensão reconhece que uma metodologia dMRV com potencial de escala global precisa separar, desde o design, o que é universal — derivado da lógica da metodologia — do que é territorial — dependente de legislação, classificação ou infraestrutura local.

A curadoria avalia se: os elementos do MvF estão classificados como Universais ou Territoriais nos artefatos tabulares (Tabela de Regras, Tabela de Cálculos, Política de Evidências); os elementos classificados como Territoriais possuem um requisito funcional claro (a intenção universal) separado da operacionalização (que depende do território); os parâmetros territoriais indicam um valor default quando o dado local não está disponível; os critérios de elegibilidade territoriais indicam os pontos de conexão com o Anexo Geográfico; e o MvF declara explicitamente quais informações o Anexo Geográfico deve fornecer para cada ponto territorial.

Um MvF que não prevê adaptabilidade geográfica não é necessariamente não conforme nesta dimensão — isso depende do escopo declarado pelo autor. Se a metodologia é explicitamente desenhada para um único território (por exemplo, uma metodologia que só se aplica ao Brasil por depender de legislação brasileira específica), o autor deve declarar essa restrição no escopo e a avaliação considerará a dimensão como "não aplicável". Porém, se a metodologia tem potencial de aplicação multi-territorial e o MvF não prevê a separação universal/territorial, a curadoria sinalizará isso como um ponto de melhoria.

Processo de homologação

O processo de homologação é o fluxo pelo qual um MvF submetido ao ecossistema é avaliado, ajustado (quando necessário) e, quando aprovado, formalmente homologado para operação em produção. No estágio atual, esse processo é conduzido internamente pelo time de Operações e Metodologias da Carrot, com apoio do time de Engenharia para aspectos de viabilidade técnica de implementação.

Submissão e triagem

O processo se inicia com a submissão formal do MvF pelo autor, acompanhado de todos os artefatos obrigatórios (Matriz de Rastreabilidade, Catálogo de Eventos, Política de Evidências, Tabela de Regras, Tabela de Cálculos) e da Checklist de Completude preenchida. A submissão pode ocorrer via RFP (quando o dMRV responde a uma demanda publicada) ou via parceria/iniciativa direta.

Na triagem inicial, a curadoria verifica se o entregável está completo — ou seja, se todas as seções da Estrutura Mínima estão presentes, se os artefatos obrigatórios foram entregues e se as colunas de Escopo Geográfico estão preenchidas nas abas aplicáveis. Se o entregável estiver incompleto, o autor é notificado sobre os componentes faltantes e tem prazo para complementar antes de a avaliação técnica se iniciar.

Avaliação técnica

Uma vez que o entregável está completo, a curadoria conduz a avaliação técnica — a aplicação sistemática dos critérios de qualidade nas seis dimensões (completude, verificabilidade, rastreabilidade, implementabilidade, auditabilidade e adaptabilidade geográfica). A avaliação produz um parecer técnico que registra, para cada dimensão, o resultado (conforme, conforme com ressalvas, não conforme) e as observações aplicáveis.

Durante a avaliação técnica, a curadoria pode consultar o autor para esclarecer pontos específicos, solicitar documentação adicional ou requisitar ajustes pontuais. Essas interações são registradas como parte do histórico de avaliação do dMRV, preservando rastreabilidade do processo decisório.

Quando o time de Engenharia identifica que algum aspecto do MvF apresenta desafios significativos de implementação — por exemplo, uma regra que depende de informação que a plataforma não consegue acessar, ou um cálculo que exige dados externos não integráveis — a curadoria pode devolver o MvF ao autor com uma nota técnica explicando a limitação e sugerindo alternativas.

Ciclo de revisão

Se a avaliação técnica identificar dimensões não conformes ou conformes com ressalvas que exijam ajustes, o MvF entra em ciclo de revisão. O autor recebe o parecer técnico com as observações detalhadas e tem prazo definido para submeter a versão revisada.

O ecossistema permite no máximo dois ciclos de revisão para um mesmo MvF. Se após o segundo ciclo ainda houver dimensões não conformes, o MvF é devolvido ao autor com recomendação de reestruturação substantiva, e uma nova submissão será tratada como processo independente. Essa limitação garante que o processo de homologação seja eficiente e que frameworks com problemas estruturais não consumam ciclos indefinidos de revisão.

Em cada ciclo, a curadoria reavalia apenas as dimensões sinalizadas — as dimensões previamente aprovadas não são reanalisadas, salvo se as alterações feitas pelo autor tenham impacto transversal que justifique reavaliação.

Homologação

Quando todas as seis dimensões são avaliadas como conformes (ou conformes com ressalvas menores que não comprometem integridade), o MvF é considerado aprovado e entra em homologação formal. A homologação inclui:

  • Registro da versão aprovada do MvF com timestamp e referência à avaliação técnica
  • Publicação do framework no repositório de metodologias homologadas da plataforma
  • Vinculação ao processo de desenvolvimento do MvA, que segue sob responsabilidade do time de Engenharia e do developer designado

A homologação do MvF não encerra a responsabilidade do autor. Conforme descrito na Política de Versionamento, o autor pode ser chamado a colaborar em revisões de versão, a responder questionamentos de auditores e a participar de discussões técnicas sobre a evolução do framework.

Tipologia de não conformidades

Para orientar autores e padronizar a linguagem de avaliação, esta seção classifica os tipos mais comuns de não conformidade identificados durante a avaliação técnica de um MvF.

TipoDescriçãoExemplosImpactoResolução típica
Lacuna de conteúdoUma seção obrigatória da Estrutura Mínima está ausente ou substancialmente vazia.Catálogo de Eventos sem descrição de entradas; Política de Evidências ausente; seção de Cálculos sem variáveis especificadas.Bloqueia avaliação: não é possível avaliar qualidade sem conteúdo.Complementar a seção e resubmeter.
Ambiguidade de regraUma regra de validação ou critério de elegibilidade está descrito de forma que permite múltiplas interpretações."O participante deve ter capacidade adequada"; "a pesagem deve ser precisa"; "o intervalo deve ser razoável".Impede implementação determinística; cria risco de divergência entre MvF e MvA.Reescrever com condição testável, critério numérico e ação em caso de falha.
Inconsistência internaDuas ou mais partes do MvF se contradizem ou fazem referências cruzadas incorretas.Uma regra referencia um evento inexistente no catálogo; um cálculo usa uma variável não definida; a Matriz aponta para seções inexistentes.Compromete confiabilidade do framework como um todo.Revisar as partes conflitantes e garantir coerência entre seções e artefatos.
Rastreabilidade insuficienteNão é possível conectar um elemento do MvF à sua origem na metodologia validada.Fórmula sem referência à metodologia externa; parâmetro fixo sem fonte; critério de exclusão sem justificativa metodológica.Fragiliza a legitimidade técnica do framework.Adicionar referências e fontes; completar a Matriz de Rastreabilidade.
Especificação insuficienteA descrição existe, mas não tem detalhe suficiente para o developer implementar.Fórmula com variáveis sem unidade; evento com "dados de pesagem" sem especificação de campos; regra sem ação em caso de falha.Gera dependência do developer em relação ao autor; aumenta risco de erro.Detalhar campos, unidades, fontes, condições e ações para cada componente.
Gap de auditabilidadeO framework não gera evidências suficientes para verificação independente em um ou mais pontos.Evento sem regime de evidência definido; ausência de gatilhos de escalonamento; outputs sem versionamento.Compromete a capacidade de verificação e auditoria do ciclo de créditos.Definir Política de Evidências completa com regime, metadados e gatilhos.
Adaptabilidade geográfica insuficienteO MvF tem escopo multi-territorial mas não prevê separação entre elementos universais e territoriais.Regras de elegibilidade com referência a legislação de um único país; classificação de materiais hardcoded para uma taxonomia local; parâmetros sem valor default.Limita a escalabilidade da metodologia; gera retrabalho na expansão territorial.Classificar elementos como Universal/Territorial nos artefatos; redigir requisitos funcionais separados de operacionais; prever pontos de conexão com Anexo Geográfico.

Cada não conformidade identificada no parecer técnico inclui: a dimensão de qualidade afetada, o tipo de não conformidade, a localização no MvF (seção e artefato), a descrição do problema e a recomendação de resolução. Esse registro permite ao autor entender com precisão o que precisa ser corrigido, sem ambiguidade.

Critérios de qualidade do MvA

A avaliação de qualidade da Methodology Verification Application (MvA) envolve critérios de engenharia de software, integração com a infraestrutura da plataforma Carrot e fidelidade de implementação em relação ao MvF homologado.

Existe uma interface relevante entre a qualidade do MvF e a qualidade do MvA: um framework bem especificado — que atenda aos critérios de verificabilidade, implementabilidade e adaptabilidade geográfica descritos nesta página — reduz significativamente o risco de problemas na implementação. Quando o MvF classifica elementos como territoriais e fornece requisitos funcionais claros, o developer sabe que precisa parametrizar esses pontos no MvA ao invés de hardcodar valores — resultando em código mais robusto e escalável.

A validação do MvA, quando realizada, verifica — entre outros aspectos — a fidelidade ao MvF homologado, a qualidade técnica da implementação (determinismo, reprodutibilidade, tratamento de erros), a rastreabilidade e geração de evidências (logs, trilhas de auditoria, registros de versão), a conformidade com os padrões técnicos da plataforma, e a correta parametrização de elementos territoriais.

Os critérios de qualidade do MvA são definidos e documentados pelo time de Engenharia em documento separado, mantendo a separação de responsabilidades entre framework e código.

Evolução para avaliação comunitária

Conforme descrito no Ciclo de Vida da Metodologia, a curadoria de dMRVs é desenhada para evoluir de forma progressiva — partindo da validação exclusivamente interna para um modelo com participação crescente da comunidade técnica.

Os critérios de qualidade descritos nesta página foram desenhados para suportar essa evolução: eles são objetivos, documentados e aplicáveis por qualquer revisor com capacidade técnica adequada. A inclusão da dimensão de adaptabilidade geográfica reforça esse ponto: ela permite que revisores de diferentes territórios avaliem se o MvF está preparado para operar em seus contextos regulatórios locais.

Independentemente do modelo de avaliação vigente, a Carrot mantém um papel de retaguarda para garantir transparência, consistência e continuidade do processo — incluindo preservação do histórico de avaliações, versionamento de critérios e resposta a riscos de integridade.

Os critérios formais de participação da comunidade na avaliação de dMRVs, incluindo papéis, níveis de permissão e processos decisórios, ainda estão em definição e serão documentados conforme a estrutura comunitária se consolidar.


Guia do Autor de MvF · Ciclo de Vida da Metodologia

On this page