Os princípios inegociáveis que guiam como recolhemos, tratamos e usamos dados na NZINGA AI.
Utilizamos exclusivamente dados de domínio público ou para os quais obtivemos autorização explícita. Nunca extraímos dados privados de utilizadores, conversas ou sistemas terceiros sem consentimento.
Cada exemplo do corpus de treino tem origem rastreável. Publicamos as fichas de dados (data cards) com o modelo, incluindo lacunas identificadas e potenciais vieses.
Comprometemo-nos a garantir representação equitativa de todos os países da CPLP no corpus, evitando que o modelo favoreça variantes de maior volume (Brasil/Portugal) em detrimento das lusófonas africanas e timorenses.
Os dados de cada país permanecem dentro das jurisdições de origem. Aplicamos as leis de proteção de dados de Angola, Portugal, Moçambique e dos restantes países da CPLP — não apenas o RGPD europeu.
Qualquer entidade cujos dados sejam identificados no corpus pode solicitar a remoção. Mantemos um processo de "machine unlearning" para actualizações do modelo após remoções significativas.
O NZINGA AI não pode ser utilizado para vigilância em massa, discriminação algorítmica, desinformação sistemática ou qualquer aplicação que viole os direitos humanos consagrados na Carta Africana dos Direitos Humanos.
Estamos a constituir um comité independente de ética em IA com representantes de todos os 9 países lusófonos. Será responsável pela auditoria semestral do corpus e das políticas de uso.
volunteer_activism Candidatar-se como membro