Como o QLoRA nos permitiu treinar com uma GPU de 24GB
Detalhamos a configuração de hiperparâmetros do Unsloth que nos permitiu fazer fine-tuning do Tucano-1b1 com menos de 20GB de VRAM.
Em breve arrow_forwardPartilhamos o processo — os acertos, os erros e o que aprendemos a construir IA para a lusofonia.
Detalhamos a configuração de hiperparâmetros do Unsloth que nos permitiu fazer fine-tuning do Tucano-1b1 com menos de 20GB de VRAM.
Em breve arrow_forwardA jornada para extrair, limpar e normalizar texto jurídico de 9 países com 9 formatos diferentes de publicação oficial.
Em breve arrow_forwardNão existem benchmarks standard para português lusófono diverso. Explicamos como criámos os nossos próprios critérios de avaliação.
Em breve arrow_forwardPublicamos quando temos algo genuinamente interessante para partilhar — sem spam.
✓ Subscrito! Bem-vindo à comunidade.