Ajuste Fino
Basado en las capacidades de DevPod, proporcionamos imágenes dedicadas específicamente al ajuste fino de modelos, lo que facilita a los usuarios ajustar finamente sus propios modelos.
El proceso de creación de un trabajo de ajuste fino es básicamente el mismo que el de DevPod. Puede consultar el proceso de creación de DevPod. Aquí hay varias diferencias:
- Debe ingresar el modelo base para el ajuste fino en la página de creación, por ejemplo: Qwen/Qwen3-8B.
- Si el modelo requiere un token de acceso, también debe completar el token de Hugging Face (opcional).
- Ingrese el identificador de conjunto de datos elegido en el campo Dataset, por ejemplo: tatsu-lab/alpaca.

Después de seleccionar la configuración de los recursos de la tarea, implemente el pod y espere hasta que el estado de la tarea cambie a "en ejecución". Haga clic en Conectar y elija su método de conexión preferido:
- Jupyter Notebook: Interfaz de notebook basada en navegador (recomendado).
- Web Terminal: Terminal basado en navegador.
- SSH: Conexión de terminal de máquina local.
Nota:
Para usar SSH, agregue su clave SSH pública en la configuración de su cuenta. El sistema agrega automáticamente su clave al archivo authorized_keys del pod.
Actualmente, hemos preparado cuidadosamente dos imágenes de herramientas, que se desarrollan en base a Axolotl y Torchtune respectivamente, con el objetivo de brindar comodidad para que los usuarios ajusten finamente los modelos. A continuación, presentaremos en detalle los procesos de uso de estas dos imágenes respectivamente.
Basado en Axolotl
Configure su entorno
Abra el Jupyter Notebook en el navegador. Puede ver que hay tres archivos en el directorio de trabajo:
- examples/: Configuraciones de muestra y scripts
- outputs/: Resultados de entrenamiento y salidas del modelo
- config.yaml: Parámetros de entrenamiento para su modelo El sistema genera un config.yaml inicial basado en su modelo base y conjunto de datos seleccionados.

Revisar y modificar la configuración
Revise y ajuste los parámetros según su caso de uso específico. Aquí hay una configuración de ejemplo con parámetros comunes:
base_model: Qwen/Qwen3-32B
plugins:
- axolotl.integrations.cut_cross_entropy.CutCrossEntropyPlugin
strict: false
chat_template: qwen3
datasets:
- path: mlabonne/FineTome-100k
type: chat_template
split: train[:20%]
field_messages: conversations
message_property_mappings:
role: from
content: value
val_set_size: 0.0
output_dir: ./outputs/out
dataset_prepared_path: last_run_prepared
sequence_len: 2048
sample_packing: true
eval_sample_packing: true
pad_to_sequence_len: true
load_in_4bit: true
adapter: qlora
lora_r: 16
lora_alpha: 32Para más ejemplos de configuración, visite el repositorio de ejemplos de Axolotl.
Iniciar el proceso de ajuste fino
Una vez que su configuración esté lista, siga estos pasos:
- Inicie el proceso de entrenamiento:
axolotl train config.yaml- Monitoree el progreso del entrenamiento en su terminal.
Basado en Torchtune
Configure su entorno
Abra el Jupyter Notebook en el navegador. Puede usar tune ls para listar el conjunto completo de recetas de ajuste fino compatibles con torchtune.
Revisar y modificar la configuración
- Copie el archivo de configuración al dispositivo local. Por ejemplo:
tune cp qwen2_5/3B_lora_single_device config.yaml- Modifique, revise y ajuste los parámetros según su caso de uso específico.
Iniciar el proceso de ajuste fino
Una vez que su configuración esté lista, siga estos pasos:
- Inicie el proceso de entrenamiento:
tune run lora_finetune_single_device --config config.yaml- Monitoree el progreso del entrenamiento en su terminal.
Documentos relacionados
Para obtener más información sobre el ajuste fino con Axolotl, consulte:
Para obtener más información sobre el ajuste fino con Torchtune, consulte:
Para obtener más información sobre cursos de ajuste fino más libres y flexibles, consulte: