Modelli di Testo
I modelli di testo in Armox sono potenti Large Language Models (LLM) in grado di generare, analizzare e trasformare testo. Molti supportano anche input multimodali come immagini e video.
Panoramica
I modelli di testo sono la base dei workflow intelligenti. Usali per:
- Generare contenuti — Scrivere articoli, script, copy marketing e altro
- Analizzare e ragionare — Elaborare informazioni complesse e fornire insight
- Trasformare il testo — Riscrivere, riassumere, tradurre o espandere contenuti
- Comprendere media — Analizzare immagini e video con modelli dotati di “vision”
Modelli di testo disponibili
| Modello | Provider | Costo | Vision | Ideale per |
|---|---|---|---|---|
| GPT-5 | OpenAI | 20 crediti | ✅ | Ragionamento complesso, analisi dettagliata |
| Gemini 2.5 Flash | 10 crediti | ✅ Immagini & Video | Attività multimodali rapide | |
| Claude 4.5 Sonnet | Anthropic | 30 crediti | ✅ | Contenuti long-form, scrittura ricca di sfumature |
| DeepSeek V3.1 | DeepSeek | 10 crediti | ❌ | Ragionamento conveniente |
| Grok 4 | xAI | 20 crediti | ❌ | Problem solving, compiti tecnici |
| Llama 3 70B | Meta | 14 crediti | ❌ | Open-source, versatile |
| Llama 3 8B | Meta | 2 crediti | ❌ | Veloce, economico |
Colori delle connessioni
Nel Canvas di Armox, le connessioni di testo usano handle ed edge blu:
- Input Handle: cerchio blu sul lato sinistro dei nodi
- Output Handle: cerchio blu sul lato destro dei nodi
- Connection Edge: linea blu che collega i nodi
Impostazioni comuni
La maggior parte dei modelli di testo condivide queste opzioni di configurazione:
System Prompt
Imposta comportamento e persona del modello. È come dare all’IA una descrizione del lavoro prima che inizi.
Max Tokens
Controlla la lunghezza massima della risposta. Valori più alti permettono output più lunghi ma costano di più.
Temperature
Regola creatività vs. consistenza:
- Bassa (0.0-0.3): Risposte coerenti e focalizzate
- Media (0.4-0.7): Creatività bilanciata
- Alta (0.8-2.0): Output più creativi e vari
Top P (Nucleus Sampling)
Regola finemente la diversità delle risposte. Valori più bassi rendono gli output più deterministici.
Scegliere il modello giusto
Per velocità e costo
- Llama 3 8B (2 crediti) — Più veloce ed economico
- DeepSeek V3.1 (10 crediti) — Ottimo equilibrio tra velocità e capacità
- Gemini 2.5 Flash (10 crediti) — Veloce con supporto “vision”
Per qualità
- GPT-5 (20 crediti) — Ideale per ragionamento complesso
- Claude 4.5 Sonnet (30 crediti) — Eccellente per scrittura e sfumature
- Grok 4 (20 crediti) — Forte nel problem-solving
Per task di visione
- Gemini 2.5 Flash — Immagini e video, elaborazione rapida
- GPT-5 — Immagini multiple, analisi dettagliata
- Claude 4.5 Sonnet — Immagine singola con comprensione profonda
Best practice
- Sii specifico — Prompt chiari producono risultati migliori
- Usa i system prompt — Imposta contesto e aspettative
- Itera — Affina i prompt in base agli output
- Abbina il modello al compito — Non “pagare troppo” per compiti semplici
Prossimi passi
Esplora la documentazione dei singoli modelli per impostazioni e casi d’uso dettagliati: