Armox
    Armox Academy 📚
    Riferimento Modelli IAModelli Testo

    Modelli di Testo

    I modelli di testo in Armox sono potenti Large Language Models (LLM) in grado di generare, analizzare e trasformare testo. Molti supportano anche input multimodali come immagini e video.

    Panoramica

    I modelli di testo sono la base dei workflow intelligenti. Usali per:

    • Generare contenuti — Scrivere articoli, script, copy marketing e altro
    • Analizzare e ragionare — Elaborare informazioni complesse e fornire insight
    • Trasformare il testo — Riscrivere, riassumere, tradurre o espandere contenuti
    • Comprendere media — Analizzare immagini e video con modelli dotati di “vision”

    Modelli di testo disponibili

    ModelloProviderCostoVisionIdeale per
    GPT-5OpenAI20 creditiRagionamento complesso, analisi dettagliata
    Gemini 2.5 FlashGoogle10 crediti✅ Immagini & VideoAttività multimodali rapide
    Claude 4.5 SonnetAnthropic30 creditiContenuti long-form, scrittura ricca di sfumature
    DeepSeek V3.1DeepSeek10 creditiRagionamento conveniente
    Grok 4xAI20 creditiProblem solving, compiti tecnici
    Llama 3 70BMeta14 creditiOpen-source, versatile
    Llama 3 8BMeta2 creditiVeloce, economico

    Colori delle connessioni

    Nel Canvas di Armox, le connessioni di testo usano handle ed edge blu:

    • Input Handle: cerchio blu sul lato sinistro dei nodi
    • Output Handle: cerchio blu sul lato destro dei nodi
    • Connection Edge: linea blu che collega i nodi

    Impostazioni comuni

    La maggior parte dei modelli di testo condivide queste opzioni di configurazione:

    System Prompt

    Imposta comportamento e persona del modello. È come dare all’IA una descrizione del lavoro prima che inizi.

    Max Tokens

    Controlla la lunghezza massima della risposta. Valori più alti permettono output più lunghi ma costano di più.

    Temperature

    Regola creatività vs. consistenza:

    • Bassa (0.0-0.3): Risposte coerenti e focalizzate
    • Media (0.4-0.7): Creatività bilanciata
    • Alta (0.8-2.0): Output più creativi e vari

    Top P (Nucleus Sampling)

    Regola finemente la diversità delle risposte. Valori più bassi rendono gli output più deterministici.

    Scegliere il modello giusto

    Per velocità e costo

    • Llama 3 8B (2 crediti) — Più veloce ed economico
    • DeepSeek V3.1 (10 crediti) — Ottimo equilibrio tra velocità e capacità
    • Gemini 2.5 Flash (10 crediti) — Veloce con supporto “vision”

    Per qualità

    • GPT-5 (20 crediti) — Ideale per ragionamento complesso
    • Claude 4.5 Sonnet (30 crediti) — Eccellente per scrittura e sfumature
    • Grok 4 (20 crediti) — Forte nel problem-solving

    Per task di visione

    • Gemini 2.5 Flash — Immagini e video, elaborazione rapida
    • GPT-5 — Immagini multiple, analisi dettagliata
    • Claude 4.5 Sonnet — Immagine singola con comprensione profonda

    Best practice

    1. Sii specifico — Prompt chiari producono risultati migliori
    2. Usa i system prompt — Imposta contesto e aspettative
    3. Itera — Affina i prompt in base agli output
    4. Abbina il modello al compito — Non “pagare troppo” per compiti semplici

    Prossimi passi

    Esplora la documentazione dei singoli modelli per impostazioni e casi d’uso dettagliati: