Armox
    Armox Academy 📚
    Referencja Modeli AIModele Tekstowe

    Modele tekstowe

    Modele tekstowe w Armox to potężne duże modele językowe (LLM), które potrafią generować, analizować i przekształcać tekst. Wiele z nich obsługuje też multimodalne inputs, np. obrazy i wideo.

    Overview

    Modele tekstowe są fundamentem inteligentnych workflow. Używaj ich do:

    • Generate content — artykuły, skrypty, copy marketingowe i więcej
    • Analyze and reason — analiza złożonych informacji i wnioski
    • Transform text — przepisywanie, streszczanie, tłumaczenie, rozwijanie
    • Understand media — analiza obrazów i wideo (modele z vision)

    Dostępne modele tekstowe

    ModelProviderKosztVisionNajlepszy do
    GPT-5OpenAI20 creditszłożone rozumowanie, szczegółowa analiza
    Gemini 2.5 FlashGoogle10 credits✅ Images & Videoszybkie zadania multimodalne
    Claude 4.5 SonnetAnthropic30 creditslong-form, niuansowe pisanie
    DeepSeek V3.1DeepSeek10 creditsopłacalne rozumowanie
    Grok 4xAI20 creditsrozwiązywanie problemów, zadania techniczne
    Llama 3 70BMeta14 creditsopen-source, wszechstronny
    Llama 3 8BMeta2 creditsszybki, budżetowy

    Kolory połączeń

    W Armox Canvas połączenia tekstowe używają blue uchwytów i krawędzi:

    • Input Handle: blue kółko po lewej stronie węzłów
    • Output Handle: blue kółko po prawej stronie węzłów
    • Connection Edge: blue linia łącząca węzły

    Typowe ustawienia

    Większość modeli tekstowych ma podobne opcje konfiguracyjne:

    System Prompt

    Ustaw zachowanie i „personę” modelu. To jak opis stanowiska dla AI zanim zacznie pracę.

    Max Tokens

    Kontroluje maksymalną długość odpowiedzi. Wyższe wartości = dłuższy output, ale zwykle też wyższy koszt.

    Temperature

    Dostosuj kreatywność vs. spójność:

    • Low (0.0-0.3): spójne, skupione odpowiedzi
    • Medium (0.4-0.7): zbalansowana kreatywność
    • High (0.8-2.0): bardziej kreatywne, zróżnicowane odpowiedzi

    Top P (Nucleus Sampling)

    Dostrajanie różnorodności odpowiedzi. Niższe wartości dają bardziej deterministyczne wyniki.

    Jak wybrać właściwy model

    Dla szybkości i kosztu

    • Llama 3 8B (2 credits) — najszybszy i najtańszy
    • DeepSeek V3.1 (10 credits) — dobry balans szybkość/możliwości
    • Gemini 2.5 Flash (10 credits) — szybko + vision

    Dla jakości

    • GPT-5 (20 credits) — najlepszy do złożonego rozumowania
    • Claude 4.5 Sonnet (30 credits) — świetny do pisania i niuansów
    • Grok 4 (20 credits) — mocny problem-solving

    Dla zadań z vision

    • Gemini 2.5 Flash — obrazy i wideo, szybkie przetwarzanie
    • GPT-5 — wiele obrazów, szczegółowa analiza
    • Claude 4.5 Sonnet — pojedynczy obraz, głębokie zrozumienie

    Best practices

    1. Bądź konkretny/a — jasne prompty dają lepsze wyniki
    2. Używaj system prompts — ustaw kontekst i oczekiwania
    3. Iteruj — poprawiaj prompty na bazie outputów
    4. Dopasuj model do zadania — nie przepłacaj za proste rzeczy

    Następne kroki

    Zobacz dokumentację konkretnych modeli (ustawienia i use cases):