Modele tekstowe
Modele tekstowe w Armox to potężne duże modele językowe (LLM), które potrafią generować, analizować i przekształcać tekst. Wiele z nich obsługuje też multimodalne inputs, np. obrazy i wideo.
Overview
Modele tekstowe są fundamentem inteligentnych workflow. Używaj ich do:
- Generate content — artykuły, skrypty, copy marketingowe i więcej
- Analyze and reason — analiza złożonych informacji i wnioski
- Transform text — przepisywanie, streszczanie, tłumaczenie, rozwijanie
- Understand media — analiza obrazów i wideo (modele z vision)
Dostępne modele tekstowe
| Model | Provider | Koszt | Vision | Najlepszy do |
|---|---|---|---|---|
| GPT-5 | OpenAI | 20 credits | ✅ | złożone rozumowanie, szczegółowa analiza |
| Gemini 2.5 Flash | 10 credits | ✅ Images & Video | szybkie zadania multimodalne | |
| Claude 4.5 Sonnet | Anthropic | 30 credits | ✅ | long-form, niuansowe pisanie |
| DeepSeek V3.1 | DeepSeek | 10 credits | ❌ | opłacalne rozumowanie |
| Grok 4 | xAI | 20 credits | ❌ | rozwiązywanie problemów, zadania techniczne |
| Llama 3 70B | Meta | 14 credits | ❌ | open-source, wszechstronny |
| Llama 3 8B | Meta | 2 credits | ❌ | szybki, budżetowy |
Kolory połączeń
W Armox Canvas połączenia tekstowe używają blue uchwytów i krawędzi:
- Input Handle: blue kółko po lewej stronie węzłów
- Output Handle: blue kółko po prawej stronie węzłów
- Connection Edge: blue linia łącząca węzły
Typowe ustawienia
Większość modeli tekstowych ma podobne opcje konfiguracyjne:
System Prompt
Ustaw zachowanie i „personę” modelu. To jak opis stanowiska dla AI zanim zacznie pracę.
Max Tokens
Kontroluje maksymalną długość odpowiedzi. Wyższe wartości = dłuższy output, ale zwykle też wyższy koszt.
Temperature
Dostosuj kreatywność vs. spójność:
- Low (0.0-0.3): spójne, skupione odpowiedzi
- Medium (0.4-0.7): zbalansowana kreatywność
- High (0.8-2.0): bardziej kreatywne, zróżnicowane odpowiedzi
Top P (Nucleus Sampling)
Dostrajanie różnorodności odpowiedzi. Niższe wartości dają bardziej deterministyczne wyniki.
Jak wybrać właściwy model
Dla szybkości i kosztu
- Llama 3 8B (2 credits) — najszybszy i najtańszy
- DeepSeek V3.1 (10 credits) — dobry balans szybkość/możliwości
- Gemini 2.5 Flash (10 credits) — szybko + vision
Dla jakości
- GPT-5 (20 credits) — najlepszy do złożonego rozumowania
- Claude 4.5 Sonnet (30 credits) — świetny do pisania i niuansów
- Grok 4 (20 credits) — mocny problem-solving
Dla zadań z vision
- Gemini 2.5 Flash — obrazy i wideo, szybkie przetwarzanie
- GPT-5 — wiele obrazów, szczegółowa analiza
- Claude 4.5 Sonnet — pojedynczy obraz, głębokie zrozumienie
Best practices
- Bądź konkretny/a — jasne prompty dają lepsze wyniki
- Używaj system prompts — ustaw kontekst i oczekiwania
- Iteruj — poprawiaj prompty na bazie outputów
- Dopasuj model do zadania — nie przepłacaj za proste rzeczy
Następne kroki
Zobacz dokumentację konkretnych modeli (ustawienia i use cases):