Skip to content

AI & LLM

AI model integration, text generation, embeddings, and autonomous agents.

18 modules

ModuleDescription
Agent autonomicznySamodzielny agent AI z pamiecia i zachowaniem zorientowanym na cel
Agent lancuchowySekwencyjny lancuch przetwarzania AI z wieloma krokami
Agent Użycia NarzędziAgent AI, który może korzystać z narzędzi/funkcji
Osadzanie TekstuGenerowanie wektorów osadzania z tekstu za pomocą modeli AI
Wyodrębnianie AIWyodrębnianie danych strukturalnych z tekstu za pomocą AI
Lokalny czat OllamaCzat z lokalnym LLM przez Ollama (calkowicie offline)
Pamiec AIPamiec rozmowy dla agenta AI
Pamiec encjiWyodrebniaj i sledz encje (osoby, miejsca, pojecia) z rozmow
Pamiec RedisTrwala pamiec rozmowy z uzyciem magazynu Redis
Pamiec wektorowaPamiec semantyczna z uzyciem embeddingow wektorowych do pobierania odpowiedniego kontekstu
Model AIKonfiguracja modelu LLM dla agenta AI
AI ToolExpose a module as a tool for AI Agent
Analiza WizjiAnaliza obrazów za pomocą modeli wizji AI
Czat ClaudeWyslij wiadomosc czatu do Anthropic Claude AI i uzyskaj odpowiedz
Czat Google GeminiWyslij wiadomosc czatu do Google Gemini AI i uzyskaj odpowiedz
Czat OpenAIWyslij wiadomosc czatu do modeli OpenAI GPT
Generowanie obrazow DALL-EGeneruj obrazy za pomoca DALL-E
Agent AIAutonomiczny agent AI z wieloportowymi polaczeniami (model, pamiec, narzedzia)

Modules

Agent autonomiczny

agent.autonomous

Samodzielny agent AI z pamiecia i zachowaniem zorientowanym na cel

Parameters:

NameTypeRequiredDefaultDescription
goalstringYes-Cel do osiagniecia przez agenta
contextstringNo-Cel do osiagniecia przez agenta
max_iterationsnumberNo5Dodatkowy kontekst lub ograniczenia
llm_providerselect (openai, ollama)NoopenaiMaksymalna liczba krokow rozumowania
modelstringNogpt-4-turbo-previewNazwa modelu (np. gpt-4, llama2, mistral)
ollama_urlstringNohttp://localhost:11434Nazwa modelu (np. gpt-4, llama2, mistral)
temperaturenumberNo0.7URL serwera Ollama (tylko dla dostawcy ollama)

Output:

FieldTypeDescription
resultstringPoziom kreatywnosci (0-2)
thoughtsarrayWynik operacji
iterationsnumberWynik operacji
goal_achievedbooleanKroki rozumowania agenta

Example: Research task

yaml
goal: Research the latest trends in AI and summarize the top 3
max_iterations: 5
model: gpt-4

Example: Problem solving

yaml
goal: Find the best approach to optimize database queries
context: PostgreSQL database with 10M records
max_iterations: 10

Agent lancuchowy

agent.chain

Sekwencyjny lancuch przetwarzania AI z wieloma krokami

Parameters:

NameTypeRequiredDefaultDescription
inputstringYes-Poczatkowe dane wejsciowe dla lancucha
chain_stepsarrayYes-Poczatkowe dane wejsciowe dla lancucha
llm_providerselect (openai, ollama)NoopenaiTablica krokow przetwarzania (kazdy jest szablonem promptu)
modelstringNogpt-4-turbo-previewNazwa modelu (np. gpt-4, llama2, mistral)
ollama_urlstringNohttp://localhost:11434Nazwa modelu (np. gpt-4, llama2, mistral)
temperaturenumberNo0.7URL serwera Ollama (tylko dla dostawcy ollama)

Output:

FieldTypeDescription
resultstringPoziom kreatywnosci (0-2)
intermediate_resultsarrayWynik operacji
steps_completednumberWynik operacji

Example: Content pipeline

yaml
input: AI and machine learning trends
chain_steps: ["Generate 5 blog post ideas about: {input}", "Take the first idea and write a detailed outline: {previous}", "Write an introduction paragraph based on: {previous}"]
model: gpt-4

Example: Data analysis chain

yaml
input: User behavior data shows 60% bounce rate
chain_steps: ["Analyze what might cause this issue: {input}", "Suggest 3 solutions based on: {previous}", "Create an action plan from: {previous}"]

Agent Użycia Narzędzi

agent.tool_use

Agent AI, który może korzystać z narzędzi/funkcji

Parameters:

NameTypeRequiredDefaultDescription
promptstringYes-Cel lub zadanie dla agenta
toolsarrayYes-Lista definicji narzędzi [{name, description, parameters}]
providerselect (openai, anthropic)NoopenaiDostawca LLM dla agenta
modelstringNogpt-4oModel do użycia
api_keystringNo-Klucz API (domyślnie zmienna środowiskowa)
max_iterationsnumberNo10Maksymalna liczba rund wywołań narzędzi
system_promptstringNo-Opcjonalna systemowa podpowiedź do kierowania agentem

Output:

FieldTypeDescription
resultstringOstateczna odpowiedź agenta
tool_callsarrayWszystkie wywołania narzędzi wykonane podczas działania
iterationsnumberLiczba ukończonych iteracji
modelstringUżyty model

Example: File Processing Agent

yaml
prompt: Read the config file and update the version number
tools: [{"name": "read_file", "description": "Read contents of a file", "parameters": {"type": "object", "properties": {"path": {"type": "string", "description": "File path"}}, "required": ["path"]}}, {"name": "write_file", "description": "Write contents to a file", "parameters": {"type": "object", "properties": {"path": {"type": "string", "description": "File path"}, "content": {"type": "string", "description": "File content"}}, "required": ["path", "content"]}}]
provider: openai
model: gpt-4o
max_iterations: 5

Osadzanie Tekstu

ai.embed

Generowanie wektorów osadzania z tekstu za pomocą modeli AI

Parameters:

NameTypeRequiredDefaultDescription
textstringYes-Tekst do osadzenia
providerselect (openai, local)NoopenaiDostawca AI dla osadzania
modelstringNotext-embedding-3-smallModel osadzania do użycia
api_keystringNo-Klucz API (domyślnie zmienna środowiskowa)
dimensionsnumberNo-Wymiary osadzania (dla modeli, które to obsługują)

Output:

FieldTypeDescription
embeddingsarrayTablica wektorów osadzania
modelstringModel używany do osadzania
dimensionsnumberLiczba wymiarów wektora osadzania
token_countnumberLiczba przetworzonych tokenów

Example: Single Text Embedding

yaml
text: The quick brown fox jumps over the lazy dog
provider: openai
model: text-embedding-3-small

Example: Reduced Dimensions

yaml
text: Semantic search query
provider: openai
model: text-embedding-3-small
dimensions: 256

Wyodrębnianie AI

ai.extract

Wyodrębnianie danych strukturalnych z tekstu za pomocą AI

Parameters:

NameTypeRequiredDefaultDescription
textstringYes-Tekst, z którego wyodrębnia się dane
schemaobjectYes-Schemat JSON definiujący pola do wyodrębnienia
instructionsstringNo-Dodatkowe instrukcje wyodrębniania
providerselect (openai, anthropic)NoopenaiDostawca AI do użycia
modelstringNogpt-4o-miniModel do użycia do wyodrębniania
api_keystringNo-Klucz API (domyślnie zmienna środowiskowa)
temperaturenumberNo0Temperatura próbkowania (0-2)

Output:

FieldTypeDescription
extractedobjectWyodrębnione dane strukturalne
modelstringModel używany do wyodrębniania
raw_responsestringSurowa odpowiedź modelu

Example: Extract Contact Info

yaml
text: John Smith is a senior engineer at Acme Corp. Email: john@acme.com
schema: {"type": "object", "properties": {"name": {"type": "string"}, "title": {"type": "string"}, "company": {"type": "string"}, "email": {"type": "string"}}}
provider: openai
model: gpt-4o-mini

Example: Extract Invoice Data

yaml
text: Invoice #1234 from Acme Corp. Total: $500.00. Due: 2024-03-01
schema: {"type": "object", "properties": {"invoice_number": {"type": "string"}, "vendor": {"type": "string"}, "total": {"type": "number"}, "due_date": {"type": "string"}}}
instructions: Extract all invoice fields. Parse amounts as numbers.

Lokalny czat Ollama

ai.local_ollama.chat

Czat z lokalnym LLM przez Ollama (calkowicie offline)

Parameters:

NameTypeRequiredDefaultDescription
promptstringYes-Wiadomosc do wyslania do lokalnego LLM
modelselect (llama2, llama2:13b, llama2:70b, mistral, mixtral, codellama, codellama:13b, phi, neural-chat, starling-lm)Nollama2Wiadomosc do wyslania do lokalnego LLM
temperaturenumberNo0.7Temperatura probkowania (0-2)
system_messagestringNo-Wiadomosc roli systemowej (opcjonalne)
ollama_urlstringNohttp://localhost:11434Wiadomosc roli systemowej (opcjonalne)
max_tokensnumberNo-URL serwera Ollama

Output:

FieldTypeDescription
responsestringMaksymalna liczba tokenow w odpowiedzi (opcjonalne, zalezy od modelu)
modelstringOdpowiedz z operacji
contextarrayOdpowiedz z operacji
total_durationnumberNazwa lub identyfikator modelu
load_durationnumberKontekst rozmowy dla kolejnych zapytan
prompt_eval_countnumberCalkowity czas przetwarzania
eval_countnumberCzas ladowania modelu

Example: Simple local chat

yaml
prompt: Explain quantum computing in 3 sentences
model: llama2

Example: Code generation with local model

yaml
prompt: Write a Python function to calculate fibonacci numbers
model: codellama
temperature: 0.2
system_message: You are a Python programming expert. Write clean, efficient code.

Example: Local reasoning task

yaml
prompt: What are the pros and cons of microservices architecture?
model: mistral
temperature: 0.7

Pamiec AI

ai.memory

Pamiec rozmowy dla agenta AI

Parameters:

NameTypeRequiredDefaultDescription
memory_typeselect (buffer, window, summary)YesbufferTyp przechowywania pamieci
window_sizenumberNo10Liczba ostatnich wiadomosci do zachowania (dla pamieci okna)
session_idstringNo-Unikalny identyfikator dla tej sesji rozmowy
initial_messagesarrayNo[]Wstepnie zaladowana historia rozmowy

Output:

FieldTypeDescription
memory_typestringWstepnie zaladowana historia rozmowy
session_idstringWstepnie zaladowana historia rozmowy
messagesarrayTyp pamieci
configobjectIdentyfikator sesji

Example: Simple Buffer Memory

yaml
memory_type: buffer

Example: Window Memory (last 5 messages)

yaml
memory_type: window
window_size: 5

Pamiec encji

ai.memory.entity

Wyodrebniaj i sledz encje (osoby, miejsca, pojecia) z rozmow

Parameters:

NameTypeRequiredDefaultDescription
entity_typesmultiselectNo['person', 'organization', 'location']Types of entities to extract and track
extraction_modelselect (llm, spacy, regex)YesllmModel for entity extraction
session_idstringNo-Unique identifier for this memory session
track_relationshipsbooleanNoTrueTrack relationships between entities
max_entitiesnumberNo100Maximum number of entities to remember

Output:

FieldTypeDescription
memory_typestringMaksymalna liczba encji do zapamietania
session_idstringMaksymalna liczba encji do zapamietania
entitiesobjectTyp pamieci (encja)
relationshipsarrayIdentyfikator sesji
configobjectSledzone encje wedlug typu

Example: People & Organizations

yaml
entity_types: ["person", "organization"]
extraction_model: llm

Example: Full Entity Tracking

yaml
entity_types: ["person", "organization", "location", "concept"]
track_relationships: true
max_entities: 200

Pamiec Redis

ai.memory.redis

Trwala pamiec rozmowy z uzyciem magazynu Redis

Parameters:

NameTypeRequiredDefaultDescription
redis_urlstringYesredis://localhost:6379Redis connection URL
key_prefixstringNoflyto:memory:Prefix for all Redis keys
session_idstringYes-Unique identifier for this memory session
ttl_secondsnumberNo86400Time-to-live for memory entries (0 = no expiry)
max_messagesnumberNo100Maximum messages to store per session
load_on_startbooleanNoTrueLoad existing messages from Redis on initialization

Output:

FieldTypeDescription
memory_typestringLaduj istniejace wiadomosci z Redis przy inicjalizacji
session_idstringLaduj istniejace wiadomosci z Redis przy inicjalizacji
messagesarrayTyp pamieci (redis)
connectedbooleanIdentyfikator sesji
configobjectZaladowana historia wiadomosci

Example: Local Redis

yaml
redis_url: redis://localhost:6379
session_id: my-session
ttl_seconds: 3600

Example: Cloud Redis with Auth

yaml
redis_url: redis://:password@redis-cloud.example.com:6379
session_id: user-session
ttl_seconds: 86400
max_messages: 500

Pamiec wektorowa

ai.memory.vector

Pamiec semantyczna z uzyciem embeddingow wektorowych do pobierania odpowiedniego kontekstu

Parameters:

NameTypeRequiredDefaultDescription
embedding_modelselect (text-embedding-3-small, text-embedding-3-large, text-embedding-ada-002, local)Yestext-embedding-3-smallModel to use for generating embeddings
top_knumberNo5Number of most relevant memories to retrieve
similarity_thresholdnumberNo0.7Minimum similarity score (0-1) for retrieval
session_idstringNo-Unique identifier for this memory session
include_metadatabooleanNoTrueInclude timestamp and other metadata with memories

Output:

FieldTypeDescription
memory_typestringDolacz znacznik czasu i inne metadane do wspomnien
session_idstringDolacz znacznik czasu i inne metadane do wspomnien
embedding_modelstringTyp pamieci (wektor)
configobjectIdentyfikator sesji

Example: Default Vector Memory

yaml
embedding_model: text-embedding-3-small
top_k: 5

Example: High Precision Memory

yaml
embedding_model: text-embedding-3-large
top_k: 10
similarity_threshold: 0.85

Model AI

ai.model

Konfiguracja modelu LLM dla agenta AI

Parameters:

NameTypeRequiredDefaultDescription
providerselect (openai, anthropic, ollama)NoopenaiAI model provider
modelstringNogpt-4oSpecific model to use
temperaturenumberNo0.7Creativity level (0=deterministic, 1=creative)
api_keystringNo-API key (defaults to provider env var)
base_urlstringNo-Custom API base URL (for Ollama or proxies)
max_tokensnumberNo4096Maksymalna liczba tokenow w odpowiedzi

Output:

FieldTypeDescription
providerstringMaksymalna liczba tokenow w odpowiedzi
modelstringNazwa dostawcy LLM
configobjectNazwa dostawcy LLM

Example: OpenAI GPT-4

yaml
provider: openai
model: gpt-4o
temperature: 0.7

Example: Anthropic Claude

yaml
provider: anthropic
model: claude-3-5-sonnet-20241022
temperature: 0.5

AI Tool

ai.tool

Expose a module as a tool for AI Agent

Parameters:

NameTypeRequiredDefaultDescription
module_idstringYes-Module ID to expose as tool (e.g. http.request, data.json_parse)
tool_descriptionstringNo-Custom description for the agent (overrides module default)

Output:

FieldTypeDescription
module_idstringModule ID exposed as tool

Example: HTTP Request Tool

yaml
module_id: http.request

Example: JSON Parse Tool

yaml
module_id: data.json_parse

Analiza Wizji

ai.vision.analyze

Analiza obrazów za pomocą modeli wizji AI

Parameters:

NameTypeRequiredDefaultDescription
image_pathstringNo-Lokalna ścieżka do pliku obrazu
image_urlstringNo-URL obrazu do analizy
promptstringNoDescribe this image in detailCo analizować lub pytać o obraz
providerselect (openai, anthropic)NoopenaiDostawca AI do analizy wizji
modelstringNogpt-4oModel wizji do użycia
api_keystringNo-Klucz API (domyślnie zmienna środowiskowa)
max_tokensnumberNo1000Maksymalna liczba tokenów w odpowiedzi
detailselect (low, high, auto)NoautoPoziom szczegółowości obrazu (niski/wysoki/auto)

Output:

FieldTypeDescription
analysisstringAnaliza AI obrazu
modelstringModel używany do analizy
providerstringDostawca używany do analizy
tokens_usednumberLiczba użytych tokenów

Example: Analyze Screenshot

yaml
image_path: /tmp/screenshot.png
prompt: Describe what you see in this UI screenshot
provider: openai
model: gpt-4o

Example: Analyze from URL

yaml
image_url: https://example.com/photo.jpg
prompt: What objects are in this image?
provider: anthropic
model: claude-sonnet-4-20250514

Czat Claude

api.anthropic.chat

Wyslij wiadomosc czatu do Anthropic Claude AI i uzyskaj odpowiedz

Parameters:

NameTypeRequiredDefaultDescription
api_keystringNo-Klucz API Anthropic (domyslnie env.ANTHROPIC_API_KEY)
modelstringNoclaude-3-5-sonnet-20241022Model Claude do uzycia
messagesarrayYes-Tablica obiektow wiadomosci z rola i trescia
max_tokensnumberNo1024Tresc zwrocona przez operacje
temperaturenumberNo1.0Temperatura probkowania (0-1). Wyzsze wartosci czynia wynik bardziej losowym
systemstringNo-Prompt systemowy do kierowania zachowaniem Claude

Output:

FieldTypeDescription
contentstringPrompt systemowy do kierowania zachowaniem Claude
modelstringTekst odpowiedzi Claude
stop_reasonstringModel uzyty do odpowiedzi
usageobjectDlaczego model przestal generowac (end_turn, max_tokens, itd.)

Example: Simple question

yaml
messages: [{"role": "user", "content": "What is the capital of France?"}]
max_tokens: 100

Example: Text summarization

yaml
system: You are a helpful assistant that summarizes text concisely.
messages: [{"role": "user", "content": "Summarize this article: ${article_text}"}]
max_tokens: 500

Czat Google Gemini

api.google_gemini.chat

Wyslij wiadomosc czatu do Google Gemini AI i uzyskaj odpowiedz

Parameters:

NameTypeRequiredDefaultDescription
api_keystringNo-Klucz API Google AI (domyslnie env.GOOGLE_AI_API_KEY)
modelstringNogemini-1.5-proModel Gemini do uzycia
promptstringYes-Tekstowy prompt do wyslania do Gemini
temperaturenumberNo1.0Kontroluje losowosc (0-2). Wyzsze wartosci czynia wynik bardziej losowym
max_output_tokensnumberNo2048Maksymalna liczba tokenow w odpowiedzi

Output:

FieldTypeDescription
textstringGenerated text response from Gemini
modelstringModel used for generation
candidatesarrayAll candidate responses

Example: Simple question

yaml
prompt: Explain quantum computing in simple terms

Example: Content generation

yaml
prompt: Write a professional email about ${topic}
temperature: 0.7
max_output_tokens: 500

Czat OpenAI

api.openai.chat

Wyslij wiadomosc czatu do modeli OpenAI GPT

Parameters:

NameTypeRequiredDefaultDescription
promptstringYes-Wiadomosc do wyslania do GPT
modelselect (gpt-4-turbo-preview, gpt-4, gpt-3.5-turbo)Nogpt-4-turbo-previewWiadomosc do wyslania do GPT
temperaturenumberNo0.7Temperatura probkowania (0-2)
max_tokensnumberNo1000Temperatura probkowania (0-2)
system_messagestringNo-Maksymalna liczba tokenow w odpowiedzi

Output:

FieldTypeDescription
responsestringWiadomosc roli systemowej (opcjonalne)
modelstringOdpowiedz z operacji
usageobjectOdpowiedz z operacji

Example: Simple chat

yaml
prompt: Explain quantum computing in 3 sentences
model: gpt-3.5-turbo

Example: Code generation

yaml
prompt: Write a Python function to calculate fibonacci numbers
model: gpt-4
temperature: 0.2
system_message: You are a Python programming expert

Generowanie obrazow DALL-E

api.openai.image

Generuj obrazy za pomoca DALL-E

Parameters:

NameTypeRequiredDefaultDescription
promptstringYes-Opis obrazu do wygenerowania
sizeselect (256x256, 512x512, 1024x1024, 1792x1024, 1024x1792)No1024x1024Opis obrazu do wygenerowania
modelselect (dall-e-3, dall-e-2)Nodall-e-3Wersja modelu DALL-E
qualityselect (standard, hd)NostandardJakosc obrazu (tylko DALL-E 3)
nnumberNo1Liczba obrazow do wygenerowania (1-10)

Output:

FieldTypeDescription
imagesarrayList of generated images
modelstringModel name or identifier

Example: Generate artwork

yaml
prompt: A serene mountain landscape at sunset, digital art
size: 1024x1024
model: dall-e-3
quality: hd

Example: Create logo

yaml
prompt: Modern tech startup logo with blue and green colors
size: 512x512
model: dall-e-2
n: 3

Agent AI

llm.agent

Autonomiczny agent AI z wieloportowymi polaczeniami (model, pamiec, narzedzia)

Parameters:

NameTypeRequiredDefaultDescription
prompt_sourceselect (manual, auto)NomanualSkad pobrac prompt zadania
taskstringNo-Zadanie do wykonania przez agenta. Uzyj {{input}} aby odwolac sie do danych upstream.
prompt_pathstringNo{<!-- -->{input}<!-- -->}Sciezka do wyodrebnienia promptu z wejscia (np. {{input.message}})
join_strategyselect (first, newline, separator, json)NofirstJak obslugiwac dane wejsciowe tablicy
join_separatorstringNo`

| Separator do laczenia elementow tablicy | |max_input_size| number | No |10000| Maksymalna liczba znakow dla promptu (zapobiega przepelnieniu) | |system_prompt| string | No |You are a helpful AI agent. Use the available tools to complete the task. Think step by step.| Instrukcje dla zachowania agenta | |tools| array | No |[]| Lista ID modulow (alternatywa dla laczenia wezlow narzedzi) | |context| object | No |{}| Lista ID modulow (alternatywa dla laczenia wezlow narzedzi) | |max_iterations| number | No |10| Dodatkowe dane kontekstowe dla agenta | |provider | select (openai, anthropic, ollama) | No | openai| AI model provider | |model| string | No |gpt-4o| Specific model to use | |temperature| number | No |0.3| Creativity level (0=deterministic, 1=creative) | |api_key| string | No | - | API key (defaults to provider env var) | |base_url` | string | No | - | Custom API base URL (for Ollama or proxies) |

Output:

FieldTypeDescription
okbooleanCzy agent zakonczyl pomyslnie
resultstringCzy agent zakonczyl pomyslnie
stepsarrayCzy agent zakonczyl pomyslnie
tool_callsnumberKoncowy wynik od agenta
tokens_usednumberLista krokow wykonanych przez agenta

Example: Web Research Agent

yaml
task: Search for the latest news about AI and summarize the top 3 stories
tools: ["http.request", "data.json_parse"]
model: gpt-4o

Example: Data Processing Agent

yaml
task: Read the CSV file, filter rows where status is "active", and count them
tools: ["file.read", "data.csv_parse", "array.filter"]
model: gpt-4o

Released under the Apache 2.0 License.