Skip to content

AI & LLM

AI model integration, text generation, embeddings, and autonomous agents.

18 modules

ModuleDescription
Autonomer AgentSelbstgesteuerter KI-Agent mit Gedächtnis und zielorientiertem Verhalten
Ketten-AgentSequentielle KI-Verarbeitungskette mit mehreren Schritten
Werkzeugnutzungs-AgentAI-Agent, der Tools/Funktionen aufrufen kann
TexteinbettungenErstellen Sie Vektoreinbettungen aus Text mit KI-Modellen
KI-ExtraktionStrukturierte Daten aus Text mit KI extrahieren
Lokaler Ollama-ChatChat mit lokalem LLM über Ollama (komplett offline)
KI-GedächtnisKonversationsgedächtnis für KI-Agent
EntitätsgedächtnisEntitäten (Personen, Orte, Konzepte) aus Gesprächen extrahieren und verfolgen
Redis-GedächtnisPersistentes Konversationsgedächtnis mit Redis-Speicher
Vektor-GedächtnisSemantisches Gedächtnis mit Vektor-Embeddings für relevanten Kontextabruf
KI-ModellLLM-Modellkonfiguration für KI-Agent
AI ToolExpose a module as a tool for AI Agent
Vision-AnalyseBilder mit KI-Vision-Modellen analysieren
Claude-ChatChatnachricht an Anthropic Claude KI senden und Antwort erhalten
Google Gemini-ChatChatnachricht an Google Gemini KI senden und Antwort erhalten
OpenAI-ChatChatnachricht an OpenAI-GPT-Modelle senden
DALL-E-BildgenerierungBilder mit DALL-E generieren
KI-AgentAutonomer KI-Agent mit Multi-Port-Verbindungen (Modell, Gedächtnis, Tools)

Modules

Autonomer Agent

agent.autonomous

Selbstgesteuerter KI-Agent mit Gedächtnis und zielorientiertem Verhalten

Parameters:

NameTypeRequiredDefaultDescription
goalstringYes-Das Ziel, das der Agent erreichen soll
contextstringNo-Das Ziel, das der Agent erreichen soll
max_iterationsnumberNo5Zusätzlicher Kontext oder Einschränkungen
llm_providerselect (openai, ollama)NoopenaiMaximale Denkschritte
modelstringNogpt-4-turbo-previewModellname (z.B. gpt-4, llama2, mistral)
ollama_urlstringNohttp://localhost:11434Modellname (z.B. gpt-4, llama2, mistral)
temperaturenumberNo0.7Ollama-Server-URL (nur für Ollama-Provider)

Output:

FieldTypeDescription
resultstringKreativitätslevel (0-2)
thoughtsarrayDas Operationsergebnis
iterationsnumberDas Operationsergebnis
goal_achievedbooleanAgent-Denkschritte

Example: Research task

yaml
goal: Research the latest trends in AI and summarize the top 3
max_iterations: 5
model: gpt-4

Example: Problem solving

yaml
goal: Find the best approach to optimize database queries
context: PostgreSQL database with 10M records
max_iterations: 10

Ketten-Agent

agent.chain

Sequentielle KI-Verarbeitungskette mit mehreren Schritten

Parameters:

NameTypeRequiredDefaultDescription
inputstringYes-Anfangseingabe für die Kette
chain_stepsarrayYes-Anfangseingabe für die Kette
llm_providerselect (openai, ollama)NoopenaiArray von Verarbeitungsschritten (jeder ist eine Prompt-Vorlage)
modelstringNogpt-4-turbo-previewModellname (z.B. gpt-4, llama2, mistral)
ollama_urlstringNohttp://localhost:11434Modellname (z.B. gpt-4, llama2, mistral)
temperaturenumberNo0.7Ollama-Server-URL (nur für Ollama-Provider)

Output:

FieldTypeDescription
resultstringKreativitätslevel (0-2)
intermediate_resultsarrayDas Operationsergebnis
steps_completednumberDas Operationsergebnis

Example: Content pipeline

yaml
input: AI and machine learning trends
chain_steps: ["Generate 5 blog post ideas about: {input}", "Take the first idea and write a detailed outline: {previous}", "Write an introduction paragraph based on: {previous}"]
model: gpt-4

Example: Data analysis chain

yaml
input: User behavior data shows 60% bounce rate
chain_steps: ["Analyze what might cause this issue: {input}", "Suggest 3 solutions based on: {previous}", "Create an action plan from: {previous}"]

Werkzeugnutzungs-Agent

agent.tool_use

AI-Agent, der Tools/Funktionen aufrufen kann

Parameters:

NameTypeRequiredDefaultDescription
promptstringYes-Das Ziel oder die Aufgabe für den Agenten
toolsarrayYes-Liste der Tool-Definitionen [{name, description, parameters}]
providerselect (openai, anthropic)NoopenaiLLM-Anbieter für den Agenten
modelstringNogpt-4oZu verwendendes Modell
api_keystringNo-API-Schlüssel (fällt auf Umgebungsvariable zurück)
max_iterationsnumberNo10Maximale Anzahl von Tool-Aufrufrunden
system_promptstringNo-Optionale Systemaufforderung zur Anleitung des Agenten

Output:

FieldTypeDescription
resultstringDie endgültige Antwort des Agenten
tool_callsarrayAlle während der Ausführung getätigten Tool-Aufrufe
iterationsnumberAnzahl der abgeschlossenen Iterationen
modelstringVerwendetes Modell

Example: File Processing Agent

yaml
prompt: Read the config file and update the version number
tools: [{"name": "read_file", "description": "Read contents of a file", "parameters": {"type": "object", "properties": {"path": {"type": "string", "description": "File path"}}, "required": ["path"]}}, {"name": "write_file", "description": "Write contents to a file", "parameters": {"type": "object", "properties": {"path": {"type": "string", "description": "File path"}, "content": {"type": "string", "description": "File content"}}, "required": ["path", "content"]}}]
provider: openai
model: gpt-4o
max_iterations: 5

Texteinbettungen

ai.embed

Erstellen Sie Vektoreinbettungen aus Text mit KI-Modellen

Parameters:

NameTypeRequiredDefaultDescription
textstringYes-Text zur Einbettung
providerselect (openai, local)NoopenaiKI-Anbieter für Einbettungen
modelstringNotext-embedding-3-smallEinbettungsmodell zur Verwendung
api_keystringNo-API-Schlüssel (fällt auf Umgebungsvariable zurück)
dimensionsnumberNo-Einbettungsdimensionen (für Modelle, die dies unterstützen)

Output:

FieldTypeDescription
embeddingsarrayVektor-Einbettungsarray
modelstringModell, das für die Einbettung verwendet wird
dimensionsnumberAnzahl der Dimensionen im Einbettungsvektor
token_countnumberAnzahl der verarbeiteten Tokens

Example: Single Text Embedding

yaml
text: The quick brown fox jumps over the lazy dog
provider: openai
model: text-embedding-3-small

Example: Reduced Dimensions

yaml
text: Semantic search query
provider: openai
model: text-embedding-3-small
dimensions: 256

KI-Extraktion

ai.extract

Strukturierte Daten aus Text mit KI extrahieren

Parameters:

NameTypeRequiredDefaultDescription
textstringYes-Text, aus dem Daten extrahiert werden sollen
schemaobjectYes-JSON-Schema, das die zu extrahierenden Felder definiert
instructionsstringNo-Zusätzliche Extraktionsanweisungen
providerselect (openai, anthropic)NoopenaiZu verwendender KI-Anbieter
modelstringNogpt-4o-miniModell zur Verwendung für die Extraktion
api_keystringNo-API-Schlüssel (fällt auf Umgebungsvariable zurück)
temperaturenumberNo0Sampling-Temperatur (0-2)

Output:

FieldTypeDescription
extractedobjectExtrahierte strukturierte Daten
modelstringModell, das für die Extraktion verwendet wird
raw_responsestringRohantwort des Modells

Example: Extract Contact Info

yaml
text: John Smith is a senior engineer at Acme Corp. Email: john@acme.com
schema: {"type": "object", "properties": {"name": {"type": "string"}, "title": {"type": "string"}, "company": {"type": "string"}, "email": {"type": "string"}}}
provider: openai
model: gpt-4o-mini

Example: Extract Invoice Data

yaml
text: Invoice #1234 from Acme Corp. Total: $500.00. Due: 2024-03-01
schema: {"type": "object", "properties": {"invoice_number": {"type": "string"}, "vendor": {"type": "string"}, "total": {"type": "number"}, "due_date": {"type": "string"}}}
instructions: Extract all invoice fields. Parse amounts as numbers.

Lokaler Ollama-Chat

ai.local_ollama.chat

Chat mit lokalem LLM über Ollama (komplett offline)

Parameters:

NameTypeRequiredDefaultDescription
promptstringYes-Die Nachricht, die an das lokale LLM gesendet werden soll
modelselect (llama2, llama2:13b, llama2:70b, mistral, mixtral, codellama, codellama:13b, phi, neural-chat, starling-lm)Nollama2Die Nachricht, die an das lokale LLM gesendet werden soll
temperaturenumberNo0.7Sampling-Temperatur (0-2)
system_messagestringNo-System-Rollennachricht (optional)
ollama_urlstringNohttp://localhost:11434System-Rollennachricht (optional)
max_tokensnumberNo-Ollama-Server-URL

Output:

FieldTypeDescription
responsestringMaximale Token in der Antwort (optional, modellabhängig)
modelstringAntwort von der Operation
contextarrayAntwort von der Operation
total_durationnumberModellname oder -kennung
load_durationnumberKonversationskontext für Folgeanfragen
prompt_eval_countnumberGesamtverarbeitungsdauer
eval_countnumberModellladezeit

Example: Simple local chat

yaml
prompt: Explain quantum computing in 3 sentences
model: llama2

Example: Code generation with local model

yaml
prompt: Write a Python function to calculate fibonacci numbers
model: codellama
temperature: 0.2
system_message: You are a Python programming expert. Write clean, efficient code.

Example: Local reasoning task

yaml
prompt: What are the pros and cons of microservices architecture?
model: mistral
temperature: 0.7

KI-Gedächtnis

ai.memory

Konversationsgedächtnis für KI-Agent

Parameters:

NameTypeRequiredDefaultDescription
memory_typeselect (buffer, window, summary)YesbufferArt der Gedächtnisspeicherung
window_sizenumberNo10Anzahl der beizubehaltenden letzten Nachrichten (für Fenstergedächtnis)
session_idstringNo-Eindeutige Kennung für diese Konversationssitzung
initial_messagesarrayNo[]Vorgeladener Konversationsverlauf

Output:

FieldTypeDescription
memory_typestringVorgeladener Konversationsverlauf
session_idstringVorgeladener Konversationsverlauf
messagesarrayGedächtnistyp
configobjectSitzungskennung

Example: Simple Buffer Memory

yaml
memory_type: buffer

Example: Window Memory (last 5 messages)

yaml
memory_type: window
window_size: 5

Entitätsgedächtnis

ai.memory.entity

Entitäten (Personen, Orte, Konzepte) aus Gesprächen extrahieren und verfolgen

Parameters:

NameTypeRequiredDefaultDescription
entity_typesmultiselectNo['person', 'organization', 'location']Types of entities to extract and track
extraction_modelselect (llm, spacy, regex)YesllmModel for entity extraction
session_idstringNo-Unique identifier for this memory session
track_relationshipsbooleanNoTrueTrack relationships between entities
max_entitiesnumberNo100Maximum number of entities to remember

Output:

FieldTypeDescription
memory_typestringMaximale Anzahl zu merkender Entitäten
session_idstringMaximale Anzahl zu merkender Entitäten
entitiesobjectGedächtnistyp (Entität)
relationshipsarraySitzungskennung
configobjectVerfolgte Entitäten nach Typ

Example: People & Organizations

yaml
entity_types: ["person", "organization"]
extraction_model: llm

Example: Full Entity Tracking

yaml
entity_types: ["person", "organization", "location", "concept"]
track_relationships: true
max_entities: 200

Redis-Gedächtnis

ai.memory.redis

Persistentes Konversationsgedächtnis mit Redis-Speicher

Parameters:

NameTypeRequiredDefaultDescription
redis_urlstringYesredis://localhost:6379Redis connection URL
key_prefixstringNoflyto:memory:Prefix for all Redis keys
session_idstringYes-Unique identifier for this memory session
ttl_secondsnumberNo86400Time-to-live for memory entries (0 = no expiry)
max_messagesnumberNo100Maximum messages to store per session
load_on_startbooleanNoTrueLoad existing messages from Redis on initialization

Output:

FieldTypeDescription
memory_typestringVorhandene Nachrichten aus Redis bei Initialisierung laden
session_idstringVorhandene Nachrichten aus Redis bei Initialisierung laden
messagesarrayGedächtnistyp (redis)
connectedbooleanSitzungskennung
configobjectGeladener Nachrichtenverlauf

Example: Local Redis

yaml
redis_url: redis://localhost:6379
session_id: my-session
ttl_seconds: 3600

Example: Cloud Redis with Auth

yaml
redis_url: redis://:password@redis-cloud.example.com:6379
session_id: user-session
ttl_seconds: 86400
max_messages: 500

Vektor-Gedächtnis

ai.memory.vector

Semantisches Gedächtnis mit Vektor-Embeddings für relevanten Kontextabruf

Parameters:

NameTypeRequiredDefaultDescription
embedding_modelselect (text-embedding-3-small, text-embedding-3-large, text-embedding-ada-002, local)Yestext-embedding-3-smallModel to use for generating embeddings
top_knumberNo5Number of most relevant memories to retrieve
similarity_thresholdnumberNo0.7Minimum similarity score (0-1) for retrieval
session_idstringNo-Unique identifier for this memory session
include_metadatabooleanNoTrueInclude timestamp and other metadata with memories

Output:

FieldTypeDescription
memory_typestringZeitstempel und andere Metadaten mit Erinnerungen einschließen
session_idstringZeitstempel und andere Metadaten mit Erinnerungen einschließen
embedding_modelstringGedächtnistyp (Vektor)
configobjectSitzungskennung

Example: Default Vector Memory

yaml
embedding_model: text-embedding-3-small
top_k: 5

Example: High Precision Memory

yaml
embedding_model: text-embedding-3-large
top_k: 10
similarity_threshold: 0.85

KI-Modell

ai.model

LLM-Modellkonfiguration für KI-Agent

Parameters:

NameTypeRequiredDefaultDescription
providerselect (openai, anthropic, ollama)NoopenaiAI model provider
modelstringNogpt-4oSpecific model to use
temperaturenumberNo0.7Creativity level (0=deterministic, 1=creative)
api_keystringNo-API key (defaults to provider env var)
base_urlstringNo-Custom API base URL (for Ollama or proxies)
max_tokensnumberNo4096Maximale Token in der Antwort

Output:

FieldTypeDescription
providerstringMaximale Token in der Antwort
modelstringLLM-Provider-Name
configobjectLLM-Provider-Name

Example: OpenAI GPT-4

yaml
provider: openai
model: gpt-4o
temperature: 0.7

Example: Anthropic Claude

yaml
provider: anthropic
model: claude-3-5-sonnet-20241022
temperature: 0.5

AI Tool

ai.tool

Expose a module as a tool for AI Agent

Parameters:

NameTypeRequiredDefaultDescription
module_idstringYes-Module ID to expose as tool (e.g. http.request, data.json_parse)
tool_descriptionstringNo-Custom description for the agent (overrides module default)

Output:

FieldTypeDescription
module_idstringModule ID exposed as tool

Example: HTTP Request Tool

yaml
module_id: http.request

Example: JSON Parse Tool

yaml
module_id: data.json_parse

Vision-Analyse

ai.vision.analyze

Bilder mit KI-Vision-Modellen analysieren

Parameters:

NameTypeRequiredDefaultDescription
image_pathstringNo-Lokaler Pfad zur Bilddatei
image_urlstringNo-URL des zu analysierenden Bildes
promptstringNoDescribe this image in detailWas soll analysiert oder zum Bild gefragt werden
providerselect (openai, anthropic)NoopenaiAI-Anbieter für die Bildanalyse
modelstringNogpt-4oZu verwendendes Vision-Modell
api_keystringNo-API-Schlüssel (fällt auf Umgebungsvariable zurück)
max_tokensnumberNo1000Maximale Tokens in der Antwort
detailselect (low, high, auto)NoautoBilddetailgrad (niedrig/hoch/auto)

Output:

FieldTypeDescription
analysisstringKI-Analyse des Bildes
modelstringModell, das für die Analyse verwendet wird
providerstringAnbieter, der für die Analyse verwendet wird
tokens_usednumberAnzahl der verwendeten Tokens

Example: Analyze Screenshot

yaml
image_path: /tmp/screenshot.png
prompt: Describe what you see in this UI screenshot
provider: openai
model: gpt-4o

Example: Analyze from URL

yaml
image_url: https://example.com/photo.jpg
prompt: What objects are in this image?
provider: anthropic
model: claude-sonnet-4-20250514

Claude-Chat

api.anthropic.chat

Chatnachricht an Anthropic Claude KI senden und Antwort erhalten

Parameters:

NameTypeRequiredDefaultDescription
api_keystringNo-Anthropic-API-Schlüssel (Standard: env.ANTHROPIC_API_KEY)
modelstringNoclaude-3-5-sonnet-20241022Zu verwendendes Claude-Modell
messagesarrayYes-Array von Nachrichtenobjekten mit Rolle und Inhalt
max_tokensnumberNo1024Von der Operation zurückgegebener Inhalt
temperaturenumberNo1.0Sampling-Temperatur (0-1). Höhere Werte machen die Ausgabe zufälliger
systemstringNo-System-Prompt zur Steuerung des Claude-Verhaltens

Output:

FieldTypeDescription
contentstringSystem-Prompt zur Steuerung des Claude-Verhaltens
modelstringClaude-Antworttext
stop_reasonstringVerwendetes Modell für die Antwort
usageobjectWarum das Modell aufgehört hat zu generieren (end_turn, max_tokens, etc.)

Example: Simple question

yaml
messages: [{"role": "user", "content": "What is the capital of France?"}]
max_tokens: 100

Example: Text summarization

yaml
system: You are a helpful assistant that summarizes text concisely.
messages: [{"role": "user", "content": "Summarize this article: ${article_text}"}]
max_tokens: 500

Google Gemini-Chat

api.google_gemini.chat

Chatnachricht an Google Gemini KI senden und Antwort erhalten

Parameters:

NameTypeRequiredDefaultDescription
api_keystringNo-Google-AI-API-Schlüssel (Standard: env.GOOGLE_AI_API_KEY)
modelstringNogemini-1.5-proZu verwendendes Gemini-Modell
promptstringYes-Der Text-Prompt, der an Gemini gesendet werden soll
temperaturenumberNo1.0Steuert Zufälligkeit (0-2). Höhere Werte machen die Ausgabe zufälliger
max_output_tokensnumberNo2048Maximale Anzahl von Token in der Antwort

Output:

FieldTypeDescription
textstringGenerated text response from Gemini
modelstringModel used for generation
candidatesarrayAll candidate responses

Example: Simple question

yaml
prompt: Explain quantum computing in simple terms

Example: Content generation

yaml
prompt: Write a professional email about ${topic}
temperature: 0.7
max_output_tokens: 500

OpenAI-Chat

api.openai.chat

Chatnachricht an OpenAI-GPT-Modelle senden

Parameters:

NameTypeRequiredDefaultDescription
promptstringYes-Die Nachricht, die an GPT gesendet werden soll
modelselect (gpt-4-turbo-preview, gpt-4, gpt-3.5-turbo)Nogpt-4-turbo-previewDie Nachricht, die an GPT gesendet werden soll
temperaturenumberNo0.7Sampling-Temperatur (0-2)
max_tokensnumberNo1000Sampling-Temperatur (0-2)
system_messagestringNo-Maximale Token in der Antwort

Output:

FieldTypeDescription
responsestringSystem-Rollennachricht (optional)
modelstringAntwort von der Operation
usageobjectAntwort von der Operation

Example: Simple chat

yaml
prompt: Explain quantum computing in 3 sentences
model: gpt-3.5-turbo

Example: Code generation

yaml
prompt: Write a Python function to calculate fibonacci numbers
model: gpt-4
temperature: 0.2
system_message: You are a Python programming expert

DALL-E-Bildgenerierung

api.openai.image

Bilder mit DALL-E generieren

Parameters:

NameTypeRequiredDefaultDescription
promptstringYes-Beschreibung des zu generierenden Bildes
sizeselect (256x256, 512x512, 1024x1024, 1792x1024, 1024x1792)No1024x1024Beschreibung des zu generierenden Bildes
modelselect (dall-e-3, dall-e-2)Nodall-e-3DALL-E-Modellversion
qualityselect (standard, hd)NostandardBildqualität (nur DALL-E 3)
nnumberNo1Anzahl der zu generierenden Bilder (1-10)

Output:

FieldTypeDescription
imagesarrayList of generated images
modelstringModel name or identifier

Example: Generate artwork

yaml
prompt: A serene mountain landscape at sunset, digital art
size: 1024x1024
model: dall-e-3
quality: hd

Example: Create logo

yaml
prompt: Modern tech startup logo with blue and green colors
size: 512x512
model: dall-e-2
n: 3

KI-Agent

llm.agent

Autonomer KI-Agent mit Multi-Port-Verbindungen (Modell, Gedächtnis, Tools)

Parameters:

NameTypeRequiredDefaultDescription
prompt_sourceselect (manual, auto)NomanualWoher der Aufgaben-Prompt bezogen werden soll
taskstringNo-Die Aufgabe, die der Agent erledigen soll. Verwenden Sie {{input}}, um auf vorgelagerte Daten zu verweisen.
prompt_pathstringNo{<!-- -->{input}<!-- -->}Pfad zum Extrahieren des Prompts aus der Eingabe (z.B. {{input.message}})
join_strategyselect (first, newline, separator, json)NofirstWie Array-Eingaben behandelt werden sollen
join_separatorstringNo`

| Trennzeichen zum Verbinden von Array-Elementen | |max_input_size| number | No |10000| Maximale Zeichen für Prompt (verhindert Überlauf) | |system_prompt| string | No |You are a helpful AI agent. Use the available tools to complete the task. Think step by step.| Anweisungen für das Agent-Verhalten | |tools| array | No |[]| Liste von Modul-IDs (Alternative zum Verbinden von Tool-Knoten) | |context| object | No |{}| Liste von Modul-IDs (Alternative zum Verbinden von Tool-Knoten) | |max_iterations| number | No |10| Zusätzliche Kontextdaten für den Agent | |provider | select (openai, anthropic, ollama) | No | openai| AI model provider | |model| string | No |gpt-4o| Specific model to use | |temperature| number | No |0.3| Creativity level (0=deterministic, 1=creative) | |api_key| string | No | - | API key (defaults to provider env var) | |base_url` | string | No | - | Custom API base URL (for Ollama or proxies) |

Output:

FieldTypeDescription
okbooleanOb der Agent erfolgreich abgeschlossen hat
resultstringOb der Agent erfolgreich abgeschlossen hat
stepsarrayOb der Agent erfolgreich abgeschlossen hat
tool_callsnumberDas Endergebnis vom Agent
tokens_usednumberListe der Schritte, die der Agent unternommen hat

Example: Web Research Agent

yaml
task: Search for the latest news about AI and summarize the top 3 stories
tools: ["http.request", "data.json_parse"]
model: gpt-4o

Example: Data Processing Agent

yaml
task: Read the CSV file, filter rows where status is "active", and count them
tools: ["file.read", "data.csv_parse", "array.filter"]
model: gpt-4o

Released under the Apache 2.0 License.