Skip to content

AI & LLM

AI model integration, text generation, embeddings, and autonomous agents.

18 modules

ModuleDescription
Agente autonomoAgente de IA auto-dirigido con memoria y comportamiento orientado a objetivos
Agente de cadenaCadena de procesamiento de IA secuencial con multiples pasos
Agente de Uso de HerramientasAgente de IA que puede llamar herramientas/funciones
Incrustaciones de TextoGenerar incrustaciones vectoriales a partir de texto usando modelos de IA
Extracción de IAExtraer datos estructurados del texto usando IA
Chat local OllamaChatear con LLM local via Ollama (completamente sin conexion)
Memoria de IAMemoria de conversacion para agente de IA
Memoria de entidadesExtraer y rastrear entidades (personas, lugares, conceptos) de conversaciones
Memoria RedisMemoria de conversacion persistente usando almacenamiento Redis
Memoria vectorialMemoria semantica usando embeddings vectoriales para recuperacion de contexto relevante
Modelo de IAConfiguracion de modelo LLM para agente de IA
AI ToolExpose a module as a tool for AI Agent
Análisis de VisiónAnalizar imágenes usando modelos de visión de IA
Chat de ClaudeEnviar un mensaje de chat a Anthropic Claude AI y obtener una respuesta
Chat de Google GeminiEnviar un mensaje de chat a Google Gemini AI y obtener una respuesta
Chat de OpenAIEnviar un mensaje de chat a modelos GPT de OpenAI
Generacion de imagen DALL-EGenerar imagenes usando DALL-E
Agente de IAAgente de IA autonomo con conexiones multi-puerto (modelo, memoria, herramientas)

Modules

Agente autonomo

agent.autonomous

Agente de IA auto-dirigido con memoria y comportamiento orientado a objetivos

Parameters:

NameTypeRequiredDefaultDescription
goalstringYes-El objetivo para que el agente logre
contextstringNo-El objetivo para que el agente logre
max_iterationsnumberNo5Contexto o restricciones adicionales
llm_providerselect (openai, ollama)NoopenaiMaximo de pasos de razonamiento
modelstringNogpt-4-turbo-previewNombre del modelo (ej., gpt-4, llama2, mistral)
ollama_urlstringNohttp://localhost:11434Nombre del modelo (ej., gpt-4, llama2, mistral)
temperaturenumberNo0.7URL del servidor Ollama (solo para proveedor ollama)

Output:

FieldTypeDescription
resultstringNivel de creatividad (0-2)
thoughtsarrayEl resultado de la operacion
iterationsnumberEl resultado de la operacion
goal_achievedbooleanPasos de razonamiento del agente

Example: Research task

yaml
goal: Research the latest trends in AI and summarize the top 3
max_iterations: 5
model: gpt-4

Example: Problem solving

yaml
goal: Find the best approach to optimize database queries
context: PostgreSQL database with 10M records
max_iterations: 10

Agente de cadena

agent.chain

Cadena de procesamiento de IA secuencial con multiples pasos

Parameters:

NameTypeRequiredDefaultDescription
inputstringYes-Entrada inicial para la cadena
chain_stepsarrayYes-Entrada inicial para la cadena
llm_providerselect (openai, ollama)NoopenaiArray de pasos de procesamiento (cada uno es una plantilla de prompt)
modelstringNogpt-4-turbo-previewNombre del modelo (ej., gpt-4, llama2, mistral)
ollama_urlstringNohttp://localhost:11434Nombre del modelo (ej., gpt-4, llama2, mistral)
temperaturenumberNo0.7URL del servidor Ollama (solo para proveedor ollama)

Output:

FieldTypeDescription
resultstringNivel de creatividad (0-2)
intermediate_resultsarrayEl resultado de la operacion
steps_completednumberEl resultado de la operacion

Example: Content pipeline

yaml
input: AI and machine learning trends
chain_steps: ["Generate 5 blog post ideas about: {input}", "Take the first idea and write a detailed outline: {previous}", "Write an introduction paragraph based on: {previous}"]
model: gpt-4

Example: Data analysis chain

yaml
input: User behavior data shows 60% bounce rate
chain_steps: ["Analyze what might cause this issue: {input}", "Suggest 3 solutions based on: {previous}", "Create an action plan from: {previous}"]

Agente de Uso de Herramientas

agent.tool_use

Agente de IA que puede llamar herramientas/funciones

Parameters:

NameTypeRequiredDefaultDescription
promptstringYes-El objetivo o tarea para el agente
toolsarrayYes-Lista de definiciones de herramientas [{nombre, descripción, parámetros}]
providerselect (openai, anthropic)NoopenaiProveedor de LLM para el agente
modelstringNogpt-4oModelo a utilizar
api_keystringNo-Clave API (recurre a la variable de entorno)
max_iterationsnumberNo10Número máximo de rondas de llamadas a herramientas
system_promptstringNo-Instrucción del sistema opcional para guiar al agente

Output:

FieldTypeDescription
resultstringLa respuesta final del agente
tool_callsarrayTodas las llamadas a herramientas realizadas durante la ejecución
iterationsnumberNúmero de iteraciones completadas
modelstringModelo utilizado

Example: File Processing Agent

yaml
prompt: Read the config file and update the version number
tools: [{"name": "read_file", "description": "Read contents of a file", "parameters": {"type": "object", "properties": {"path": {"type": "string", "description": "File path"}}, "required": ["path"]}}, {"name": "write_file", "description": "Write contents to a file", "parameters": {"type": "object", "properties": {"path": {"type": "string", "description": "File path"}, "content": {"type": "string", "description": "File content"}}, "required": ["path", "content"]}}]
provider: openai
model: gpt-4o
max_iterations: 5

Incrustaciones de Texto

ai.embed

Generar incrustaciones vectoriales a partir de texto usando modelos de IA

Parameters:

NameTypeRequiredDefaultDescription
textstringYes-Texto a incrustar
providerselect (openai, local)NoopenaiProveedor de IA para incrustaciones
modelstringNotext-embedding-3-smallModelo de incrustación a usar
api_keystringNo-Clave API (usa la variable de entorno si no se proporciona)
dimensionsnumberNo-Dimensiones de incrustación (para modelos que lo soportan)

Output:

FieldTypeDescription
embeddingsarrayArray de incrustación vectorial
modelstringModelo usado para la incrustación
dimensionsnumberNúmero de dimensiones en el vector de incrustación
token_countnumberNúmero de tokens procesados

Example: Single Text Embedding

yaml
text: The quick brown fox jumps over the lazy dog
provider: openai
model: text-embedding-3-small

Example: Reduced Dimensions

yaml
text: Semantic search query
provider: openai
model: text-embedding-3-small
dimensions: 256

Extracción de IA

ai.extract

Extraer datos estructurados del texto usando IA

Parameters:

NameTypeRequiredDefaultDescription
textstringYes-Texto del cual extraer datos
schemaobjectYes-Esquema JSON que define los campos a extraer
instructionsstringNo-Instrucciones adicionales de extracción
providerselect (openai, anthropic)NoopenaiProveedor de IA a usar
modelstringNogpt-4o-miniModelo a usar para la extracción
api_keystringNo-Clave API (usa la variable de entorno si no se proporciona)
temperaturenumberNo0Temperatura de muestreo (0-2)

Output:

FieldTypeDescription
extractedobjectDatos estructurados extraídos
modelstringModelo usado para la extracción
raw_responsestringRespuesta cruda del modelo

Example: Extract Contact Info

yaml
text: John Smith is a senior engineer at Acme Corp. Email: john@acme.com
schema: {"type": "object", "properties": {"name": {"type": "string"}, "title": {"type": "string"}, "company": {"type": "string"}, "email": {"type": "string"}}}
provider: openai
model: gpt-4o-mini

Example: Extract Invoice Data

yaml
text: Invoice #1234 from Acme Corp. Total: $500.00. Due: 2024-03-01
schema: {"type": "object", "properties": {"invoice_number": {"type": "string"}, "vendor": {"type": "string"}, "total": {"type": "number"}, "due_date": {"type": "string"}}}
instructions: Extract all invoice fields. Parse amounts as numbers.

Chat local Ollama

ai.local_ollama.chat

Chatear con LLM local via Ollama (completamente sin conexion)

Parameters:

NameTypeRequiredDefaultDescription
promptstringYes-El mensaje a enviar al LLM local
modelselect (llama2, llama2:13b, llama2:70b, mistral, mixtral, codellama, codellama:13b, phi, neural-chat, starling-lm)Nollama2El mensaje a enviar al LLM local
temperaturenumberNo0.7Temperatura de muestreo (0-2)
system_messagestringNo-Mensaje de rol del sistema (opcional)
ollama_urlstringNohttp://localhost:11434Mensaje de rol del sistema (opcional)
max_tokensnumberNo-URL del servidor Ollama

Output:

FieldTypeDescription
responsestringMaximo de tokens en respuesta (opcional, depende del modelo)
modelstringRespuesta de la operacion
contextarrayRespuesta de la operacion
total_durationnumberNombre o identificador del modelo
load_durationnumberContexto de conversacion para solicitudes de seguimiento
prompt_eval_countnumberDuracion total de procesamiento
eval_countnumberDuracion de carga del modelo

Example: Simple local chat

yaml
prompt: Explain quantum computing in 3 sentences
model: llama2

Example: Code generation with local model

yaml
prompt: Write a Python function to calculate fibonacci numbers
model: codellama
temperature: 0.2
system_message: You are a Python programming expert. Write clean, efficient code.

Example: Local reasoning task

yaml
prompt: What are the pros and cons of microservices architecture?
model: mistral
temperature: 0.7

Memoria de IA

ai.memory

Memoria de conversacion para agente de IA

Parameters:

NameTypeRequiredDefaultDescription
memory_typeselect (buffer, window, summary)YesbufferTipo de almacenamiento de memoria
window_sizenumberNo10Numero de mensajes recientes a mantener (para memoria de ventana)
session_idstringNo-Identificador unico para esta sesion de conversacion
initial_messagesarrayNo[]Historial de conversacion precargado

Output:

FieldTypeDescription
memory_typestringHistorial de conversacion precargado
session_idstringHistorial de conversacion precargado
messagesarrayTipo de memoria
configobjectIdentificador de sesion

Example: Simple Buffer Memory

yaml
memory_type: buffer

Example: Window Memory (last 5 messages)

yaml
memory_type: window
window_size: 5

Memoria de entidades

ai.memory.entity

Extraer y rastrear entidades (personas, lugares, conceptos) de conversaciones

Parameters:

NameTypeRequiredDefaultDescription
entity_typesmultiselectNo['person', 'organization', 'location']Types of entities to extract and track
extraction_modelselect (llm, spacy, regex)YesllmModel for entity extraction
session_idstringNo-Unique identifier for this memory session
track_relationshipsbooleanNoTrueTrack relationships between entities
max_entitiesnumberNo100Maximum number of entities to remember

Output:

FieldTypeDescription
memory_typestringMaximo numero de entidades a recordar
session_idstringMaximo numero de entidades a recordar
entitiesobjectTipo de memoria (entidad)
relationshipsarrayIdentificador de sesion
configobjectEntidades rastreadas por tipo

Example: People & Organizations

yaml
entity_types: ["person", "organization"]
extraction_model: llm

Example: Full Entity Tracking

yaml
entity_types: ["person", "organization", "location", "concept"]
track_relationships: true
max_entities: 200

Memoria Redis

ai.memory.redis

Memoria de conversacion persistente usando almacenamiento Redis

Parameters:

NameTypeRequiredDefaultDescription
redis_urlstringYesredis://localhost:6379Redis connection URL
key_prefixstringNoflyto:memory:Prefix for all Redis keys
session_idstringYes-Unique identifier for this memory session
ttl_secondsnumberNo86400Time-to-live for memory entries (0 = no expiry)
max_messagesnumberNo100Maximum messages to store per session
load_on_startbooleanNoTrueLoad existing messages from Redis on initialization

Output:

FieldTypeDescription
memory_typestringCargar mensajes existentes de Redis en inicializacion
session_idstringCargar mensajes existentes de Redis en inicializacion
messagesarrayTipo de memoria (redis)
connectedbooleanIdentificador de sesion
configobjectHistorial de mensajes cargado

Example: Local Redis

yaml
redis_url: redis://localhost:6379
session_id: my-session
ttl_seconds: 3600

Example: Cloud Redis with Auth

yaml
redis_url: redis://:password@redis-cloud.example.com:6379
session_id: user-session
ttl_seconds: 86400
max_messages: 500

Memoria vectorial

ai.memory.vector

Memoria semantica usando embeddings vectoriales para recuperacion de contexto relevante

Parameters:

NameTypeRequiredDefaultDescription
embedding_modelselect (text-embedding-3-small, text-embedding-3-large, text-embedding-ada-002, local)Yestext-embedding-3-smallModel to use for generating embeddings
top_knumberNo5Number of most relevant memories to retrieve
similarity_thresholdnumberNo0.7Minimum similarity score (0-1) for retrieval
session_idstringNo-Unique identifier for this memory session
include_metadatabooleanNoTrueInclude timestamp and other metadata with memories

Output:

FieldTypeDescription
memory_typestringIncluir marca de tiempo y otros metadatos con memorias
session_idstringIncluir marca de tiempo y otros metadatos con memorias
embedding_modelstringTipo de memoria (vector)
configobjectIdentificador de sesion

Example: Default Vector Memory

yaml
embedding_model: text-embedding-3-small
top_k: 5

Example: High Precision Memory

yaml
embedding_model: text-embedding-3-large
top_k: 10
similarity_threshold: 0.85

Modelo de IA

ai.model

Configuracion de modelo LLM para agente de IA

Parameters:

NameTypeRequiredDefaultDescription
providerselect (openai, anthropic, ollama)NoopenaiAI model provider
modelstringNogpt-4oSpecific model to use
temperaturenumberNo0.7Creativity level (0=deterministic, 1=creative)
api_keystringNo-API key (defaults to provider env var)
base_urlstringNo-Custom API base URL (for Ollama or proxies)
max_tokensnumberNo4096Maximo de tokens en respuesta

Output:

FieldTypeDescription
providerstringMaximo de tokens en respuesta
modelstringNombre del proveedor de LLM
configobjectNombre del proveedor de LLM

Example: OpenAI GPT-4

yaml
provider: openai
model: gpt-4o
temperature: 0.7

Example: Anthropic Claude

yaml
provider: anthropic
model: claude-3-5-sonnet-20241022
temperature: 0.5

AI Tool

ai.tool

Expose a module as a tool for AI Agent

Parameters:

NameTypeRequiredDefaultDescription
module_idstringYes-Module ID to expose as tool (e.g. http.request, data.json_parse)
tool_descriptionstringNo-Custom description for the agent (overrides module default)

Output:

FieldTypeDescription
module_idstringModule ID exposed as tool

Example: HTTP Request Tool

yaml
module_id: http.request

Example: JSON Parse Tool

yaml
module_id: data.json_parse

Análisis de Visión

ai.vision.analyze

Analizar imágenes usando modelos de visión de IA

Parameters:

NameTypeRequiredDefaultDescription
image_pathstringNo-Ruta local al archivo de imagen
image_urlstringNo-URL de la imagen a analizar
promptstringNoDescribe this image in detailQué analizar o preguntar sobre la imagen
providerselect (openai, anthropic)NoopenaiProveedor de IA para análisis de visión
modelstringNogpt-4oModelo de visión a usar
api_keystringNo-Clave API (usa la variable de entorno si no se proporciona)
max_tokensnumberNo1000Máximo de tokens en la respuesta
detailselect (low, high, auto)NoautoNivel de detalle de la imagen (bajo/alto/auto)

Output:

FieldTypeDescription
analysisstringAnálisis de IA de la imagen
modelstringModelo usado para el análisis
providerstringProveedor usado para el análisis
tokens_usednumberNúmero de tokens usados

Example: Analyze Screenshot

yaml
image_path: /tmp/screenshot.png
prompt: Describe what you see in this UI screenshot
provider: openai
model: gpt-4o

Example: Analyze from URL

yaml
image_url: https://example.com/photo.jpg
prompt: What objects are in this image?
provider: anthropic
model: claude-sonnet-4-20250514

Chat de Claude

api.anthropic.chat

Enviar un mensaje de chat a Anthropic Claude AI y obtener una respuesta

Parameters:

NameTypeRequiredDefaultDescription
api_keystringNo-Clave API de Anthropic (por defecto env.ANTHROPIC_API_KEY)
modelstringNoclaude-3-5-sonnet-20241022Modelo de Claude a usar
messagesarrayYes-Array de objetos de mensaje con rol y contenido
max_tokensnumberNo1024Contenido devuelto por la operacion
temperaturenumberNo1.0Temperatura de muestreo (0-1). Valores mas altos hacen la salida mas aleatoria
systemstringNo-Prompt de sistema para guiar comportamiento de Claude

Output:

FieldTypeDescription
contentstringPrompt de sistema para guiar comportamiento de Claude
modelstringTexto de respuesta de Claude
stop_reasonstringModelo usado para respuesta
usageobjectPor que el modelo dejo de generar (end_turn, max_tokens, etc)

Example: Simple question

yaml
messages: [{"role": "user", "content": "What is the capital of France?"}]
max_tokens: 100

Example: Text summarization

yaml
system: You are a helpful assistant that summarizes text concisely.
messages: [{"role": "user", "content": "Summarize this article: ${article_text}"}]
max_tokens: 500

Chat de Google Gemini

api.google_gemini.chat

Enviar un mensaje de chat a Google Gemini AI y obtener una respuesta

Parameters:

NameTypeRequiredDefaultDescription
api_keystringNo-Clave API de Google AI (por defecto env.GOOGLE_AI_API_KEY)
modelstringNogemini-1.5-proModelo de Gemini a usar
promptstringYes-El prompt de texto a enviar a Gemini
temperaturenumberNo1.0Controla aleatoriedad (0-2). Valores mas altos hacen la salida mas aleatoria
max_output_tokensnumberNo2048Maximo numero de tokens en respuesta

Output:

FieldTypeDescription
textstringGenerated text response from Gemini
modelstringModel used for generation
candidatesarrayAll candidate responses

Example: Simple question

yaml
prompt: Explain quantum computing in simple terms

Example: Content generation

yaml
prompt: Write a professional email about ${topic}
temperature: 0.7
max_output_tokens: 500

Chat de OpenAI

api.openai.chat

Enviar un mensaje de chat a modelos GPT de OpenAI

Parameters:

NameTypeRequiredDefaultDescription
promptstringYes-El mensaje a enviar a GPT
modelselect (gpt-4-turbo-preview, gpt-4, gpt-3.5-turbo)Nogpt-4-turbo-previewEl mensaje a enviar a GPT
temperaturenumberNo0.7Temperatura de muestreo (0-2)
max_tokensnumberNo1000Temperatura de muestreo (0-2)
system_messagestringNo-Maximo de tokens en respuesta

Output:

FieldTypeDescription
responsestringMensaje de rol del sistema (opcional)
modelstringRespuesta de la operacion
usageobjectRespuesta de la operacion

Example: Simple chat

yaml
prompt: Explain quantum computing in 3 sentences
model: gpt-3.5-turbo

Example: Code generation

yaml
prompt: Write a Python function to calculate fibonacci numbers
model: gpt-4
temperature: 0.2
system_message: You are a Python programming expert

Generacion de imagen DALL-E

api.openai.image

Generar imagenes usando DALL-E

Parameters:

NameTypeRequiredDefaultDescription
promptstringYes-Descripcion de la imagen a generar
sizeselect (256x256, 512x512, 1024x1024, 1792x1024, 1024x1792)No1024x1024Descripcion de la imagen a generar
modelselect (dall-e-3, dall-e-2)Nodall-e-3Version del modelo DALL-E
qualityselect (standard, hd)NostandardCalidad de imagen (solo DALL-E 3)
nnumberNo1Numero de imagenes a generar (1-10)

Output:

FieldTypeDescription
imagesarrayList of generated images
modelstringModel name or identifier

Example: Generate artwork

yaml
prompt: A serene mountain landscape at sunset, digital art
size: 1024x1024
model: dall-e-3
quality: hd

Example: Create logo

yaml
prompt: Modern tech startup logo with blue and green colors
size: 512x512
model: dall-e-2
n: 3

Agente de IA

llm.agent

Agente de IA autonomo con conexiones multi-puerto (modelo, memoria, herramientas)

Parameters:

NameTypeRequiredDefaultDescription
prompt_sourceselect (manual, auto)NomanualDe donde obtener el prompt de la tarea
taskstringNo-La tarea para que el agente complete. Usa {{input}} para referenciar datos anteriores.
prompt_pathstringNo{<!-- -->{input}<!-- -->}Ruta para extraer prompt de entrada (ej., {{input.message}})
join_strategyselect (first, newline, separator, json)NofirstComo manejar entradas de array
join_separatorstringNo`

| Separador para unir elementos de array | |max_input_size| number | No |10000| Maximo de caracteres para prompt (previene desbordamiento) | |system_prompt| string | No |You are a helpful AI agent. Use the available tools to complete the task. Think step by step.| Instrucciones para el comportamiento del agente | |tools| array | No |[]| Lista de IDs de modulo (alternativa a conectar nodos de herramientas) | |context| object | No |{}| Lista de IDs de modulo (alternativa a conectar nodos de herramientas) | |max_iterations| number | No |10| Datos de contexto adicionales para el agente | |provider | select (openai, anthropic, ollama) | No | openai| AI model provider | |model| string | No |gpt-4o| Specific model to use | |temperature| number | No |0.3| Creativity level (0=deterministic, 1=creative) | |api_key| string | No | - | API key (defaults to provider env var) | |base_url` | string | No | - | Custom API base URL (for Ollama or proxies) |

Output:

FieldTypeDescription
okbooleanSi el agente completo exitosamente
resultstringSi el agente completo exitosamente
stepsarraySi el agente completo exitosamente
tool_callsnumberEl resultado final del agente
tokens_usednumberLista de pasos que tomo el agente

Example: Web Research Agent

yaml
task: Search for the latest news about AI and summarize the top 3 stories
tools: ["http.request", "data.json_parse"]
model: gpt-4o

Example: Data Processing Agent

yaml
task: Read the CSV file, filter rows where status is "active", and count them
tools: ["file.read", "data.csv_parse", "array.filter"]
model: gpt-4o

Released under the Apache 2.0 License.