Skip to content

AI & LLM

AI model integration, text generation, embeddings, and autonomous agents.

18 modules

ModuleDescription
Agent autonomeAgent IA autodirige avec memoire et comportement oriente objectif
Agent en chaineChaine de traitement IA sequentielle avec plusieurs etapes
Agent d'utilisation d'outilsAgent AI qui peut appeler des outils/fonctions
Embeddings de TexteGénérer des embeddings vectoriels à partir de texte en utilisant des modèles AI
Extraction AIExtraire des données structurées à partir de texte en utilisant l'AI
Chat Ollama localDiscuter avec un LLM local via Ollama (completement hors ligne)
Memoire IAMemoire de conversation pour l'agent IA
Memoire d'entitesExtraire et suivre les entites (personnes, lieux, concepts) des conversations
Memoire RedisMemoire de conversation persistante utilisant le stockage Redis
Memoire vectorielleMemoire semantique utilisant des embeddings vectoriels pour la recuperation de contexte pertinent
Modele IAConfiguration du modele LLM pour l'agent IA
AI ToolExpose a module as a tool for AI Agent
Analyse de VisionAnalyser des images en utilisant des modèles de vision AI
Chat ClaudeEnvoyer un message de chat a Anthropic Claude AI et obtenir une reponse
Chat Google GeminiEnvoyer un message de chat a Google Gemini AI et obtenir une reponse
Chat OpenAIEnvoyer un message de chat aux modeles OpenAI GPT
Generation d'images DALL-EGenerer des images avec DALL-E
Agent IAAgent IA autonome avec connexions multi-ports (modele, memoire, outils)

Modules

Agent autonome

agent.autonomous

Agent IA autodirige avec memoire et comportement oriente objectif

Parameters:

NameTypeRequiredDefaultDescription
goalstringYes-L'objectif a atteindre par l'agent
contextstringNo-L'objectif a atteindre par l'agent
max_iterationsnumberNo5Contexte ou contraintes supplementaires
llm_providerselect (openai, ollama)NoopenaiEtapes de raisonnement maximum
modelstringNogpt-4-turbo-previewNom du modele (ex: gpt-4, llama2, mistral)
ollama_urlstringNohttp://localhost:11434Nom du modele (ex: gpt-4, llama2, mistral)
temperaturenumberNo0.7URL du serveur Ollama (uniquement pour le fournisseur ollama)

Output:

FieldTypeDescription
resultstringNiveau de creativite (0-2)
thoughtsarrayResultat de l'operation
iterationsnumberResultat de l'operation
goal_achievedbooleanEtapes de raisonnement de l'agent

Example: Research task

yaml
goal: Research the latest trends in AI and summarize the top 3
max_iterations: 5
model: gpt-4

Example: Problem solving

yaml
goal: Find the best approach to optimize database queries
context: PostgreSQL database with 10M records
max_iterations: 10

Agent en chaine

agent.chain

Chaine de traitement IA sequentielle avec plusieurs etapes

Parameters:

NameTypeRequiredDefaultDescription
inputstringYes-Entree initiale pour la chaine
chain_stepsarrayYes-Entree initiale pour la chaine
llm_providerselect (openai, ollama)NoopenaiTableau d'etapes de traitement (chacune est un modele de prompt)
modelstringNogpt-4-turbo-previewNom du modele (ex: gpt-4, llama2, mistral)
ollama_urlstringNohttp://localhost:11434Nom du modele (ex: gpt-4, llama2, mistral)
temperaturenumberNo0.7URL du serveur Ollama (uniquement pour le fournisseur ollama)

Output:

FieldTypeDescription
resultstringNiveau de creativite (0-2)
intermediate_resultsarrayResultat de l'operation
steps_completednumberResultat de l'operation

Example: Content pipeline

yaml
input: AI and machine learning trends
chain_steps: ["Generate 5 blog post ideas about: {input}", "Take the first idea and write a detailed outline: {previous}", "Write an introduction paragraph based on: {previous}"]
model: gpt-4

Example: Data analysis chain

yaml
input: User behavior data shows 60% bounce rate
chain_steps: ["Analyze what might cause this issue: {input}", "Suggest 3 solutions based on: {previous}", "Create an action plan from: {previous}"]

Agent d'utilisation d'outils

agent.tool_use

Agent AI qui peut appeler des outils/fonctions

Parameters:

NameTypeRequiredDefaultDescription
promptstringYes-L'objectif ou la tâche pour l'agent
toolsarrayYes-Liste des définitions d'outils [{nom, description, paramètres}]
providerselect (openai, anthropic)NoopenaiFournisseur LLM pour l'agent
modelstringNogpt-4oModèle à utiliser
api_keystringNo-Clé API (repli sur la variable d'environnement)
max_iterationsnumberNo10Nombre maximum de tours d'appel d'outils
system_promptstringNo-Invite système optionnelle pour guider l'agent

Output:

FieldTypeDescription
resultstringRéponse finale de l'agent
tool_callsarrayTous les appels d'outils effectués pendant l'exécution
iterationsnumberNombre d'itérations complétées
modelstringModèle utilisé

Example: File Processing Agent

yaml
prompt: Read the config file and update the version number
tools: [{"name": "read_file", "description": "Read contents of a file", "parameters": {"type": "object", "properties": {"path": {"type": "string", "description": "File path"}}, "required": ["path"]}}, {"name": "write_file", "description": "Write contents to a file", "parameters": {"type": "object", "properties": {"path": {"type": "string", "description": "File path"}, "content": {"type": "string", "description": "File content"}}, "required": ["path", "content"]}}]
provider: openai
model: gpt-4o
max_iterations: 5

Embeddings de Texte

ai.embed

Générer des embeddings vectoriels à partir de texte en utilisant des modèles AI

Parameters:

NameTypeRequiredDefaultDescription
textstringYes-Texte à embedder
providerselect (openai, local)NoopenaiFournisseur AI pour les embeddings
modelstringNotext-embedding-3-smallModèle d'embedding à utiliser
api_keystringNo-Clé API (utilise la variable d'environnement par défaut)
dimensionsnumberNo-Dimensions d'embedding (pour les modèles qui le supportent)

Output:

FieldTypeDescription
embeddingsarrayTableau d'embeddings vectoriels
modelstringModèle utilisé pour l'embedding
dimensionsnumberNombre de dimensions dans le vecteur d'embedding
token_countnumberNombre de tokens traités

Example: Single Text Embedding

yaml
text: The quick brown fox jumps over the lazy dog
provider: openai
model: text-embedding-3-small

Example: Reduced Dimensions

yaml
text: Semantic search query
provider: openai
model: text-embedding-3-small
dimensions: 256

Extraction AI

ai.extract

Extraire des données structurées à partir de texte en utilisant l'AI

Parameters:

NameTypeRequiredDefaultDescription
textstringYes-Texte à partir duquel extraire les données
schemaobjectYes-Schéma JSON définissant les champs à extraire
instructionsstringNo-Instructions supplémentaires pour l'extraction
providerselect (openai, anthropic)NoopenaiFournisseur AI à utiliser
modelstringNogpt-4o-miniModèle à utiliser pour l'extraction
api_keystringNo-Clé API (utilise la variable d'environnement par défaut)
temperaturenumberNo0Température d'échantillonnage (0-2)

Output:

FieldTypeDescription
extractedobjectDonnées structurées extraites
modelstringModèle utilisé pour l'extraction
raw_responsestringRéponse brute du modèle

Example: Extract Contact Info

yaml
text: John Smith is a senior engineer at Acme Corp. Email: john@acme.com
schema: {"type": "object", "properties": {"name": {"type": "string"}, "title": {"type": "string"}, "company": {"type": "string"}, "email": {"type": "string"}}}
provider: openai
model: gpt-4o-mini

Example: Extract Invoice Data

yaml
text: Invoice #1234 from Acme Corp. Total: $500.00. Due: 2024-03-01
schema: {"type": "object", "properties": {"invoice_number": {"type": "string"}, "vendor": {"type": "string"}, "total": {"type": "number"}, "due_date": {"type": "string"}}}
instructions: Extract all invoice fields. Parse amounts as numbers.

Chat Ollama local

ai.local_ollama.chat

Discuter avec un LLM local via Ollama (completement hors ligne)

Parameters:

NameTypeRequiredDefaultDescription
promptstringYes-Le message a envoyer au LLM local
modelselect (llama2, llama2:13b, llama2:70b, mistral, mixtral, codellama, codellama:13b, phi, neural-chat, starling-lm)Nollama2Le message a envoyer au LLM local
temperaturenumberNo0.7Temperature d'echantillonnage (0-2)
system_messagestringNo-Message de role systeme (optionnel)
ollama_urlstringNohttp://localhost:11434Message de role systeme (optionnel)
max_tokensnumberNo-URL du serveur Ollama

Output:

FieldTypeDescription
responsestringTokens maximum dans la reponse (optionnel, depend du modele)
modelstringReponse de l'operation
contextarrayReponse de l'operation
total_durationnumberNom ou identifiant du modele
load_durationnumberContexte de conversation pour les requetes suivantes
prompt_eval_countnumberDuree totale de traitement
eval_countnumberDuree de chargement du modele

Example: Simple local chat

yaml
prompt: Explain quantum computing in 3 sentences
model: llama2

Example: Code generation with local model

yaml
prompt: Write a Python function to calculate fibonacci numbers
model: codellama
temperature: 0.2
system_message: You are a Python programming expert. Write clean, efficient code.

Example: Local reasoning task

yaml
prompt: What are the pros and cons of microservices architecture?
model: mistral
temperature: 0.7

Memoire IA

ai.memory

Memoire de conversation pour l'agent IA

Parameters:

NameTypeRequiredDefaultDescription
memory_typeselect (buffer, window, summary)YesbufferType de stockage memoire
window_sizenumberNo10Nombre de messages recents a conserver (pour la memoire fenetre)
session_idstringNo-Identifiant unique pour cette session de conversation
initial_messagesarrayNo[]Historique de conversation prechargee

Output:

FieldTypeDescription
memory_typestringHistorique de conversation prechargee
session_idstringHistorique de conversation prechargee
messagesarrayType de memoire
configobjectIdentifiant de session

Example: Simple Buffer Memory

yaml
memory_type: buffer

Example: Window Memory (last 5 messages)

yaml
memory_type: window
window_size: 5

Memoire d'entites

ai.memory.entity

Extraire et suivre les entites (personnes, lieux, concepts) des conversations

Parameters:

NameTypeRequiredDefaultDescription
entity_typesmultiselectNo['person', 'organization', 'location']Types of entities to extract and track
extraction_modelselect (llm, spacy, regex)YesllmModel for entity extraction
session_idstringNo-Unique identifier for this memory session
track_relationshipsbooleanNoTrueTrack relationships between entities
max_entitiesnumberNo100Maximum number of entities to remember

Output:

FieldTypeDescription
memory_typestringNombre maximum d'entites a retenir
session_idstringNombre maximum d'entites a retenir
entitiesobjectType de memoire (entite)
relationshipsarrayIdentifiant de session
configobjectEntites suivies par type

Example: People & Organizations

yaml
entity_types: ["person", "organization"]
extraction_model: llm

Example: Full Entity Tracking

yaml
entity_types: ["person", "organization", "location", "concept"]
track_relationships: true
max_entities: 200

Memoire Redis

ai.memory.redis

Memoire de conversation persistante utilisant le stockage Redis

Parameters:

NameTypeRequiredDefaultDescription
redis_urlstringYesredis://localhost:6379Redis connection URL
key_prefixstringNoflyto:memory:Prefix for all Redis keys
session_idstringYes-Unique identifier for this memory session
ttl_secondsnumberNo86400Time-to-live for memory entries (0 = no expiry)
max_messagesnumberNo100Maximum messages to store per session
load_on_startbooleanNoTrueLoad existing messages from Redis on initialization

Output:

FieldTypeDescription
memory_typestringCharger les messages existants de Redis a l'initialisation
session_idstringCharger les messages existants de Redis a l'initialisation
messagesarrayType de memoire (redis)
connectedbooleanIdentifiant de session
configobjectHistorique des messages charges

Example: Local Redis

yaml
redis_url: redis://localhost:6379
session_id: my-session
ttl_seconds: 3600

Example: Cloud Redis with Auth

yaml
redis_url: redis://:password@redis-cloud.example.com:6379
session_id: user-session
ttl_seconds: 86400
max_messages: 500

Memoire vectorielle

ai.memory.vector

Memoire semantique utilisant des embeddings vectoriels pour la recuperation de contexte pertinent

Parameters:

NameTypeRequiredDefaultDescription
embedding_modelselect (text-embedding-3-small, text-embedding-3-large, text-embedding-ada-002, local)Yestext-embedding-3-smallModel to use for generating embeddings
top_knumberNo5Number of most relevant memories to retrieve
similarity_thresholdnumberNo0.7Minimum similarity score (0-1) for retrieval
session_idstringNo-Unique identifier for this memory session
include_metadatabooleanNoTrueInclude timestamp and other metadata with memories

Output:

FieldTypeDescription
memory_typestringInclure l'horodatage et autres metadonnees avec les memoires
session_idstringInclure l'horodatage et autres metadonnees avec les memoires
embedding_modelstringType de memoire (vecteur)
configobjectIdentifiant de session

Example: Default Vector Memory

yaml
embedding_model: text-embedding-3-small
top_k: 5

Example: High Precision Memory

yaml
embedding_model: text-embedding-3-large
top_k: 10
similarity_threshold: 0.85

Modele IA

ai.model

Configuration du modele LLM pour l'agent IA

Parameters:

NameTypeRequiredDefaultDescription
providerselect (openai, anthropic, ollama)NoopenaiAI model provider
modelstringNogpt-4oSpecific model to use
temperaturenumberNo0.7Creativity level (0=deterministic, 1=creative)
api_keystringNo-API key (defaults to provider env var)
base_urlstringNo-Custom API base URL (for Ollama or proxies)
max_tokensnumberNo4096Tokens maximum dans la reponse

Output:

FieldTypeDescription
providerstringTokens maximum dans la reponse
modelstringNom du fournisseur LLM
configobjectNom du fournisseur LLM

Example: OpenAI GPT-4

yaml
provider: openai
model: gpt-4o
temperature: 0.7

Example: Anthropic Claude

yaml
provider: anthropic
model: claude-3-5-sonnet-20241022
temperature: 0.5

AI Tool

ai.tool

Expose a module as a tool for AI Agent

Parameters:

NameTypeRequiredDefaultDescription
module_idstringYes-Module ID to expose as tool (e.g. http.request, data.json_parse)
tool_descriptionstringNo-Custom description for the agent (overrides module default)

Output:

FieldTypeDescription
module_idstringModule ID exposed as tool

Example: HTTP Request Tool

yaml
module_id: http.request

Example: JSON Parse Tool

yaml
module_id: data.json_parse

Analyse de Vision

ai.vision.analyze

Analyser des images en utilisant des modèles de vision AI

Parameters:

NameTypeRequiredDefaultDescription
image_pathstringNo-Chemin local vers le fichier image
image_urlstringNo-URL de l'image à analyser
promptstringNoDescribe this image in detailQue voulez-vous analyser ou demander sur l'image
providerselect (openai, anthropic)NoopenaiFournisseur d'IA pour l'analyse visuelle
modelstringNogpt-4oModèle de vision à utiliser
api_keystringNo-Clé API (utilise la variable d'environnement par défaut)
max_tokensnumberNo1000Nombre maximum de tokens dans la réponse
detailselect (low, high, auto)NoautoNiveau de détail de l'image (bas/élevé/auto)

Output:

FieldTypeDescription
analysisstringAnalyse AI de l'image
modelstringModèle utilisé pour l'analyse
providerstringFournisseur utilisé pour l'analyse
tokens_usednumberNombre de tokens utilisés

Example: Analyze Screenshot

yaml
image_path: /tmp/screenshot.png
prompt: Describe what you see in this UI screenshot
provider: openai
model: gpt-4o

Example: Analyze from URL

yaml
image_url: https://example.com/photo.jpg
prompt: What objects are in this image?
provider: anthropic
model: claude-sonnet-4-20250514

Chat Claude

api.anthropic.chat

Envoyer un message de chat a Anthropic Claude AI et obtenir une reponse

Parameters:

NameTypeRequiredDefaultDescription
api_keystringNo-Cle API Anthropic (defaut: env.ANTHROPIC_API_KEY)
modelstringNoclaude-3-5-sonnet-20241022Modele Claude a utiliser
messagesarrayYes-Tableau d'objets message avec role et contenu
max_tokensnumberNo1024Contenu retourne par l'operation
temperaturenumberNo1.0Temperature d'echantillonnage (0-1). Des valeurs plus elevees rendent la sortie plus aleatoire
systemstringNo-Prompt systeme pour guider le comportement de Claude

Output:

FieldTypeDescription
contentstringPrompt systeme pour guider le comportement de Claude
modelstringTexte de reponse de Claude
stop_reasonstringModele utilise pour la reponse
usageobjectPourquoi le modele a arrete de generer (end_turn, max_tokens, etc)

Example: Simple question

yaml
messages: [{"role": "user", "content": "What is the capital of France?"}]
max_tokens: 100

Example: Text summarization

yaml
system: You are a helpful assistant that summarizes text concisely.
messages: [{"role": "user", "content": "Summarize this article: ${article_text}"}]
max_tokens: 500

Chat Google Gemini

api.google_gemini.chat

Envoyer un message de chat a Google Gemini AI et obtenir une reponse

Parameters:

NameTypeRequiredDefaultDescription
api_keystringNo-Cle API Google AI (defaut: env.GOOGLE_AI_API_KEY)
modelstringNogemini-1.5-proModele Gemini a utiliser
promptstringYes-Le prompt texte a envoyer a Gemini
temperaturenumberNo1.0Controle l'aleatoire (0-2). Des valeurs plus elevees rendent la sortie plus aleatoire
max_output_tokensnumberNo2048Nombre maximum de tokens dans la reponse

Output:

FieldTypeDescription
textstringGenerated text response from Gemini
modelstringModel used for generation
candidatesarrayAll candidate responses

Example: Simple question

yaml
prompt: Explain quantum computing in simple terms

Example: Content generation

yaml
prompt: Write a professional email about ${topic}
temperature: 0.7
max_output_tokens: 500

Chat OpenAI

api.openai.chat

Envoyer un message de chat aux modeles OpenAI GPT

Parameters:

NameTypeRequiredDefaultDescription
promptstringYes-Le message a envoyer a GPT
modelselect (gpt-4-turbo-preview, gpt-4, gpt-3.5-turbo)Nogpt-4-turbo-previewLe message a envoyer a GPT
temperaturenumberNo0.7Temperature d'echantillonnage (0-2)
max_tokensnumberNo1000Temperature d'echantillonnage (0-2)
system_messagestringNo-Tokens maximum dans la reponse

Output:

FieldTypeDescription
responsestringMessage de role systeme (optionnel)
modelstringReponse de l'operation
usageobjectReponse de l'operation

Example: Simple chat

yaml
prompt: Explain quantum computing in 3 sentences
model: gpt-3.5-turbo

Example: Code generation

yaml
prompt: Write a Python function to calculate fibonacci numbers
model: gpt-4
temperature: 0.2
system_message: You are a Python programming expert

Generation d'images DALL-E

api.openai.image

Generer des images avec DALL-E

Parameters:

NameTypeRequiredDefaultDescription
promptstringYes-Description de l'image a generer
sizeselect (256x256, 512x512, 1024x1024, 1792x1024, 1024x1792)No1024x1024Description de l'image a generer
modelselect (dall-e-3, dall-e-2)Nodall-e-3Version du modele DALL-E
qualityselect (standard, hd)NostandardQualite de l'image (DALL-E 3 uniquement)
nnumberNo1Nombre d'images a generer (1-10)

Output:

FieldTypeDescription
imagesarrayList of generated images
modelstringModel name or identifier

Example: Generate artwork

yaml
prompt: A serene mountain landscape at sunset, digital art
size: 1024x1024
model: dall-e-3
quality: hd

Example: Create logo

yaml
prompt: Modern tech startup logo with blue and green colors
size: 512x512
model: dall-e-2
n: 3

Agent IA

llm.agent

Agent IA autonome avec connexions multi-ports (modele, memoire, outils)

Parameters:

NameTypeRequiredDefaultDescription
prompt_sourceselect (manual, auto)NomanualD'ou obtenir le prompt de tache
taskstringNo-La tache pour l'agent a completer. Utilisez {{input}} pour referencer les donnees en amont.
prompt_pathstringNo{<!-- -->{input}<!-- -->}Chemin pour extraire le prompt de l'entree (ex: {{input.message}})
join_strategyselect (first, newline, separator, json)NofirstComment gerer les entrees de tableau
join_separatorstringNo`

| Separateur pour joindre les elements de tableau | |max_input_size| number | No |10000| Caracteres maximum pour le prompt (previent le debordement) | |system_prompt| string | No |You are a helpful AI agent. Use the available tools to complete the task. Think step by step.| Instructions pour le comportement de l'agent | |tools| array | No |[]| Liste des IDs de modules (alternative a la connexion de noeuds d'outils) | |context| object | No |{}| Liste des IDs de modules (alternative a la connexion de noeuds d'outils) | |max_iterations| number | No |10| Donnees de contexte supplementaires pour l'agent | |provider | select (openai, anthropic, ollama) | No | openai| AI model provider | |model| string | No |gpt-4o| Specific model to use | |temperature| number | No |0.3| Creativity level (0=deterministic, 1=creative) | |api_key| string | No | - | API key (defaults to provider env var) | |base_url` | string | No | - | Custom API base URL (for Ollama or proxies) |

Output:

FieldTypeDescription
okbooleanSi l'agent a termine avec succes
resultstringSi l'agent a termine avec succes
stepsarraySi l'agent a termine avec succes
tool_callsnumberLe resultat final de l'agent
tokens_usednumberListe des etapes prises par l'agent

Example: Web Research Agent

yaml
task: Search for the latest news about AI and summarize the top 3 stories
tools: ["http.request", "data.json_parse"]
model: gpt-4o

Example: Data Processing Agent

yaml
task: Read the CSV file, filter rows where status is "active", and count them
tools: ["file.read", "data.csv_parse", "array.filter"]
model: gpt-4o

Released under the Apache 2.0 License.