Files
obsidian-sympozium/06-Komunikacja/Node Probe - odkrywanie inferencji.md
2026-03-25 00:05:57 +01:00

1.4 KiB

Node Probe - odkrywanie inferencji

#sympozium #komunikacja #inference #discovery

Koncepcja

Node Probe to DaemonSet odkrywający lokalne inference providers (Ollama, vLLM, llama-cpp, LM Studio) zainstalowane bezpośrednio na nodach klastra.

Jak to działa

Node Probe Pod (DaemonSet - jeden per node)
    ↓
Probeuje localhost ports:
  - :11434 (Ollama)
  - :8000 (vLLM)
  - :1234 (LM Studio)
  - :8080 (llama-cpp)
    ↓
Jeśli znalazł provider:
  - Pobiera listę modeli (GET /v1/models)
  - Annotuje node:
    sympozium.ai/inference-provider: ollama
    sympozium.ai/inference-models: llama3.2,codellama
    sympozium.ai/inference-url: http://localhost:11434/v1
    ↓
API Server czyta annotacje node'ów
    ↓
TUI/Web wizard pokazuje dostępne node'y i modele
    ↓
Użytkownik wybiera → nodeSelector w SympoziumInstance

Cel

Dla lokalnych providerów (Ollama na GPU node) nie trzeba:

  • Ręcznie konfigurować baseURL
  • Szukać na jakich nodach jest Ollama
  • Sprawdzać jakie modele są dostępne

Node Probe automatyzuje discovery i prezentuje w UI.

nodeSelector

# SympoziumInstance
spec:
  agents:
    default:
      model: llama3.2
      baseURL: "http://localhost:11434/v1"
      nodeSelector:
        sympozium.ai/inference-provider: ollama

Agent pods będą schedulowane TYLKO na nodach z Ollama.


Powiązane: SympoziumInstance | Control Plane