initial commit

This commit is contained in:
2026-03-25 00:05:57 +01:00
commit 25c7d598ca
63 changed files with 5257 additions and 0 deletions

View File

@@ -0,0 +1,60 @@
# Node Probe - odkrywanie inferencji
#sympozium #komunikacja #inference #discovery
## Koncepcja
Node Probe to **DaemonSet** odkrywający lokalne inference providers (Ollama, vLLM, llama-cpp, LM Studio) zainstalowane bezpośrednio na nodach klastra.
## Jak to działa
```
Node Probe Pod (DaemonSet - jeden per node)
Probeuje localhost ports:
- :11434 (Ollama)
- :8000 (vLLM)
- :1234 (LM Studio)
- :8080 (llama-cpp)
Jeśli znalazł provider:
- Pobiera listę modeli (GET /v1/models)
- Annotuje node:
sympozium.ai/inference-provider: ollama
sympozium.ai/inference-models: llama3.2,codellama
sympozium.ai/inference-url: http://localhost:11434/v1
API Server czyta annotacje node'ów
TUI/Web wizard pokazuje dostępne node'y i modele
Użytkownik wybiera → nodeSelector w SympoziumInstance
```
## Cel
Dla lokalnych providerów (Ollama na GPU node) nie trzeba:
- Ręcznie konfigurować baseURL
- Szukać na jakich nodach jest Ollama
- Sprawdzać jakie modele są dostępne
Node Probe automatyzuje discovery i prezentuje w UI.
## nodeSelector
```yaml
# SympoziumInstance
spec:
agents:
default:
model: llama3.2
baseURL: "http://localhost:11434/v1"
nodeSelector:
sympozium.ai/inference-provider: ollama
```
Agent pods będą schedulowane TYLKO na nodach z Ollama.
---
Powiązane: [[SympoziumInstance]] | [[Control Plane]]