Один клиент для ваших сервисов. Никаких вендорных SDK.
@kb-labs/platform-client — это zero-dependency TypeScript SDK, который ваши продукты импортируют один раз и используют везде. Кеш, базы данных, vector stores, LLM, аналитика — всё через единый клиент, который маршрутизирует запросы через Gateway.
{
"adapters": {
"llm": "openai",
"cache": "redis",
"vectorStore": "qdrant",
"analytics": "sqlite"
}
}Один клиент. Много backend'ов. Ноль переписываний.
Что вам даёт клиент
LLM
Language model access with tier-based routing and automatic failover.
OpenAI, Anthropic, Ollama, Azure OpenAI
Cache
Key-value caching with TTL, sorted sets, and atomic operations.
Redis, Memcached, In-Memory
Vector Store
Semantic search over embeddings with upsert, delete, and filtering.
Qdrant, Pinecone, ChromaDB
Analytics
Event tracking, time-series aggregation, and usage dashboards.
SQLite, DuckDB, ClickHouse
Storage
File read/write/list with a unified interface across backends.
S3, Local FS, MinIO
Embeddings
Text-to-vector conversion for search and similarity.
OpenAI, Cohere, Local
import { KBPlatform } from '@kb-labs/platform-client';
const platform = new KBPlatform({
endpoint: 'http://gateway:4000',
apiKey: process.env.KB_API_KEY,
});
// LLM — provider resolved by platform config
const answer = await platform.llm.complete('Explain this code');
// Cache — Redis, Memcached, or in-memory, same API
await platform.cache.set('session:123', userData, 3600);
// Telemetry — batched, auto-flushed
platform.telemetry.event('user.signup', { plan: 'pro' });Один импорт. Каждая capability. Никакой вендорной обвязки.
Установите @kb-labs/platform-client в свой сервис, подключите к вашему Gateway — и перестаньте писать одну и ту же инфраструктурную обвязку в каждом продукте.