4.1 KiB
4.1 KiB
🏭 Инфраструктура
Docker Compose (локальная разработка)
Сервисы
services:
backend: # Spring Boot (Java 17), порт 8080
frontend: # Apache httpd:alpine, порт 80
db: # PostgreSQL alpine3.23, порт 5432
Сеть
Все сервисы работают в Docker-сети proxy (external). Перед первым запуском:
docker network create proxy
Переменные окружения
Файл .env в корне проекта:
POSTGRES_USER=myuser
POSTGRES_PASSWORD=supersecretpassword
Dockerfile (Backend)
Backend собирается через multi-stage сборку Maven:
- Этап сборки:
maven:3-eclipse-temurin-17-alpine→mvn package - Этап запуска:
eclipse-temurin:17-jre-alpine→java -jar app.jar
Dockerfile (Frontend)
FROM httpd:alpine
COPY . /usr/local/apache2/htdocs/
RUN chown -R www-data:www-data /usr/local/apache2/htdocs/
Kubernetes (продакшн)
Расположение конфигурации
Файлы Kubernetes манифестов: ../k8s/
Ключевые ресурсы
| Ресурс | Тип | Описание |
|---|---|---|
backend |
Deployment | Spring Boot приложение |
frontend |
Deployment | Apache httpd |
tenants-config |
ConfigMap | JSON-список тенантов |
ConfigMap для тенантов
ConfigMap tenants-config монтируется в под backend по пути /config/tenants.json.
При добавлении тенанта через API:
DatabaseControllerобновляет in-memory DataSourceConfigMapUpdaterобновляет ConfigMap через Kubernetes APITenantConfigWatcherна остальных подах подхватывает изменения (каждые 30 сек)
Обновление backend
kubectl rollout restart deployment backend -n magistr
Caddy (реверс-прокси)
Расположение: ../caddy-proxy/ для локальной разработки, в продакшене - отдельный сервис
В продакшене Caddy обрабатывает входящий трафик для *.zuev.company:
- Автоматическое получение TLS-сертификатов (Let's Encrypt)
- Маршрутизация
/api/*→ backend:8080 - Маршрутизация статики → frontend:80
CI/CD (Gitea Actions)
Пайплайн сборки Docker-образов
Расположение: .gitea/workflows/docker-build.yaml
Основные шаги:
- Checkout кода
- Login в Docker Registry
- Build + Push образов (
backend,frontend) - Генерация меток через
docker/metadata-action
Мониторинг (SigNoz + OpenTelemetry)
Архитектура мониторинга
graph LR
Backend["Spring Boot"] -->|OTLP gRPC| Collector["OTel Collector"]
Frontend["JS (otel.js)"] -->|OTLP HTTP| Collector
Collector --> SigNoz["SigNoz"]
Collector -->|"Метрики PostgreSQL"| PgExporter["pg_exporter"]
Интеграция Backend
Backend отправляет через OpenTelemetry:
- Логи — через Logback + OTLP exporter
- Трейсы — автоинструментация Spring Boot
- Метрики — JVM метрики, HTTP метрики
Tenant ID добавляется в:
- MDC (логи):
MDC.put("tenant.id", tenant) - Span атрибуты:
Span.current().setAttribute("tenant.id", tenant)
Интеграция Frontend
Файл admin/js/otel.js — клиентская телеметрия:
- Метрики производительности страниц
- Трейсы пользовательских действий
Дашборды SigNoz
- JVM Dashboard (Heap, GC, Threads)
- PostgreSQL Dashboard (Connections, Queries)
- HTTP Dashboard (Requests, Latency, Errors)