требования и задачи конкретного заказчика. Основные задачи: Встраивание ML-моделей в продукт, участие в запуске продуктов... Inference Server, ONNX Runtime, TensorRT Опыт оптимизации (latency/throughput) и профилирования ML-сервисов под GPU-нагрузку...