свой бизнес, повышая продажи и привлекая новых клиентов. Мы команда инженеров данных, и продукт нашей команды — Data... работы распроданных систем Hadoop или YTSaurus, ClickHouse Умеете выбирать технологии для решения конкретных задач Знаете...
на проекте: PostgreSQL / Greenplum Apache Spark Apache Hadoop Python/Scala Openshift / Kubernetes Apache Kafka... QlikSense Обязанности: Системная разработка и оптимизация ETL-процессов на платформах Greenplum и Hadoop Поддержка...
страны. Проект: Развитие сервисов платформы MWS Data MWS Data – платформа, предоставляющая пользователям современные...: Опыт работы 3 года Технический стек: StarRocks Iceberg SQL Python Hadoop HDFS HIVE Spark Airflow Linux CLI...
сильная команда, способная его поддерживать. Поэтому мы в поиске Data инженера в направление BNPL сервиса, далее в кредитных... для ML. Что мы ожидаем: Уверенное владение Python и SQL; Опыт работы с Spark, Hadoop, Kafka, Greenplum, Clickhouse, S3...
несколько кластеров Hadoop, у DS есть несколько мощных машин, GPU делают бр-бр Команда DE и сильная экспертиза 80% кода мы... стек: Hadoop, Spark, SCALA, Python, Java, PostgreSQL, ClickHouse, Zeppelin/IntelliJ, AirFlow, ElasticSearch, Apache...
. Поэтому внедряем различные инструменты для сбора и анализа данных, и сейчас ищем человека, который будет развивать наше Data...-направление. Стек: Apache Hadoop, Hive metastore, Spark, Flink, Airflow, Trino Инструменты: Hue, Jupiter, Zeppelin...
: Участвовать в построении Lakehouse (Iceberg) на базе Hadoop; создавать и развивать процессы управления данными и их качеством... программирования на Python (не менее 3-х лет); обладаете знаниями SQL; имеете опыт работы с Apache Airflow; имеете работы с Hadoop...
нам подходите, если: Имеете практический опыт работы с BigData-хранилищами (Hadoop и/или S3, аналитические базы данных...
ожидаем что у вас есть опыт работы: Коммерческий опыт работы Python разработчика Знание и понимание Hadoop Опыт работы...
; Владеете python, Airflow, Spark, Docker, Git, PyTorch; Работаете с S3/Hadoop, а также с аналитическими БД ClickHouse/GreenPlum...
: Знание SQL ( oracle, postgres) - уровень выше среднего, умение оптимизировать код Опыт работы с Hadoop (hdfs, hive, impala...
или kubernetes Опыт работы с Hadoop, PySpark, Airflow Стек применяемых технологий: Python, Jupyter Hub, git, Apache Airflow..., Hadoop, Pyspark, aiohttp, fastapi, Postgres, S3, Jenkins, kubernetes Библиотеки для машинного обучения: Sklearn, xgboost...
, дистрибуция, full scan) Опты работы с ETL инструментами (Informatica PowerCenter) Опыт работы с экосистемой Hadoop (HDFS, Spark...
: Участвовать в построении Lakehouse (Iceberg) на базе Hadoop; создавать и развивать процессы управления данными и их качеством... программирования на Python (не менее 3-х лет); обладаете знаниями SQL; имеете опыт работы с Apache Airflow; имеете работы с Hadoop...
: Опыт в качестве Data Scientist или ML engineer от 3ех лет; Знание Python; Знание классических алгоритмов и структур... в ритейле; Знакомство с hadoop-стэком. Мы предлагаем: Развитие экспертизы через использование актуального стека технологий...
, если ты имеешь: Опыт в качестве Data Scientist или ML engineer от 3ех лет; Знание Python; Знание классических... OLAP-хранилища используем ClickHouse. У нас также есть большой Hadoop кластер, который мы используем для работы...
Ищем опытного Senior Data Engineer для ключевой роли в проекте по построению корпоративного Lakehouse — новой платформы... Kubernetes/OpenShift; понимание экосистемы Big Data (Hadoop, Kafka, Spark) и принципов работы с реляционными СУБД (PostgreSQL...
менее 3-х лет работы в качестве Data Engineer/Data Analyst/ETL Developer знание SQL на продвинутом уровне (аналитические.... желателен опыт разработки витрин данных опыт работы со стеком технологий Big Data (Hadoop, Spark, Hive/Impala) является большим...
: Наличие опыта в роли Data engineer или Data analyst от 2х лет. Высшее математическое или техническое образование. Отличное...Мы ищем математика-разработчика в группу товародвижения в отдел Data Science. Мы поддерживаем и развиваем проект...