Job Description:Обязанности:Координировать и фасилитировать процесс сбора данных по всем информационным запросам (готовить форматы, каскадировать запросы, агрегировать ответы)Анализировать причины возникновения отклонений от плановых показателей и мер предпринимаемых для устранения рисковРазрабатывать, внедрять и постоянно улучшать методологии эффективности управления даннымиЭффективно использовать имеющиеся и внедряемые информационные системы.Развивать аналитическую функцию в логистикеОптимизировать и направлять функции на повышение эффективности и прозрачности данныхРасчет простых проектов Требования:Образование не ниже среднеспециального. Наличие высшего образования приветствуетсяОпыт разработки и оптимизации ETL/ELTконвейеров в Azure Databricks либо других аналогичных платформах (AWS Glue, GCP Dataproc, Apache Airflow + Spark) - не менее 6 месяцевПрактические навыки программирования на Python и SQL (знание PySpark приветствуется)Продвинутый пользователь офисных приложений (Access, Excel)Развитые навыки коммуникации, структурирования данных и подготовки презентаций; умение эффективно взаимодействовать в команде