Друзья, данная рубрика создана для поиска вакансий. Если вы ищите специалиста в таких областях как ML и Data Science, то можете кидать в предложку вашу вакансию, а мы ее обязательно опубликуем =)
Если же вы ищите работу, то смело переходите по ссылкам или пишите уже ожидающим вас рекрутерам=)
Ревьюер курсов DA и DS в Яндекс.Практикум.
В связи с наплывом в ЯП учеников по программе возмещения 50% стоимости обучения государством, это горящая в течение месяца вакансия с не ограниченным пока набором.
Ревьюер проверяет проекты учеников и комментирует ноутбук: что хорошо, что надо исправить.
Оформление по СМЗ, оплата сдельная, в среднем 600 руб. + 6% (на налог) за принятый проект. По поводу выходных и отпусков надо будет уведомлять заранее, не брать новые проверки и закрыть уже работающие или договориться с коллегами, кто доделает. Обязательный минимум три проекта в день.
Ревьюер получает полный доступ к курсам по DA и DS, только сертификат ЯП не получит.
Да и строчка в резюме "работал в Яндексе" не лишняя на будущее.
Возможный лифт: ревьюер - старший ревьюер - преподаватель - создатель контента - другие структуры Яндекса. Или регулярная подработка в ЯП.
Если появилось желание, то свое фио и контакты (лучше в ТГ) высылаете Олегу Мазуренко @o_mazurenko (не надо ему задавать лишних вопросов), он их отправит на прямую рекрутеру по этим курсам (такой прямой вход в ЯП). Рекрутер сама с Вами свяжется.
-------------------------------------------------
🥚Компания: МТС Big Data
📍Локация: г. Москва, м.Технопарк
💻Формат: офис/гибрид
🧩Продукт: Feature Factory
💰Вилка от 250k gross
🏭 О проекте
Проект Feature Factory – внутренний проект, готовим модели и фичи не для конкретного бизнес-заказчика, а для продуктов МТС BigData.
Глобальная цель: сделать труднодоступную информацию по абонентам легкодоступной для все продуктов BigData.
🎯 Что предстоит делать
- проводить rnd сырых источников данным, строить эмбеддинги, изредка переключаясь на стандартные задачи по табличкам
- основная ближайшая задача: гео-эмбеддинги;
опыт работы с гео-данными будет плюсом, но не обязателен.
🛠 Что ждем от кандидатов
- отлично знать и уметь все базовые ml-алгоритмы
- базовое знания по нейронкам + опыт работы с библиотеками: pytorch/tensorflow/keras/подобное
- опыт в кодинге (python)
- хорошее знание spark + синтаксиса pyspark/sql
- навыки работы в git
- понимание статистики и теорвера
Условия работы приятные: белая зп, премии, новенький macbook, ДМС со стоматологией, есть система ревью и многое другое 🌚
Компания: Международная команда «Ultra Tendency International»
Занятость: полная, гибкий график
Формат: удаленный
З/п вилка: до 350 тр
Команда «Ultra Tendency» меняет и строит с нуля сложные системы Big Data для крупных клиентов Европы (одна из классных задач: пишут библиотеку для Data Scientists).
✔️ Стэк по всем проектам: Scala, Java, Python, Spring, Batch, Spark Streaming, Kafka, HBase, Impala, Hive, Kubernetes, Docker.
✔️ Стэк технологий BigData: Scala(Spark), Java (Spring), (Spring), Kafka, Docker, Kubernetes, HBase.
Для проектов в большинстве случаев мы используем облачные технологии AWS или Azure.
Преимущества:
🔹Разработка проектов, которые украсят портфолио с технической стороны (+ есть возможность выбора проекта);
🔹Командная разработка, регулярный code review;
🔹Развиваться с высоким уровнем экспертами, в команде много профессоров PHD (+ команда фанаты Opensource и CIO компании Jan Hentschel - менеджер по выпуску Apache HBase и 11-й по величине коммиттер HBase в мире);
🔹Удаленная работа в интернациональной команде (30 разных национальностей, коммуникация на английском)
🔹Оформление по ТК РФ, белая зарплата, ДМС, безлимитный доступ к Udemy и сертификации AWS, Azure;
🔹Индивидуальный план развития в компании;
🔹Курсы немецкого языка;
🔹Возможность релокации (через год).
Junior+\Middle Data Scientist — Сбер
Локация: Санкт-Петербург (м. Нарвская, режим – смешанный/офис)
Команда разрабатывает модели ценообразования и CLTV. Модели используются для определения оптимального ценового и продуктового предложения для клиентов – юридических лиц.
Мы ищем Data Scientist’a, желающего находить баланс между клиентом и банком, решая практические задачи в области ценообразования банковских продуктов, а также моделирования LTV клиентов при реализации различных сценариев.
Мы работаем с табличными данными, зачастую – с временными рядами.
Требования:
— Уверенное владение Python, SQL;
— Уверенное знание основных классических алгоритмов ML (linear models, random forest, gradient boosting)
— Корректное применение метрик оценки моделей;
— Опыт использования библиотек pandas, numpy, sklearn, catboost/lightgbm/xgboost;
— Знание мат. статистики;
Будет плюсом:
— Опыт решения задач ценообразования с помощью ML и uplift моделирования;
— Опыт работы с большими данными (Hadoop, Hive, Spark);
— Опыт работы в PyTorch, применение нейросетевых подходов в задачах с табличными данными;
— Умение работать c ОС Linux, Git.
Задачи:
— Анализ доступных данных на применимость для построения модели для конкретной бизнес-задачи;
— Разработка моделей лучше определенного NoML бенчмарка, приносящих пользу бизнесу;
— Демонстрация бизнес-заказчикам полученных результатов;
— Подготовка моделей для автоматизации;
— Работа с общим git-репозиторием.
Дополнительные условия:
— Расширенный соц. пакет (ДМС, страхование жизни), бесплатный тренажерный зал;
— Скидки от участников и партнеров Экосистемы, льготные условия по ипотеке и кредитам Сбера;
— MacBook Pro;
— Обучение на внутренних и внешних курсах, безлимитный доступ к Coursera.
Отправлять резюме и задать вопросы по вакансии:
vmipetrova@sberbank.ru, Валерия
Вилка ЗП: 200тр-330тр
Задачи:
— Автоматизация процесса обработки больших данных с использованием машинного обучения для решения практических задач компании.
— Разработка моделей как с использованием алгоритмов машинного обучения так и без, их внедрение в бизнес процессы компании, повышение их точности прогнозирования.
— Взаимодействие с заказчиками моделей, дата-инженерами и дата-аналитиками в рамках задачи по разработке и внедрению моделей. Задачи включают разработку модели любой сложности (логистические регрессии, классификации, нейросети, AI и т.д.).
— Формализация требований к сбору обучающей выборки.
— Генерация и проверка гипотез.
— Проведение исследований алгоритмов машинного обучения.
— Дизайн, разработка и тюнинг моделей машинного обучения.
— Построение и оптимизация пайплайнов от признаков до обучения моделей.
— Продуктивизация ML-решений.
— Проведение аналитических исследований и R&D на больших данных с применением ML.
— Нахождение оптимального архитектурного решения для удовлетворения потребностей бизнеса.
— Поддержка работоспособности решений, контроль качества получаемых данных.
Требования:
— Техническое образование (можно неполное высшее)
— Опыт работы в аналитике/ data science от 1 года
— Знание Теории вероятности, Мат. анализа и линейной алгебры, достаточного для чтения научных статей и проведения экспериментов
— Умение проверять статистические гипотезы, знание основных критериев
— Знание и понимание основных метрик и принципов оценки качества моделей и получаемого с их помощью результата, способов валидации моделей
— Уверенное знание python (+ классический набор библиотек для анализа данных/ машинного обучения: scikit-learn, numpy, pandas, plotly/ matplotlib/ seaborn
— Опыт обучения моделей градиентного бустинга, использования одной из библиотек (Catboost, LightGBM, XGBoost)
— Знание SQL, опыт работы с реляционными СУБД на уровне пользователя
— Умение работать с Git
Плюсом будет:
— Опыт продуктивизации моделей, поддержки ML-решений
— Опыт fullstack / backend разработки на phyton
— Навыки работы с Linux, Bash
— Опыт работы с нереляционными БД
— Опыт работы с docker, kunernetes, jenkins, airflow, kafka, prometeus, grafana kuBernetes
— Опыт использования Pytorch / Tensorflow
— Опыт написания ETL / построения витрин
— Успешное участие в соревнованиях по машинному обучению
Дополнительные условия:
— Работу в международной компании с сильной инженерной культурой;
— Денежную компенсацию: оклад, ежемесячный и квартальный бонусы;
— Компенсацию профессионального обучения (курсы, конференции и тд);
— Компенсацию изучения иностранного языка (английский, французский);
— Возможность получить акции ADEO Group;
— Полис ДМС (включая стоматологию), страхование жизни и здоровья;
— Компенсацию питания (столовая, кафе, яндекс.еда);
— Участие в конференциях и во внутренних, и внешних митапах;
— Компенсацию мобильной связи - телефон + SIM-карта;
— Гибридный график либо полная удалёнка.
Стек:
Catboost, LightGBM, TensorFlow, OpenCV, DVC, MLFlow
Вилка ЗП: по итогам собеседования
Какой график? Гибкое начало рабочего дня в промежутке с 8 до 11. Есть возможность работать несколько дней вне офиса по договоренности с командой.
Задачи:
— выгружать и готовить/обрабатывать данные (находить аномалии и инсайты)
— перебирать гиперпараметры ml-моделей, пока кросс-валидация не даст нормальный результат 🙂
— дорабатывать ml-модели из стандартных библиотек
— проверять бизнес гипотезы в offline и готовить дизайн A/B тестов
— доводить модель до прода совместно с разработчиками
Требования:
— опыт работы от 2 лет в области анализа данных и машинного обучения
— вы знаете, как работают ML-алгоритмы и не будете тратить время на эксперименты с заведомо плохими решениями
— понимаете, когда нужно остановиться и использовать вместо ML более простые и быстрые подходы
— у вас продвинутые знания Python, в т.ч. основных ml-библиотек
— умеете делать препроцессинг данных на SQL или PySpark
— умеете работать с git
— есть базовые навыки работы в Linux/Unix
Будет плюсом:
— знаете минимум один из классических языков C, Java, Scala, C/C++/C# и есть опыт программирования в прошлом
— есть опыт вывода ml-решений в продакшн
Стек:
— работаем с данными на классическом hadoop-стеке (Spark, Hive)
— разрабатываем на python3: R&D делаем в Jupyter, продуктивизируем в PyCharm
— обучаем модели на отдельных мощных машинах с видеокартами Tesla V100
— используем собственные разработки для скоринга больших данных и MLFlow для экспериментов
— храним код в gitlab, CI/CD в Jenkins, процессы запускаем в Airflow
Дополнительные Условия:
каждый месяц - аванс и зарплата, дважды в год - премия. ДМС + стоматология, корпоративная связь, специальные предложения от партнеров и друзей МТС, отпуск 31 день в год. Выдаем 16” MacBook Pro или Dell на выбор.
Обучение:
— Локальные и международные конференции, митапы.
— Корпоративный университет МТС и масштабная виртуальная библиотека.
— А ещё мы регулярно обмениваемся опытом на совместных синках с лидами экспертизы
Команда Big Data в поиске Data Scientist для развития экосистемы МТС.
У нас много задач классического ML на табличках (рисковый скоринг, лидогенерация, построение сегментов), рекомендательных систем (как в продуктах, так и в виде SaaS) и других R&D направлений (прогнозирование спроса, анализ выживаемости, модели на графах, геоаналитика и прочее). Развиваем как бизнес, так и технологические продукты (DataOps и MLOps платформы, RecSys\Targeting\AB\Forecasting движки, BigData as a Service).
В команде Data Science сейчас 30 человек (во всей Big Data МТС более 300 человек). Все DS поделены на группы со своими лидами - есть группа рекомендательных систем, скоринга и другие. Каждую неделю мы обмениваемся опытом на совместных синках.
DS работают в продуктах со своей автономной командой, в которой есть все роли: аналитики, DE, DS, разработчики, девопсы, менеджеры продукта.