14 июня 2022
с 10:00 до 19:00 (мск)
Data Science, машинное обучение и нейросети
Купить записи программаНа один день вы попадете в круг «своих» людей, которым не надо объяснять, что такое датасет и анализ данных. Спикеры расскажут о своих успешных кейсах, и вы сможете применить полученные знания, а также поупражняться на воркшопах
Каждый день появляются новые способы применения технологий NLP и CV, необходимо постоянно следить за трендами, чтобы оставаться востребованным специалистом
Вы увидите самый передовой опыт коллег и применение последних технологий искусственного интеллекта. Узнаете различные варианты прикладного применения ML алгоритмов
Здесь вы сможете найти себе подрядчика, потому что на конференции собирается весь «цвет» индустрии. А также разобраться, как это все работает и устроено изнутри
Вы познакомитесь с коллегами, получите поддержку, обменяетесь опытом и найдете новых друзей среди позитивных и открытых людей
Вы услышите насыщенные доклады профессионалов по Dаta Science, поучаствуете в воркшопах, получите концентрированную дозу опыта и прокачаете свой уровень
Получите максимум позитива и большой поток энергии. Унесете с собой новые идеи, инсайты и мотивацию
Доктор физико-математических наук, доцент Сколтеха
Технический лидер по машинному обучению, ML Space, Sbercloud
Эксперт отдела ИИ, Цифрум (Росатом)
Head of R&D @ MTS Big Data
Data-scientist в Dannie-EMS
Research Product Manager в DeepPavlov.ai
Lead Data Scientist Evidently AI
Руководитель группы разработки проекта DD Planet
iOS разработчик
Research Scientist в Huawei
Преподаватель краудсорсинга в ШАДе, ВШЭ, МФТИ. CTO TrainingData.Solutions
Computer Vision Engineer в EORA.ai
Руководитель отдела машинного обучения Работа.ру
Ментор проекта AI Talent Hub, ML Engineer компании Napoleon IT
Head of ML CherryLabs, CTO RemBrain
10:00-10:40
Доктор физико-математических наук, доцент Сколтеха
Обучение больших нейросетевых моделей требует огромных ресурсов, а использование современных кластерных систем далеко от идеального: не хватает памяти, времени, вычислительных мощностей. В докладе будет дан обзор современного состояния дел, упомянуты свежие разработки и те направления, которые еще необходимо развить
10:40-10:50
11:00-11:40
Data-scientist в Dannie-EMS
1. Edge ML/AI:
• Что это?
• Зачем это?
• Где это?
2. Выбор и подготовка модели для имплементации на чипе
• Почему SOTA модели зачастую не подходят: архитектура, сложность, вес;
• Методы оптимизации модели: прореживание, дистилляция, квантизация;
• Соотношение FPS / Metrics
3. Как сэкономить на стоимости SoC и не сойти с ума. Особенности работы с небольшими китайскими компаниями
• Особенности настройки окружения, система обновлений в формате trouble-shooting;
• Использование кастомных библиотек машинного обучения, ограничение поддерживаемых слоев, необходимость квантования;
• Невозможномть/неэффективность использования предобученных моделей
4. Светлое EDGE будущее или что будет дальше?
11:40-11:50
12:00-12:40
Технический лидер по машинному обучению, ML Space, Sbercloud
• Какие проблемы решает Elastic Learning
• Нативные варианты запуска PyTorch на кластере Kubernetes
• Варианты запуска distributed и elastic distributed задач
12:40-12:50
13:00-14:00
14:00-14:40
Head of R&D @ MTS Big Data
• Применимость кликстрим-данных к нетривиальным задачам в области сегментации аудитории
• Удачные и неудачные методы и архитектуры моделей для работы с ними
• Полученные бизнес-результаты
• Как обрабатывать и готовить к моделированию кликстрим-данные
• Почему эмбеддинги хороши в этой задаче
• LSTM vs Transformer - а может вообще не нужна сетка?
• Как упрощать бизнес-имплементацию модели с помощью Transfer Learning
• Перспективы такого рода моделей
14:40-14:50
15:00-15:40
Research Scientist в Huawei
• Разберём основы DDPM, DDIM и ScoreSDE без огромных и страшных формул
• Изучим связь данной парадигмы с normalizing flows, denoising autoencoders и optimal transport maps
• Сделаем обзор недавних модификаций (unconditional guidance, latent diffusion), и оценим какие важны, а какими можно пренебречь
• Прикинем, в каких практических задачах они могут пригодится, и как уже используются в SOTA решениях (DALLE-2, ImaGen, Video Diffusion)
• Поговорим о главных проблемах и как их пытаются решить
15:40-15:50
16:00-16:40
Эксперт отдела ИИ, Цифрум (Росатом)
• Какие задачи бывают при анализе временных рядов?
• Какие специализированные библиотеки есть для решения этих задач?
• Какие особенности у этих библиотек?
• Как их применять на реальных данных?
16:40-16:50
17:00-17:40
iOS разработчик
• Как ускорить пайплайн обработки данных на GPU
• Плюсы и минусы DeepStream
• Архитектура решения и как писать свои кернелы на GPU
• Замеры производительности и выводы “стоит ли овчинка выделки”
17:40-17:50
18:00-18:40
Computer Vision Engineer в EORA.ai
• Рассмотрим некоторые фреймворки обучения
• Поговорим о фреймворке обучения TorchOk и для чего он нужен
• Заглянем под капот TorchOk
• Запустим обучение с помощью TorchOk
18:40-18:50
11:00-11:40
Head of ML CherryLabs, CTO RemBrain
• История. Обзор методов и подходов
• Обобщенная архитектура систем распознавания номеров, частные применения и их вариации
• Обзор нейронных сетей для архитектурных модулей
• Обзор существующих готовых пайплайнов и OpenSource исходников
• Пару слов про аппаратные варианты
11:40-11:50
12:00-12:40
Руководитель группы разработки проекта DD Planet
В докладе рассматриваются прикладные возможности NLP для поиска и сопоставления больших объемов текстовых данных:
• Как используется семантическая близость текстов в прикладных целях
• Как она связана с полнотекстовым поиском
• В чем проблема использования классификационных моделей для поиска семантически близких текстов
• Как можно построить эмбеддинг, косинусная мера от которого будет решать задачу поиска семантически близких текстов не сильно хуже классификационных моделей
• Как задача поиска семантически близких текстов может быть полезна при решении некоторых экстремальных классификационных задач
12:40-12:50
13:00-14:00
14:00-14:40
Research Product Manager в DeepPavlov.ai
• Проблемы и задачи при создании диалоговых систем
• Обзор решений для создания ИИ-ассистентов
• Основные подходы при разработке Task-Oriented и Closed-Domain систем
• Основные подходы при разработке Open-Domain диалоговых систем
• Разработка ИИ-ассистента на примере платформы Dream
14:40-14:50
15:00-15:40
Руководитель отдела машинного обучения Работа.ру
• Расскажем про текущий пайплайн с технической и бизнес сторон
• Подробно разберем жизненный цикл навыка
• Рассмотрим интеграцию с внешними графами знаний
• Расскажем про архитектуру сервиса рекомендации навыков на основе Neo4j
15:40-15:50
16:00-16:40
Ментор проекта AI Talent Hub, ML Engineer компании Napoleon IT
• Почему модели деградируют и их приходится переобучать?
• Как быстро обеспечить версионирование больших наборов данных?
• Переход от “Script-driven process” к AirFlow
• Упрощение просмотра и проверки данных с помощью кастомной платформы разметки
• Как можно сделать лучше с помощью ClearML
16:40-16:50
17:00-17:40
Lead Data Scientist Evidently AI
• Что такое drift в данных и как его можно измерить
• Зачем нужен мониторинг ML-моделей в production и как это делать
• Почему с drift все сложно
• Какие бывают статтесты и метрики для измерения drift
• Как выбрать подходящий для вашей задачи статтест
17:40-17:50
18:00-18:40
Преподаватель краудсорсинга в ШАДе, ВШЭ, МФТИ. CTO TrainingData.Solutions
• Отличия между Data-Centric и Model-Centric подходами
• Итеративный подход к разметке: плюсы и минусы
• Построение эффективного процесса обучения разметчиков
• Методы контроля качества
• Основные ошибки в менеджменте разметчиков
18:40-18:50
Основная цель проекта – повышение профессионального уровня знаний специалистов, исследователей и инженеров, связанных с Data Science. Живое общение и обмен опытом
Конференция рассчитана на специалистов уже «в теме» уровня Middle, но мы уверены, что доклады будут полезны на любом уровне профессионализма, ведь эта отрасль очень многогранна
Если вы только учитесь, DataStart будет вдвойне полезен. Мало того, что вы сможете получить отборную информацию из первых уст, так еще и познакомитесь с людьми, которые способны объяснить сложные понятия простыми словами
Конференции DataStart происходят со средней частотой два-три раза в год. Этого времени как раз хватает на то, чтобы у вас накопились вопросы и появилось желание, чтобы впитать новую порцию знаний
Команда DataStart скоро с Вами свяжется
Письмо с видеозаписями придет после подтверждения почтового адреса
Вся дальнейшая информация и доступ к трансляции через Личный кабинет
Перейти в Личный кабинетПригласить друзей: