КУРС ЛЕКЦИЙ ПО ИСКУССТВЕННОМУ ИНТЕЛЛЕКТУ
зачем?
Каждый участник получает сертификат, который может предоставить при поступлении в магистратуру по одному из направлений
Программа предполагает групповое обучение, что экономически выгодно для каждого студента
Школа дает отличную возможность познакомиться с образовательным процессом, преподавателями, а также узнать о возможностях, которые открывает учеба в магистратуре
  • ЯЗЫК ОБУЧЕНИЕ
    Школа проводится на русском языке. По запросу группы школа может быть проведена на английском языке.
  • СРОК ОБУЧЕНИЯ
    Продолжительность школы составляет 1 неделю, в течение которой участников ждет насыщенная программа лекций от ведущих преподавателей НГУ.
  • КОЛИЧЕСТВО УЧАСТНИКОВ
    Школа проводится для группы из 10-15 участников.
    Обучение в школе начнется по мере формирования группы.
  • ФОРМАТ ОБУЧЕНИЯ
    Обучение проходит в онлайн-формате на платформе Voov или Zoom (работа на других платформах проводится по согласованию с преподавателями)
программа школы
1

Введение в глубокое обучение

Отличие глубокого машинного обучения от классического машинного обучения. Примеры использования искусственных нейронных сетей. Основные термины в глубоком обучении. Обсуждение необходимого математического аппарата для понимания курса. Обзор популярных фреймворков для глубокого обучения. Обзор основных типов задач в глубоком обучении. Линейная регрессия. Логистическая регрессия. Сигмоида. Искусственная нейронная сеть как ансамбль линейных классификаторов.
2
Обучение модели
Модель перцептрона. Функция ошибки. Разбор градиентного спуска. Learning rate. Обратный проход в искусственной нейронной сети. Правило цепи. Разбор обратного прохода на примере.
3
Классификация с помощью нейронных сетей
Метрики в задачах классификации: accuracy, precision, recall. Полносвязный слой искусственной нейронной сети. Написание простой трехслойной искусственной нейронной сети, используя Python и модуль Numpy.
4
Оптимизаторы
Определение оптимизаторов, их применение. BatchNormalisation и его принципы работы, в каких случаях он незаменим. Вывод формулы BN и разбор примеров. Разбор стохастического градиентого спуска (SGD). Недостатки и преимущества использования пакетов батчей для градиентного спуска. SGD с импульсом (momentum), его идея и преимущества. Метод ADAM, его основная идея и отличие от SGD+momentum. Правильный подбор значений learning rate и пара слов об RADAM. Немного о таких понятиях как overfitting и underfitting. L1 и L2 регуляризация, как они помогают бороться с overfitting.
5
Сверточные слои
Что такое свёртка? Как данный алгоритм выглядит на бумаге, выполнение свёртки руками. Что такое MaxPooling и AveragePooling слои, их суть. Архитектуры с первыми свёрточными сетями. Разница между линейными слоями и свёрточными. Демонстрация работы нейронной сети со свёрточными слоями для классификации изображений.
6
Свёрточные слои, алгоритм обратного распространения ошибки, связь с полносвязным слоем
Разбор алгоритма и вывод формул обратного распространения ошибки и градиентного спуска в применении к свёрточным слоям нейронной сети, реализация алгоритма на языке программирования Python. Представление операции свертки через матричное умножение. Сравнение метрик классификации при использовании свёрточных нейронных сетей в противовес полносвязным на примерах задач.
7
Тренировочный процесс. Понятия Dropout и skip-connection
Разбор проблемы переобучения и её решений. Обучение ансамбля нейронных сетей с помощью Dropout. Взрывы и затухания градиентов, skip-connection как решение проблемы затухания градиента и деградации в нейронной сети. Разбор архитектуры ResNet. Знакомство с архитектурой Unet с примером иного использования skip-connection. Как уменьшить количество операций умножения на примере «зловещих» (dilated) свёрток и свёрток по глубине (deepthwise).
8
Задача детекции объектов. Краткий экскурс в другие задачи
Разбор постановки задачи детекции объектов. Пересечение над объединением (Intersection over Union). Эволюция многоступенчатых детекторов – RCNN, fast RCNN, faster RCNN. Алгоритм Non-Maximum Suppression и mean Average Precision. Одноступенчатые детекторы – SSD и YOLO. Примеры использования фреймворков для задачи детекции. Отличия задачи сегментации от задачи детекции. Генеративные состязательные сети на примере CycleGAN. Несколько слов про обучение с подкреплением и про область естественной обработки языка (NLP).
СТОИМОСТЬ
УЧАСТИЯ
10 000 юаней
для группы из 15+ человек
ОСТАВИТЬ ЗАЯВКУ
Заполните эту форму, если Вы хотите участвовать в школе и подаете заявку от себя
Заполните эту форму, если Вы — представитель организации или рекрутингового агентства
Остались вопросы?
Отдел международного рекрутинга НГУ
630090, г. Новосибирск, ул. Пирогова, 1, каб.2325

+7 (383) 363-42-92

interstudy@nsu.ru
© 2024 Новосибирский государственный университет
Контакты
630090, Новосибирск, ул. Пирогова, 1

Мы в соцсетях
Используются фотографии из сети Интернет