Trinity
Администратор
- Регистрация
- 10.07.21
- Сообщения
- 31.580
- Реакции
- 446.457
[Udemy] Расширенное обучение с подкреплением в Python: от DQN до SAC (2022)
Это самый полный курс Advanced Reinforcement Learning на Udemy. В нем вы научитесь реализовывать некоторые из самых мощных алгоритмов глубокого обучения с подкреплением в Python с использованием PyTorch и молнии PyTorch. Вы будете реализовывать с нуля адаптивные алгоритмы, решающие задачи управления на основе опыта. Вы научитесь сочетать эти методы с методами нейронных сетей и глубокого обучения для создания адаптивных агентов искусственного интеллекта, способных решать задачи принятия решений.
Этот курс познакомит вас с современными методами обучения с подкреплением. Это также подготовит вас к следующим курсам из этой серии, где мы рассмотрим другие продвинутые методы, которые превосходны в других типах задач.
Курс ориентирован на развитие практических навыков. Поэтому, изучив наиболее важные концепции каждого семейства методов, мы с нуля реализуем один или несколько их алгоритмов в блокнотах Jupyter.
Модули выравнивания:
– Повторный курс: Марковский процесс принятия решений (MDP).
– Повторный курс: Q-Learning.
- Повторный курс: краткое введение в нейронные сети.
– Повторный курс: глубокое Q-обучение.
– Повторение: Методы градиента политики
Продвинутое обучение с подкреплением:
— Молния PyTorch.
– Настройка гиперпараметров с помощью Optuna.
– Глубокое Q-Learning для пространств с непрерывным действием (нормализованная функция преимущества – NAF).
– Глубокий детерминированный градиент политики (DDPG).
– DDPG с двойной задержкой (TD3).
– Мягкий Актер-Критик (SAC).
- Воспроизведение ретроспективного опыта (HER).
Для кого этот курс:
Подробнее:
Это самый полный курс Advanced Reinforcement Learning на Udemy. В нем вы научитесь реализовывать некоторые из самых мощных алгоритмов глубокого обучения с подкреплением в Python с использованием PyTorch и молнии PyTorch. Вы будете реализовывать с нуля адаптивные алгоритмы, решающие задачи управления на основе опыта. Вы научитесь сочетать эти методы с методами нейронных сетей и глубокого обучения для создания адаптивных агентов искусственного интеллекта, способных решать задачи принятия решений.
Этот курс познакомит вас с современными методами обучения с подкреплением. Это также подготовит вас к следующим курсам из этой серии, где мы рассмотрим другие продвинутые методы, которые превосходны в других типах задач.
Курс ориентирован на развитие практических навыков. Поэтому, изучив наиболее важные концепции каждого семейства методов, мы с нуля реализуем один или несколько их алгоритмов в блокнотах Jupyter.
Модули выравнивания:
– Повторный курс: Марковский процесс принятия решений (MDP).
– Повторный курс: Q-Learning.
- Повторный курс: краткое введение в нейронные сети.
– Повторный курс: глубокое Q-обучение.
– Повторение: Методы градиента политики
Продвинутое обучение с подкреплением:
— Молния PyTorch.
– Настройка гиперпараметров с помощью Optuna.
– Глубокое Q-Learning для пространств с непрерывным действием (нормализованная функция преимущества – NAF).
– Глубокий детерминированный градиент политики (DDPG).
– DDPG с двойной задержкой (TD3).
– Мягкий Актер-Критик (SAC).
- Воспроизведение ретроспективного опыта (HER).
Для кого этот курс:
- Разработчики, которые хотят получить работу в области машинного обучения.
- Ученые/аналитики данных и специалисты по машинному обучению, стремящиеся расширить свои знания.
- Студенты и исследователи робототехники.
- Студенты инженерных специальностей и исследователи.
- Удобство программирования на Python
- Завершение нашего курса «Обучение с подкреплением от новичка до мастера» или знакомство с основами обучения с подкреплением (или просмотр разделов выравнивания, включенных в этот курс).
- Знать базовую статистику (среднее, дисперсия, нормальное распределение)
Подробнее:
Скачать:Для просмотра ссылок необходимо выполнить Вход или Регистрация
Для просмотра скрытого содержимого вы должны войти или зарегистрироваться.