MilkShake
Администратор
- Регистрация
- 01.07.21
- Сообщения
- 14.414
- Реакции
- 103.015
[Alexander Schlee] [Udemy] Web Scraping APIs for Data Science 2021 (PostgreSQL+Excel) (2021)
Чему вы научитесь:
- web scraping (парсинг)
- data mining (сбор данных)
- output data in Excel (перенос данных в эксель)
- run SQL commands on your dataframe (использование команд SQL)
- data extraction (извлечение данных)
- create your own dataset (создание собственных наборов данных)
- output your dataframe in PostgreSQL (перенос данных в PostgreSQL)
В этом курсе студенты узнают, как очищать данные из API веб-сайта (если таковой имеется). Начнем с основ и проекта начального уровня. После этого будут рассмотрены два разных проекта, а затем продвинутый проект. После очистки данных проекта результаты будут сохранены в файле Excel. В рамках проекта продвинутого уровня мы создадим два разных набора данных по 5000 результатов в каждом. Цель состоит в том, чтобы объединить оба фрейма данных (всего: 10000 результатов), сохранить их в Excel и вывести данные в базу данных PostgreSQL, а также выполнить команды SQL для наших собственных данных.
Требование для прохождения этого курса - базовые знания программирования на Python. Поскольку мы не будем рассматривать очень сложные темы Python, вам не обязательно быть профессионалом. Самая важная характеристика - это то, что вам интересно узнать о веб-парсинге и интеллектуальном анализе данных. Вы должны быть готовы потратить время на получение знаний, которые преподаются в этом курсе.
После этого курса у вас будут знания и опыт для очистки собственных данных и создания собственного набора данных.
Материалы курса
5 разделов • 23 лекций • Общая продолжительность 4 ч 25 мин
+ jupyter notebooks
Язык курса - английский + субтитры
Подробнее:
Чему вы научитесь:
- web scraping (парсинг)
- data mining (сбор данных)
- output data in Excel (перенос данных в эксель)
- run SQL commands on your dataframe (использование команд SQL)
- data extraction (извлечение данных)
- create your own dataset (создание собственных наборов данных)
- output your dataframe in PostgreSQL (перенос данных в PostgreSQL)
В этом курсе студенты узнают, как очищать данные из API веб-сайта (если таковой имеется). Начнем с основ и проекта начального уровня. После этого будут рассмотрены два разных проекта, а затем продвинутый проект. После очистки данных проекта результаты будут сохранены в файле Excel. В рамках проекта продвинутого уровня мы создадим два разных набора данных по 5000 результатов в каждом. Цель состоит в том, чтобы объединить оба фрейма данных (всего: 10000 результатов), сохранить их в Excel и вывести данные в базу данных PostgreSQL, а также выполнить команды SQL для наших собственных данных.
Требование для прохождения этого курса - базовые знания программирования на Python. Поскольку мы не будем рассматривать очень сложные темы Python, вам не обязательно быть профессионалом. Самая важная характеристика - это то, что вам интересно узнать о веб-парсинге и интеллектуальном анализе данных. Вы должны быть готовы потратить время на получение знаний, которые преподаются в этом курсе.
После этого курса у вас будут знания и опыт для очистки собственных данных и создания собственного набора данных.
Материалы курса
5 разделов • 23 лекций • Общая продолжительность 4 ч 25 мин
+ jupyter notebooks
Язык курса - английский + субтитры
Подробнее:
Скачать:Для просмотра ссылок необходимо выполнить Вход или Регистрация
Для просмотра скрытого содержимого вы должны войти или зарегистрироваться.