Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 밴쿠버응급실
- SubqueryFilter
- statement
- onetoone
- sql
- javascript
- 자바스크립트
- query
- PreparedStatement
- cursor()
- 몽고디비
- sqlite3
- subquery
- Join
- DB
- python데이터베이스연동
- 서브쿼리
- insertOne
- postgres
- PostgresDB
- 데이터베이스
- MongoDB
- Collections
- insert_into
- python
- PostgreSQL
- 파이썬
- MySQL
- DATABASE
- DBFilter
Archives
- Today
- Total
목록crawler #python (1)
새벽코딩

먼저, Web crawler 란? 특정 website에서 데이터를 가져와서 자동으로 데이터를 정리, 저장해주는 프로그램이다. 만드는 순서는 1. Python을 이용하여 데이터를 수집하고자 하는 웹페이지에 접속 2. 해당 페이지에 있는 HTML을 전부 다운받음 3. 원하는 글자 (tag 등)이 있는 부분을 찝어냄 4. 저장 또는 해당 데이터 사용 Web crawler (웹크롤러)를 위해서 두가지 라이브러리를 설치해야한다. 터미널에 아래와 같이 입력하여 설치 진행 pip install requests pip install bs4 나는 windows10를 사용 중인데, 설치가 완료되었음에도 불구하고 ImportError: No module named requests ImportError: No module n..
Programming/Python_crawler
2022. 9. 25. 18:24