본문 바로가기

web39

[Web] 스크래핑 데이터 저장 - ( week 3 ) 이제 스크래핑한 데이터를 DB에 저장해 보도록 한다. 베이스 코드 import requests from bs4 import BeautifulSoup URL = "https://movie.daum.net/ranking/reservation" headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'} data = requests.get(URL,headers=headers) soup = BeautifulSoup(data.text, 'html.parser') video_list = soup.select("#mainCo.. 2023. 4. 20.
[Web] MongoDB Atlas ( week 3 ) 우선 MongoDB Atlas 페이지에 접속해서 회원가입부터 진행한다. https://account.mongodb.com/account/register 그리고 Create Database를 선택해서 데이터 베이스를 생성해 주도록 한다. 테스트만 진행할것이기 때문에 무료로도 충분하다. 그러고 나서 Username과 Password를 만들어준다. 생성한 정보는 까먹지 않도록 따로 메모해 둔다. 그리고 아래에서 IP Address를 추가한다. 그리고 Finish를 하면 DB에 접속할 준비가 끝났다. 접속하기 python으로 해당 DB에 접속하기 위해서 두 가지 패키지가 필요하다. pip install dnspython pip install pymongo 두가지 패키지 설치가 모두 끝났으면 이제 코드를 작성한다.. 2023. 4. 20.
[Web] 크롤링 - ( week 3 ) 웹 페이지의 데이터를 가져오는 것을 웹 스크래핑 또는 크롤링이라고 한다. 데이터를 가져와볼 페이지는 https://movie.daum.net/ranking/reservation 이다. 베이스 코드 import requests from bs4 import BeautifulSoup URL = "https://movie.daum.net/ranking/reservation" headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'} data = requests.get(URL, headers=headers) soup =.. 2023. 4. 20.
[Web] 파이썬 패키지설치법 ( week 3 ) vscode로 열려있는 프로젝트 상태가 select default profile이 git bash인 상태여야 한다. 터미널에서 python -m venv venv를 입력해 본다. 그러면 현재 프로젝트에서 venv 이름으로 폴더가 생성이 된다. 이 폴더가 라이브러리를 저장하는 공간이다. 그러고 나서 현재 프로젝트에서 사용 중인 파이썬을 변경해주어야 한다. vscode 하단에 보면 파이썬과 버전 정보가 보이는 곳이 있는데 여길 클릭하고 Python 3.8.6 venv를 선택해 준다. 그러고 나서 다시 터미널을 실행시켜 본다. 그러면 메시지가 뜨는데 이 메시지의 의미는 이제부터 라이브러리를 설치하고 꺼내 쓰는 경로를 venv 폴더로 하겠다는 의미이다. 확인할 겸 라이브러리를 하나 설치해 본다. 설치하는 명령어.. 2023. 4. 20.