250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
Tags
- 항해99 미니프로젝트
- Js module
- next js
- 웹팩 기본개념
- 렌더링 최적화
- 항해99
- 테스트 코드 툴 비교
- 실행컨텍스트
- 웹 크롤링
- toggle-btn
- 항해99 사전스터디
- 코어자바스크립트
- FP 특징
- jwt
- 리액트 메모이제이션
- js배열 알고리즘
- JS module system
- v8 원리
- 자바스크립트 엔진 v8
- this
- 리액트 메모
- 함수형 프로그래밍 특징
- chromatic error
- 리액트 렌더링 최적화
- 리덕스
- gql restapi 차이
- 리액트
- 항해99 부트캠프
- 알고리즘
- 타입스크립트
Archives
- Today
- Total
Jaeilit
항해99_사전스터디_3주차_웹크롤링 본문
728x90
웹 크롤링과 파이썬, mongoDB 에 대해서 간단하게 학습하기
웹 크롤링 기본 툴
import requests
from bs4 import BeautifulSoup
# 타겟 URL을 읽어서 HTML를 받아오고,
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)
# HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
# soup이라는 변수에 "파싱 용이해진 html"이 담긴 상태가 됨
# 이제 코딩을 통해 필요한 부분을 추출하면 된다.
soup = BeautifulSoup(data.text, 'html.parser')
data = requests.get('url', headers = headers) 이 부분의 headers 는 사이트를.. 뚫기위한..? 수단..으로 이해됨.
저 부분의 코드가 작성되지 않으면 크롤링으로 무엇을 가져오려고하든 None이 반환된다. (직접 겪음)
선택자 사용방법 & 크롤링 하기
크롤링 방법
1.웹페이지의 원하는 부분에서 마우스 오른쪽 클릭 - 검사
2. 원하는 태그에서 마우스 오른쪽 클릭
3. Copy 항목 -> Copy selector 로 선택자를 복사
크롤링을 위한 선택자 사용방법
# 선택자를 사용하는 방법 (copy selector)
soup.select('태그명')
soup.select('.클래스명')
soup.select('#아이디명')
soup.select('상위태그명 > 하위태그명 > 하위태그명')
soup.select('상위태그명.클래스명 > 하위태그명.클래스명')
# 태그와 속성값으로 찾는 방법
soup.select('태그명[속성="값"]')
# 한 개만 가져오고 싶은 경우
soup.select_one('위와 동일')
위에서 복사한 선택자를 직접 활용해보기
movies = soup.select('#old_content > table > tbody > tr')
movie = movies.select_one('td.title> div > a')
movie['alt'] 속성 값,
movie.text 텍스트값
텍스트 사이의 빈 공백 없애주기(문자열 자르기)
movie.text.strip() 좌우 공백 없애주기
movie.text[0:2] 0에서 2번째 까지의 문자열을 잘라서 자른 값을 반환한다.
활용 예제
# select를 이용해서, tr들을 불러오기
(크롤링 진행할 속성들의 공통인 부분까지 불러온다.)
movies = soup.select('#old_content > table > tbody > tr')
# movies (tr들) 의 반복문을 돌리기
for movie in movies:
# movie 안에 a 가 있으면,
a_tag = movie.select_one('td.title > div > a')
if a_tag is not None:
rank = movie.select_one('td:nth-child(1) > img')['alt'] # img 태그의 alt 속성값을 가져오기
title = a_tag.text # a 태그 사이의 텍스트를 가져오기
star = movie.select_one('td.point').text # td 태그 사이의 텍스트를 가져오기
print(rank,title,star)
DB 활용해보기
SQL(관계형 데이터베이스) vs NoSQL(비관계형 데이터베이스)
좋은 글: https://siyoon210.tistory.com/130
좋은 글: https://gyoogle.dev/blog/computer-science/data-base/SQL%20&%20NOSQL.html
MongDB 간단한 사용방법
코드 요약
# 기본 사용 툴 import / from
from pymongo import MongoClient
client = MongoClient('localhost', 27017)
db = client.dbsparta
# 저장 - 예시
doc = {'name':'bobby','age':21}
db.users.insert_one(doc)
# 한 개 찾기 - 예시
user = db.users.find_one({'name':'bobby'})
# 여러개 찾기 - 예시 ( _id 값은 제외하고 출력)
same_ages = list(db.users.find({'age':21},{'_id':False}))
# 바꾸기 - 예시
db.users.update_one({'name':'bobby'},{'$set':{'age':19}})
# 지우기 - 예시
db.users.delete_one({'name':'bobby'})
# 외에도 updata나 delete_many 라는 전체영역도 있는데 잘 쓰이지 않는다고 한다.
728x90
'항해99 3기' 카테고리의 다른 글
항해99_사전스터디_미니프로젝트_댓글기능 구현하기 (0) | 2021.09.01 |
---|---|
항해99_사전스터디_4주차 (0) | 2021.08.06 |
항해99_사전스터디_3주차_숙제 (0) | 2021.07.22 |
항해99 사전스터디 1주차_숙제 (0) | 2021.07.21 |
항해99 사전스터디 1주차_웹_동작원리 (0) | 2021.07.16 |