- Today
- Total
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- gdrive
- 파이썬 알고리즘
- 파이썬 강좌
- 파이썬 자료구조
- 파이썬
- 크롤링
- 코딩시험
- c언어
- 면접 파이썬
- Crawling
- python 중간고사
- 채용문제
- 파이썬 입문
- 파이썬활용
- 알고리즘 강좌
- 대학시험
- 파이썬3
- 쉬운 파이썬
- 알고리즘
- 알고리즘 강의
- 코딩문제
- python data structure
- 기말시험
- 자료구조
- 프로그래밍
- 셀레니움
- 파이썬 강의
- selenium
- 자료구조 강의
- 중간시험
반원 블로그
[파이썬 레시피 - 웹 활용 입문편] 01. 웹 크롤링 - B. 네이버 날씨 미세먼지 가져오기 본문
[파이썬 레시피 - 웹 활용 입문편] 01. 웹 크롤링 - B. 네이버 날씨 미세먼지 가져오기
반원_SemiCircle 2019. 6. 1. 09:05웹 페이지 가져오기
네이버에 날씨 페이지를 이용하면, 요청장소의 위치를 알아서 계산해주기때문에 GPS 정보를 따로 계산할 필요가 없습니다.
from bs4 import BeautifulSoup as bs
from pprint import pprint
import requests
html = requests.get('https://search.naver.com/search.naver?query=날씨')
pprint(html.text)
파싱
웹 페이지는 HTML이라는 언어로 쓰여져있습니다. 이를 파이썬에서 쉽게 분석할 수 있도록 파싱작업을 거쳐 각 요소에 접근이 쉽게 만들겠습니다.
from bs4 import BeautifulSoup as bs
from pprint import pprint
import requests
html = requests.get('https://search.naver.com/search.naver?query=날씨')
#pprint(html.text)
soup = bs(html.text,'html.parser')
크롬 개발자 도구
개발자 도구를 이용하면 현재 웹 페이지 요소를 쉽게 분석할 수 있습니다.
요소 1개 찾기(find)
이제 각 요소에 쉽게 접근할 수 있습니다. 미세먼지 정보가 있는 div 요소만 추출해봅시다.
[[TIP]]
여기서 중요한 부분은 추출된 웹페이지 소스코드입니다.
HTML 요소는 <태그 속성 = 속성값> 텍스트 </태그> 가 기본 구조입니다.(예외도 있습니다.)
즉 위 그림에서 알아낸 요소는
- 태그 : div
- 속성 : class
- 속성값 : detail_box
입니다.
이제 변환한 데이터에 find( 태그, { 속성 : 속성값} ) 를 사용하여 해당 부분만 추려봅시다.
from bs4 import BeautifulSoup as bs
from pprint import pprint
import requests
html = requests.get('https://search.naver.com/search.naver?query=날씨')
# pprint(html.text)
soup = bs(html.text,'html.parser')
data1 = soup.find('div',{'class':'detail_box'})
pprint(data1)
요소 모두 찾기(findAll)
find와 사용방법이 똑같으나 find는 처음 매칭된 1개만, findAll은 매칭된 모든 것을 반환하며 리스트로 반환합니다.
개발자 도구를 이용하면 각 줄이 <dd>에 해당하는 걸 알 수 있습니다. 마침 미세먼지 줄이 1번째라 find를 써도 되지만, 나중에 초미세먼지, 오존지수도 접근할 수 있도록 코드를 작성하겠습니다.
find와 findAll은 사용방법이 같습니다. 즉 매개변수 부분도 같습니다.
그리고 find와 findAll 둘 다 태그만 가지고도 사용할 수 있습니다.(즉, 속성과 속성값 부분이 생략 가능합니다.)
div.detail_box까지 추출하여 data1에 저장했으니, 여기에 findAll을 사용해봅시다.
from bs4 import BeautifulSoup as bs
from pprint import pprint
import requests
html = requests.get('https://search.naver.com/search.naver?query=날씨')
# pprint(html.text)
soup = bs(html.text,'html.parser')
data1 = soup.find('div',{'class':'detail_box'})
#pprint(data1)
data2 = data1.findAll('dd')
pprint(data2)
리스트 길이 3개가 확인되며, 0~2 인덱스에 해당되는 값은 각각 미세먼지, 초미세먼지, 오존지수 줄에 해당합니다.
내부 텍스트 추출
가운데에 있는 실질적인 데이터(숫자와 단위) 부분만 추출해봅시다.
span태그에 속성과 속성값은 class = "num"입니다. 여태까지 다룬대로 하면 다음처럼 될 것입니다.
from bs4 import BeautifulSoup as bs
from pprint import pprint
import requests
html = requests.get('https://search.naver.com/search.naver?query=날씨')
# pprint(html.text)
soup = bs(html.text,'html.parser')
data1 = soup.find('div',{'class':'detail_box'})
#pprint(data1)
data2 = data1.findAll('dd')
# pprint(data2)
fine_dust = data2[0].find('span',{'class':'num'})
print(fine_dust)
그런데 이렇게 하면 코드가 나와버립니다. 여기서는 내부 텍스트만 골라내도록 .text를 이용해봅시다.
위에서 언급한 HTML의 기본 구성을 확인하세요. <태그>텍스트</태그>에서 텍스트만 골라내는 방법입니다.
from bs4 import BeautifulSoup as bs
from pprint import pprint
import requests
html = requests.get('https://search.naver.com/search.naver?query=날씨')
# pprint(html.text)
soup = bs(html.text,'html.parser')
data1 = soup.find('div',{'class':'detail_box'})
#pprint(data1)
data2 = data1.findAll('dd')
# pprint(data2)
fine_dust = data2[0].find('span',{'class':'num'}).text
print(fine_dust)
초미세먼지 추출
여태까지 다룬 것을 응용하여 초미세먼지도 출력해봅시다. data2 변수에서 미세먼지는 0번 인덱스, 초미세먼지는 1번 인덱스였다는 것을 떠올리세요.
from bs4 import BeautifulSoup as bs
from pprint import pprint
import requests
html = requests.get('https://search.naver.com/search.naver?query=날씨')
# pprint(html.text)
soup = bs(html.text,'html.parser')
data1 = soup.find('div',{'class':'detail_box'})
#pprint(data1)
data2 = data1.findAll('dd')
# pprint(data2)
fine_dust = data2[0].find('span',{'class':'num'}).text
print(fine_dust)
ultra_fine_dust = data2[1].find('span',{'class':'num'}).text
print(ultra_fine_dust)
'2018~ > 파이선 레시피 웹 활용 입문편' 카테고리의 다른 글
[파이썬 레시피 - 웹 활용 입문편] 02. 웹 자동화 - C. 1 to 50 봇 (0) | 2019.06.08 |
---|---|
[파이썬 레시피 - 웹 활용 입문편] 02. 웹 자동화 - B. 유튜브 키워드 검색 (0) | 2019.06.08 |
[파이썬 레시피 - 웹 활용 입문편] 02. 웹 자동화 - A. Selenium 설치 (0) | 2019.06.08 |
[파이썬 레시피 - 웹 활용 입문편] 01. 웹 크롤링 - D. 네이버 웹툰 썸네일 가져오기 (0) | 2019.06.01 |
[파이썬 레시피 - 웹 활용 입문편] 01. 웹 크롤링 - C. 네이버 웹툰 제목 가져오기 (0) | 2019.06.01 |
[파이썬 레시피 - 웹 활용 입문편] 01. 웹 크롤링 - A. BeautifulSoup4, requests 설치 (0) | 2019.06.01 |
[파이썬 레시피 - 웹 활용 입문편] 00. B. 동영상 강의 (0) | 2019.05.31 |
[파이썬 레시피 - 웹 활용 입문편] 00.A. 소개 (0) | 2019.05.31 |