- Today
- Total
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 면접 파이썬
- python data structure
- 중간시험
- 파이썬3
- 알고리즘 강좌
- 파이썬 자료구조
- 알고리즘
- c언어
- 파이썬 강의
- 코딩문제
- 자료구조 강의
- 쉬운 파이썬
- 파이썬 알고리즘
- 알고리즘 강의
- 프로그래밍
- 크롤링
- 파이썬 강좌
- 채용문제
- 대학시험
- 파이썬
- 셀레니움
- gdrive
- Crawling
- selenium
- 자료구조
- 파이썬활용
- 기말시험
- python 중간고사
- 코딩시험
- 파이썬 입문
목록2018~ (131)
반원 블로그
검색 키워드 자동입력 유튜브의 키워드 검색창의 경로를 알아봅시다. selenium에서는 대체로 xpath로 경로를 계산하여 요소에 탐색합니다. 먼저 크롬 개발자 도구로 검색창의 xpath를 알아내봅시다. 복사된 내용을 붙여넣어 확인해보면 다음 같이 나옵니다. //*[@id="search"] 이제 파이썬 코드로 여기에 자동으로 검색어를 입력하도록 작성해봅시다. from selenium import webdriver import time driver = webdriver.Chrome('chromedriver') driver.get("https://www.youtube.com/") time.sleep(3) #검색어 창을 찾아 search 변수에 저장 search = driver.find_elem..
설치 웹 자동화를 도와줄 selenium을 설치합니다. 크롬(Chrome)이 있어야합니다. 없으면 설치합니다. 크롬 브라우저를 제어할 chromedriver를 다운받습니다. 자신의 크롬 버전을 확인하세요. selenium 설치 윈도우에서의 설치 명령어 pip install selenium 맥, 리눅스에서의 설치 명령어 pip3 install seleniumchromdriver 다운로드 http://chromedriver.chromium.org/ 준비 환경 웹 자동화를 위해 chromedriver와 앞으로 만들 파이썬 파일을 같은 폴더에 놓습니다.
제목과 썸네일이 같이 존재하는 영역 요일 웹툰영역의 li 태그 안에는 제목과 썸네일이 포함되어있습니다. 이전 웹툰 제목 가져오기 코드를 응용하여 li태그만 모두 추출하도록 합시다. from bs4 import BeautifulSoup from pprint import pprint import requests #웹 페이지를 열고 소스코드를 읽어오는 작업 html = requests.get("http://comic.naver.com/webtoon/weekday.nhn") soup = BeautifulSoup(html.text, 'html.parser') html.close() #요일별 웹툰영역 추출하기 data1_list=soup.findAll('div',{'class&#..
월요 웹툰 제목 추출 실습 주소는 여기입니다. https://comic.naver.com/webtoon/weekday.nhn 먼저 월요일 웹툰의 제목만 추출을 해봅시다. 월요 웹툰 영역 월요 웹툰 영역을 소개하는 곳은 div 태그에 class "col_inner" 속성과 값을 가지고 있습니다. 여기까지 코드를 작성해봅시다. from bs4 import BeautifulSoup from pprint import pprint import requests #웹 페이지를 열고 소스코드를 읽어오는 작업 html = requests.get("http://comic.naver.com/webtoon/weekday.nhn") soup = BeautifulSoup(html.text, 'html.parser'..
웹 페이지 가져오기 네이버에 날씨 페이지를 이용하면, 요청장소의 위치를 알아서 계산해주기때문에 GPS 정보를 따로 계산할 필요가 없습니다. from bs4 import BeautifulSoup as bs from pprint import pprint import requests html = requests.get('https://search.naver.com/search.naver?query=날씨') pprint(html.text) 파싱 웹 페이지는 HTML이라는 언어로 쓰여져있습니다. 이를 파이썬에서 쉽게 분석할 수 있도록 파싱작업을 거쳐 각 요소에 접근이 쉽게 만들겠습니다. from bs4 import BeautifulSoup as bs from pprint import pprint import re..
설치 웹 페이지를 가져올 수 있는 requests 모듈과, 가져온 웹 페이지를 분석해서 우리가 원하는 정보를 추출해줄 BeautifulSoup4를 설치합시다. 윈도우에서의 설치 명령어 pip install requests pip install BeautifulSoup4 맥, 리눅스에서의 설치 명령어 pip3 install requests pip3 install BeautifulSoup4