- Today
- Total
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- 파이썬 강의
- 코딩시험
- 파이썬 강좌
- 기말시험
- gdrive
- c언어
- 크롤링
- 코딩문제
- 알고리즘
- 중간시험
- 파이썬활용
- 파이썬 자료구조
- 셀레니움
- 대학시험
- 자료구조
- 채용문제
- 프로그래밍
- python data structure
- 쉬운 파이썬
- 알고리즘 강의
- 파이썬
- Crawling
- 자료구조 강의
- selenium
- python 중간고사
- 파이썬3
- 알고리즘 강좌
- 파이썬 입문
- 면접 파이썬
- 파이썬 알고리즘
목록gdrive (26)
반원 블로그
1to50 직접해보기 해볼 수 있는 사이트는 여기입니다. 직접 해보고 플레이되는 과정을 파악해봅시다. http://zzzscore.com/1to50/ 1to50 코드 분석 우리는 "각 버튼들에 어떤 글자가 들어있는가?"를 파악해서 클릭할 버튼을 찾아냅니다. 크롬 개발자 도구를 이용하면 알겠지만, 버튼처럼 보일 뿐 사실 영역을 잡아주는 div 태그를 사용하고 있습니다. 여기서는 그냥 버튼이라고 하겠습니다. 우리가 해야할 작업은 크게 3가지입니다. 게임에 사용되는 모든 버튼 요소 정보를 가져온다. 각 버튼(영역)의 내부내용(.text)를 파악한다. 우리가 찾는 숫자면 클릭한다. 먼저 5x5에서 (1,1)위치에 있는 버튼의 xpath를 copy하여 확인해보고, (1,2), (1,3) 도 확인하면 다음과 같습니..
검색 키워드 자동입력 유튜브의 키워드 검색창의 경로를 알아봅시다. selenium에서는 대체로 xpath로 경로를 계산하여 요소에 탐색합니다. 먼저 크롬 개발자 도구로 검색창의 xpath를 알아내봅시다. 복사된 내용을 붙여넣어 확인해보면 다음 같이 나옵니다. //*[@id="search"] 이제 파이썬 코드로 여기에 자동으로 검색어를 입력하도록 작성해봅시다. from selenium import webdriver import time driver = webdriver.Chrome('chromedriver') driver.get("https://www.youtube.com/") time.sleep(3) #검색어 창을 찾아 search 변수에 저장 search = driver.find_elem..
설치 웹 자동화를 도와줄 selenium을 설치합니다. 크롬(Chrome)이 있어야합니다. 없으면 설치합니다. 크롬 브라우저를 제어할 chromedriver를 다운받습니다. 자신의 크롬 버전을 확인하세요. selenium 설치 윈도우에서의 설치 명령어 pip install selenium 맥, 리눅스에서의 설치 명령어 pip3 install seleniumchromdriver 다운로드 http://chromedriver.chromium.org/ 준비 환경 웹 자동화를 위해 chromedriver와 앞으로 만들 파이썬 파일을 같은 폴더에 놓습니다.
제목과 썸네일이 같이 존재하는 영역 요일 웹툰영역의 li 태그 안에는 제목과 썸네일이 포함되어있습니다. 이전 웹툰 제목 가져오기 코드를 응용하여 li태그만 모두 추출하도록 합시다. from bs4 import BeautifulSoup from pprint import pprint import requests #웹 페이지를 열고 소스코드를 읽어오는 작업 html = requests.get("http://comic.naver.com/webtoon/weekday.nhn") soup = BeautifulSoup(html.text, 'html.parser') html.close() #요일별 웹툰영역 추출하기 data1_list=soup.findAll('div',{'class&#..
월요 웹툰 제목 추출 실습 주소는 여기입니다. https://comic.naver.com/webtoon/weekday.nhn 먼저 월요일 웹툰의 제목만 추출을 해봅시다. 월요 웹툰 영역 월요 웹툰 영역을 소개하는 곳은 div 태그에 class "col_inner" 속성과 값을 가지고 있습니다. 여기까지 코드를 작성해봅시다. from bs4 import BeautifulSoup from pprint import pprint import requests #웹 페이지를 열고 소스코드를 읽어오는 작업 html = requests.get("http://comic.naver.com/webtoon/weekday.nhn") soup = BeautifulSoup(html.text, 'html.parser'..
웹 페이지 가져오기 네이버에 날씨 페이지를 이용하면, 요청장소의 위치를 알아서 계산해주기때문에 GPS 정보를 따로 계산할 필요가 없습니다. from bs4 import BeautifulSoup as bs from pprint import pprint import requests html = requests.get('https://search.naver.com/search.naver?query=날씨') pprint(html.text) 파싱 웹 페이지는 HTML이라는 언어로 쓰여져있습니다. 이를 파이썬에서 쉽게 분석할 수 있도록 파싱작업을 거쳐 각 요소에 접근이 쉽게 만들겠습니다. from bs4 import BeautifulSoup as bs from pprint import pprint import re..