일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 사진에서 글자추출
- 양양솔비치조식
- 편도수술
- 싱가폴중학교수학문제
- 가족소고기외식
- 주차넉넉
- 결항
- 결항전문
- 커피쏟음
- 커피
- 당근마켓중고차
- 오트눈썰매장
- 사진문자추출하기
- 아이혼자다녀옴
- 양양솔비치세프스키친
- 종이캐리어
- 양양솔비치아침
- 양양솔비치 뷔페
- 에어아시아
- 사진문자추출
- 홍시스무디
- 중학교입학수학문제
- 고마워다음
- 영통외식
- 영통역소고기
- 푸르지오포레피스
- 검색완료
- 파이썬
- 영통칠프로칠백식당
- DFS
- Today
- Total
너와나의 관심사
아파트 실거래가 파이썬 크롤링 본문
아파트 실거래가를 매일 매일 크롤링하는 코드 작성 및 블로그에 올리는 프로젝트 한번 해볼까 한다.
우선 파이썬으로 www.data.go.kr 에 있는 아파트 분양권 실거래가 조회 하는 크롤링 데이터 까지느 했는데..
파싱을 좀더 해서 엑셀로 만드는 작업을 해야겠음
#-*-coding:utf-
import urllib.request
import requests
import json
import logging
from pprint import pprint
from bs4 import BeautifulSoup
from urllib.request import urlopen
import xml.etree.ElementTree as elemTree
import re
ServiceKey =
Time = "201902"
Location = "41465" #풍덕천동
url = "http://openapi.jejutour.go.kr:8080/openapi/service/TourSpotInfoService/getTourSpotList?serviceKey=" + ServiceKey + "&CAT=TU02&numOfRows=100&_type=json"
url2 = "http://openapi.molit.go.kr/OpenAPI_ToolInstallPackage/service/rest/RTMSOBJSvc/getRTMSDataSvcSilvTrade?LAWD_CD=" + Location + "&DEAL_YMD=" + Time + "&serviceKey=" + ServiceKey
url3 = "http://openapi.molit.go.kr:8081/OpenAPI_ToolInstallPackage/service/rest/RTMSOBJSvc/getRTMSDataSvcRHTrade?LAWD_CD=11110&DEAL_YMD=201901&serviceKey=" + ServiceKey
req = urllib.request.Request(url2)
try:
res = urllib.request.urlopen(req)
except UnicodeEncodeError:
print('[OpenAPI] UnicodeEncodeError')
data = res.read().decode('utf-8')
soup = BeautifulSoup(data, 'html.parser')
print (soup)
#if (soup.resultcode.string != '00'):
# print('[OpenAPI] ', soup.resultmsg.string)
items = (soup.findAll('item'))
#items = re.sub('[<]', '', items, 0).strip()
print(items)
for name in items:
text = name.get_text()
text = text.replace("<", ", ")
text = text.replace(",", "",1)
text = text.replace(">", ":")
print(text)