WEB

Python & 크롤링, DB

with_AI 2022. 4. 12. 04:07

파이썬 리스트 예제

fruits = ['사과','배','배','감','수박','귤','딸기','사과','배','수박']

 

파이썬 딕셔너리 예제

people = [{'name': 'bob', 'age': 20}, 
{'name': 'carry', 'age': 38},
{'name': 'john', 'age': 7},
{'name': 'smith', 'age': 17},
{'name': 'ben', 'age': 27}]

 

가상환경? - 프로젝트별 패키지들을 담을 공구함

- 프로젝트별로 패키지를 모아두는 것

- venv

 

requests 설치

pip install requests

 

 

requests 예제

import requests # requests 라이브러리 설치 필요

r = requests.get('http://spartacodingclub.shop/sparta_api/seoulair')
rjson = r.json()

rows = rjson['RealtimeCityAir']['row']

 

웹스크래핑(크롤링)

 

beautifulsoup 설치

pip install beautifulsoup4

 

크롤링 예제

import requests
from bs4 import BeautifulSoup

headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.naver?sel=pnt&date=20210829',headers=headers)

soup = BeautifulSoup(data.text, 'html.parser')

# 코딩 시작

 

크롤링을 하려면 일단 크롤링 하고 싶은 곳을 우클릭하여

검사버튼을 누른다.

 

 

그러면 이러한 창이 뜨고 이 창에서 또 한 번 우클릭을 눌러서 copy -> copy selector을 누른다.

 

 

#old_content > table > tbody > tr:nth-child(2) > td.title > div > a

 

그러면 다음과 같은게 나오고

 

title = soup.select_one('old_content > table > tbody > tr:nth-child(2) > td.title > div > a')

 

이렇게 쓰게 되면 크롤링 하고 싶은 것이 반환 된다.

 

이런식으로  for문 반복문을 통해서 필요한 것들을 조건에 맞게 가져올 수 있는 것이 크롤링이다.

 


DB

- 나중에 잘 찾기 위해서 필요

- Index

- 정렬

- 프로그램

 

SQL vs NoSQL

- SQL는 정형화, 스키마, 빨리 찾을 수 있음

- NoSQL은 그때마다 쌓이기 때문에 초기 스타트업에 유리, 유동적

 

클라우드

- 유저가 몰리거나

- 백업

- 모니터링 용이

- MongoDB Atlas

 

MongoDB Atlas

https://account.mongodb.com/account/register

 

Cloud: MongoDB Cloud

 

account.mongodb.com

 

 

MongoDB -> gamil로 가입하면 빠르고 좋음

 

- cluster 생성

- username, pwd 설정

- network 설정

 

 

이런식으로 나오게 MongoDB 설정 해주기

 

pip install pymongo

pip install dnspython

 

from pymongo import MongoClient
client = MongoClient('여기에 URL 입력')
db = client.dbsparta]

doc = {
'name' : 'bob',
'age' : 27
}

db.users.insert_one(doc)

 

pymongo(find) : 전체 데이터 가져오기

same_ages = list(db.users.find({},{'_id':False}))

 

pymongo(find_one) : 원하는 조건의 데이터만 가져오기

user = db.users.find_one({'name':'bobby'})

 

pymongo(update_one) : 데이터 업데이트하기

db.users.update_one({'name':'bobby'},{'$set':{'age':19}})

 

pymongo(delete_one) : 데이터 삭제하기

db.users.delete_one({'name':'bobby'})

 

pymongo 예제

# 저장 - 예시
doc = {'name':'bobby','age':21}
db.users.insert_one(doc)

# 한 개 찾기 - 예시
user = db.users.find_one({'name':'bobby'})

# 여러개 찾기 - 예시 ( _id 값은 제외하고 출력)
all_users = list(db.users.find({},{'_id':False}))

# 바꾸기 - 예시
db.users.update_one({'name':'bobby'},{'$set':{'age':19}})

# 지우기 - 예시
db.users.delete_one({'name':'bobby'})

 

지금 까지 배운걸 모두 활용해서 

크롤링 예제

 

import requests
from bs4 import BeautifulSoup

# URL을 읽어서 HTML를 받아오고,
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.naver?sel=pnt&date=20210829',headers=headers)

# HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
soup = BeautifulSoup(data.text, 'html.parser')

# select를 이용해서, tr들을 불러오기
movies = soup.select('#old_content > table > tbody > tr')

# movies (tr들) 의 반복문을 돌리기
for movie in movies:
# movie 안에 a 가 있으면,
a_tag = movie.select_one('td.title > div > a')
if a_tag is not None:
rank = movie.select_one('td:nth-child(1) > img')['alt'] # img 태그의 alt 속성값을 가져오기
title = a_tag.text # a 태그 사이의 텍스트를 가져오기
star = movie.select_one('td.point').text # td 태그 사이의 텍스트를 가져오기
print(rank,title,star)

 

 

 

'WEB' 카테고리의 다른 글

WEB 서비스 배포  (0) 2022.04.12
FLASK, MongoDB 와 서버 구축  (0) 2022.04.12
jQuery와 Ajax  (0) 2022.04.12
JS 기본 문법  (0) 2022.04.12
HTML 실습  (0) 2022.04.11