ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 웹개발 종합반 3주차 배운내용
    스파르타코딩클럽/[내일배움단]웹개발 종합반 2022. 6. 4. 21:18

    01. 3주차 오늘 배울 것

     

    02 파이썬 시작하기

    1) 파이썬을 설치한다는 것의 의미

    2) 첫 파이썬 파일 실행

    03. 파이썬 기초공부

    3) 파이썬 기초 문법

     

    더보기
    a = 3      # 3을 a에 넣는다
    b = a      # a를 b에 넣는다
    a = a + 1  # a+1을 다시 a에 넣는다
    
    num1 = a*b # a*b의 값을 num1이라는 변수에 넣는다
    num2 = 99 # 99의 값을 num2이라는 변수에 넣는다
    
    # 변수의 이름은 마음대로 지을 수 있음!
    # 진짜 "마음대로" 짓는 게 좋을까? var1, var2 이렇게?

     

    더보기
    • 숫자, 문자형
    name = 'bob' # 변수에는 문자열이 들어갈 수도 있고,
    num = 12 # 숫자가 들어갈 수도 있고,
    
    is_number = True # True 또는 False -> "Boolean"형이 들어갈 수도 있습니다.
    
    #########
    # 그리고 List, Dictionary 도 들어갈 수도 있죠. 그게 뭔지는 아래에서!
    • 리스트 형 (Javascript의 배열형과 동일)
    a_list = []
    a_list.append(1)     # 리스트에 값을 넣는다
    a_list.append([2,3]) # 리스트에 [2,3]이라는 리스트를 다시 넣는다
    
    # a_list의 값은? [1,[2,3]]
    # a_list[0]의 값은? 1
    # a_list[1]의 값은? [2,3]
    # a_list[1][0]의 값은? 2
    • Dictionary 형 (Javascript의 dictionary형과 동일)
    a_dict = {}
    a_dict = {'name':'bob','age':21}
    a_dict['height'] = 178
    
    # a_dict의 값은? {'name':'bob','age':21, 'height':178}
    # a_dict['name']의 값은? 'bob'
    # a_dict['age']의 값은? 21
    # a_dict['height']의 값은? 178
    • Dictionary 형과 List형의 조합
    people = [{'name':'bob','age':20},{'name':'carry','age':38}]
    
    # people[0]['name']의 값은? 'bob'
    # people[1]['name']의 값은? 'carry'
    
    person = {'name':'john','age':7}
    people.append(person)
    
    # people의 값은? [{'name':'bob','age':20},{'name':'carry','age':38},{'name':'john','age':7}]
    # people[2]['name']의 값은? 'john'

     

    더보기
    • 함수의 정의 - 이름은 마음대로 정할 수 있음!
    # 수학문제에서
    f(x) = 2*x+3
    y = f(2)
    y의 값은? 7
    
    # 참고: 자바스크립트에서는
    function f(x) {
    	return 2*x+3
    }
    
    # 파이썬에서
    def f(x):
    	return 2*x+3
    
    y = f(2)
    y의 값은? 7
    • 함수의 응용
    def sum_all(a,b,c):
    	return a+b+c
    
    def mul(a,b):
    	return a*b
    
    result = sum_all(1,2,3) + mul(10,10)
    
    # result라는 변수의 값은?

     

    더보기
    • if / else 로 구성!
    def oddeven(num):  # oddeven이라는 이름의 함수를 정의한다. num을 변수로 받는다.
    	if num % 2 == 0: # num을 2로 나눈 나머지가 0이면
    		 return True   # True (참)을 반환한다.
    	else:            # 아니면,
    		 return False  # False (거짓)을 반환한다.
    
    result = oddeven(20)
    # result의 값은 무엇일까요?
    def is_adult(age):
    	if age > 20:
    		print('성인입니다')    # 조건이 참이면 성인입니다를 출력
    	else:
    		print('청소년이에요')  # 조건이 거짓이면 청소년이에요를 출력
    
    is_adult(30)
    # 무엇이 출력될까요?

     

     

    더보기

     👉 파이썬에서의 반복문은, 리스트의 요소들을 하나씩 꺼내쓰는 형태입니다.

    • 즉, 무조건 리스트와 함께 쓰입니다!
    fruits = ['사과','배','감','귤']
    
    for fruit in fruits:
    	print(fruit)
    
    # 사과, 배, 감, 귤 하나씩 꺼내어 찍힙니다.

     

    • 살짝 응용해볼까요? - 과일 개수 세기 함수
    fruits = ['사과','배','배','감','수박','귤','딸기','사과','배','수박']
    
    count = 0
    for fruit in fruits:
    	if fruit == '사과':
    		count += 1
    
    print(count)
    
    # 사과의 개수를 세어 보여줍니다.
    def count_fruits(target):
    	count = 0
    	for fruit in fruits:
    		if fruit == target:
    			count += 1
    	return count
    
    subak_count = count_fruits('수박')
    print(subak_count) #수박의 개수
    
    gam_count = count_fruits('감')
    print(gam_count) #감의 개수

     

     

    04. 파이썬 패키지 설치하기

    4) 파이썬 패키지(package) 설치하기

    5) pip(python install package) 사용 - requests 패키지 설치해보기

    • project interpreter 화면에서 + 버튼을 누르면 아래 창이 뜹니다!

     

    05. 패키지 사용해보기

    6) Requests 라이브러리 사용해보기 + List/Dictionary/함수/If/For문 연습

    • 아래 방법으로 서울시 대기 OpenAPI에서, 중구의 NO2 값을 가져올 수 있습니다.
    더보기
    import requests # requests 라이브러리 설치 필요
    
    r = requests.get('http://openapi.seoul.go.kr:8088/6d4d776b466c656533356a4b4b5872/json/RealtimeCityAir/1/99')
    rjson = r.json()
    
    print(rjson['RealtimeCityAir']['row'][0]['NO2'])
    • 모든 구의 IDEX_MVL 값을 찍어주자!
    import requests # requests 라이브러리 설치 필요
    
    r = requests.get('http://openapi.seoul.go.kr:8088/6d4d776b466c656533356a4b4b5872/json/RealtimeCityAir/1/99')
    rjson = r.json()
    
    gus = rjson['RealtimeCityAir']['row']
    
    for gu in gus:
    	print(gu['MSRSTE_NM'], gu['IDEX_MVL'])
    • IDEX_MVL 값이 60 미만인 구만 찍어주자!
    import requests # requests 라이브러리 설치 필요
    
    r = requests.get('http://openapi.seoul.go.kr:8088/6d4d776b466c656533356a4b4b5872/json/RealtimeCityAir/1/99')
    rjson = r.json()
    
    gus = rjson['RealtimeCityAir']['row']
    
    for gu in gus:
    	if gu['IDEX_MVL'] < 60:
    		print (gu['MSRSTE_NM'], gu['IDEX_MVL'])

     

    06. 웹스크래핑(크롤링) 기초

    7) 웹스크래핑 해보기 (영화 제목)

    • 어떤 걸 스크래핑 할 계획인가요?
    더보기
    https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303
    • 패키지 추가 설치하기(beautifulsoup4)
    bs4
    • 크롤링 기본 세팅
    더보기
    import requests
    from bs4 import BeautifulSoup
    
    headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
    data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)
    
    soup = BeautifulSoup(data.text, 'html.parser')
    
    # 코딩 시작

     

    import requests
    from bs4 import BeautifulSoup
    
    # 타겟 URL을 읽어서 HTML를 받아오고,
    headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
    data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)
    
    # HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
    # soup이라는 변수에 "파싱 용이해진 html"이 담긴 상태가 됨
    # 이제 코딩을 통해 필요한 부분을 추출하면 된다.
    soup = BeautifulSoup(data.text, 'html.parser')
    
    #############################
    # (입맛에 맞게 코딩)
    #############################

     

    • select / select_one의 사용법을 익혀봅니다.

    import requests
    from bs4 import BeautifulSoup
    
    # URL을 읽어서 HTML를 받아오고,
    headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
    data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)
    
    # HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
    soup = BeautifulSoup(data.text, 'html.parser')
    
    # select를 이용해서, tr들을 불러오기
    movies = soup.select('#old_content > table > tbody > tr')
    
    # movies (tr들) 의 반복문을 돌리기
    for movie in movies:
        # movie 안에 a 가 있으면,
        a_tag = movie.select_one('td.title > div > a')
        if a_tag is not None:
            # a의 text를 찍어본다.
            print (a_tag.text)
    • beautifulsoup 내 select에 미리 정의된 다른 방법을 알아봅니다
    # 선택자를 사용하는 방법 (copy selector)
    soup.select('태그명')
    soup.select('.클래스명')
    soup.select('#아이디명')
    
    soup.select('상위태그명 > 하위태그명 > 하위태그명')
    soup.select('상위태그명.클래스명 > 하위태그명.클래스명')
    
    # 태그와 속성값으로 찾는 방법
    soup.select('태그명[속성="값"]')
    
    # 한 개만 가져오고 싶은 경우
    soup.select_one('위와 동일')

     

    • 항상 정확하지는 않으나, 크롬 개발자도구를 참고할 수도 있습니다.
    1. 원하는 부분에서 마우스 오른쪽 클릭 → 검사
    2. 원하는 태그에서 마우스 오른쪽 클릭
    3. Copy → Copy selector로 선택자를 복사할 수 있음

     

     

     

     

    07. DB설치 확인

    8) DB 설치 확인

    9) robo 3T 준비하기

    • robo 3T의 역할

    • robo3T 세팅하기

    • db, collection, documents(각 데이터들을 지칭)를 확인 가능합니다.

     

    08. DB개괄

    10) 들어가기 전에 : DB의 두 가지 종류

     

    09. pymongo로 DB조작하기

    11) pymongo로 mongoDB 조작하기

    • pymongo 라이브러리의 역할

    • 패키지 설치하기
    pymongo
    더보기
    from pymongo import MongoClient
    client = MongoClient('localhost', 27017)
    db = client.dbsparta
    
    # 코딩 시작
    • DB연결하기 & 데이터 넣기
    더보기
    doc = {'name':'bobby','age':21}
    db.users.insert_one(doc)
    from pymongo import MongoClient           # pymongo를 임포트 하기(패키지 인스톨 먼저 해야겠죠?)
    client = MongoClient('localhost', 27017)  # mongoDB는 27017 포트로 돌아갑니다.
    db = client.dbsparta                      # 'dbsparta'라는 이름의 db를 만듭니다.
    
    # MongoDB에 insert 하기
    
    # 'users'라는 collection에 {'name':'bobby','age':21}를 넣습니다.
    db.users.insert_one({'name':'bobby','age':21})
    db.users.insert_one({'name':'kay','age':27})
    db.users.insert_one({'name':'john','age':30})
    • 모든 결과 값을 보기
    더보기
    same_ages = list(db.users.find({'age':21},{'_id':False}))
    from pymongo import MongoClient           # pymongo를 임포트 하기(패키지 인스톨 먼저 해야겠죠?)
    client = MongoClient('localhost', 27017)  # mongoDB는 27017 포트로 돌아갑니다.
    db = client.dbsparta                      # 'dbsparta'라는 이름의 db를 만듭니다.
    
    # MongoDB에서 데이터 모두 보기
    all_users = list(db.users.find({}))
    
    # 참고) MongoDB에서 특정 조건의 데이터 모두 보기
    same_ages = list(db.users.find({'age':21},{'_id':False}))
    
    print(all_users[0])         # 0번째 결과값을 보기
    print(all_users[0]['name']) # 0번째 결과값의 'name'을 보기
    
    for user in all_users:      # 반복문을 돌며 모든 결과값을 보기
        print(user)
    • 특정 결과 값을 뽑아 보기
    더보기
    user = db.users.find_one({'name':'bobby'})
    user = db.users.find_one({'name':'bobby'})
    print(user)
    • 수정하기
    더보기
    db.users.update_one({'name':'bobby'},{'$set':{'age':19}})
    # 생김새
    db.people.update_many(찾을조건,{ '$set': 어떻게바꿀지 })
    
    # 예시 - 오타가 많으니 이 줄을 복사해서 씁시다!
    db.users.update_one({'name':'bobby'},{'$set':{'age':19}})
    
    user = db.users.find_one({'name':'bobby'})
    print(user)
    • 삭제하기 (거의 안 씀)
    더보기
    db.users.delete_one({'name':'bobby'})
    db.users.delete_one({'name':'bobby'})
    
    user = db.users.find_one({'name':'bobby'})
    print(user)

     

     

    12) pymongo 사용법. 코드요약

    더보기
    # 저장 - 예시
    doc = {'name':'bobby','age':21}
    db.users.insert_one(doc)
    
    # 한 개 찾기 - 예시
    user = db.users.find_one({'name':'bobby'})
    
    # 여러개 찾기 - 예시 ( _id 값은 제외하고 출력)
    same_ages = list(db.users.find({'age':21},{'_id':False}))
    
    # 바꾸기 - 예시
    db.users.update_one({'name':'bobby'},{'$set':{'age':19}})
    
    # 지우기 - 예시
    db.users.delete_one({'name':'bobby'})

     

    10. 웹스크래핑 결과 저장하기

    13) insert 연습하기 - 웹스크래핑 결과를 DB에 저장하기

    • 이 코드에서 시작해봅시다!
    더보기
    import requests
    from bs4 import BeautifulSoup
    
    # URL을 읽어서 HTML를 받아오고,
    headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
    data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)
    
    # HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
    soup = BeautifulSoup(data.text, 'html.parser')
    
    # select를 이용해서, tr들을 불러오기
    movies = soup.select('#old_content > table > tbody > tr')
    
    # movies (tr들) 의 반복문을 돌리기
    for movie in movies:
        # movie 안에 a 가 있으면,
        a_tag = movie.select_one('td.title > div > a')
        if a_tag is not None:
            rank = movie.select_one('td:nth-child(1) > img')['alt'] # img 태그의 alt 속성값을 가져오기
            title = a_tag.text                                      # a 태그 사이의 텍스트를 가져오기
            star = movie.select_one('td.point').text                # td 태그 사이의 텍스트를 가져오기
            print(rank,title,star)
    • pymongo 기본 세팅
    import requests
    from bs4 import BeautifulSoup
    
    from pymongo import MongoClient           # pymongo를 임포트 하기(패키지 인스톨 먼저 해야겠죠?)
    client = MongoClient('localhost', 27017)  # mongoDB는 27017 포트로 돌아갑니다.
    db = client.dbsparta                      # 'dbsparta'라는 이름의 db를 만듭니다.
    
    # URL을 읽어서 HTML를 받아오고,
    headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
    data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)
    
    # HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
    soup = BeautifulSoup(data.text, 'html.parser')
    
    # select를 이용해서, tr들을 불러오기
    movies = soup.select('#old_content > table > tbody > tr')
    
    # movies (tr들) 의 반복문을 돌리기
    for movie in movies:
        # movie 안에 a 가 있으면,
        a_tag = movie.select_one('td.title > div > a')
        if a_tag is not None:
            rank = movie.select_one('td:nth-child(1) > img')['alt'] # img 태그의 alt 속성값을 가져오기
            title = a_tag.text                                      # a 태그 사이의 텍스트를 가져오기
            star = movie.select_one('td.point').text                # td 태그 사이의 텍스트를 가져오기
            print(rank,title,star)
    • 도큐먼트 만들어 하나씩 insert 하기
    import requests
    from bs4 import BeautifulSoup
    
    from pymongo import MongoClient           # pymongo를 임포트 하기(패키지 인스톨 먼저 해야겠죠?)
    client = MongoClient('localhost', 27017)  # mongoDB는 27017 포트로 돌아갑니다.
    db = client.dbsparta                      # 'dbsparta'라는 이름의 db를 만듭니다.
    
    # URL을 읽어서 HTML를 받아오고,
    headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
    data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)
    
    # HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
    soup = BeautifulSoup(data.text, 'html.parser')
    
    # select를 이용해서, tr들을 불러오기
    movies = soup.select('#old_content > table > tbody > tr')
    
    # movies (tr들) 의 반복문을 돌리기
    for movie in movies:
        # movie 안에 a 가 있으면,
        a_tag = movie.select_one('td.title > div > a')
        if a_tag is not None:
            rank = movie.select_one('td:nth-child(1) > img')['alt'] # img 태그의 alt 속성값을 가져오기
            title = a_tag.text                                      # a 태그 사이의 텍스트를 가져오기
            star = movie.select_one('td.point').text                # td 태그 사이의 텍스트를 가져오기
            doc = {
                'rank' : rank,
                'title' : title,
                'star' : star
            }
            db.movies.insert_one(doc)
Designed by Tistory.