순조롭게 진행되는 것 같았지만, 거대한 문제와 마주치게 될 것 같다. 해결한 문제 41페이지 전체를 크롤링 가능. 페이지 url은 뒤에 ?page=번호 이렇게 붙여주면 되기 때문에 1부터 계속 반복시키고, 만약 url이 없다면 반복문을 멈추도록 설계했다. 페이지는 42페이지까지 존재하는데 html.status(url) 함수로 url존재 여부를 판단할 수 있다. 전체 코드 from urllib.request import urlopen from bs4 import BeautifulSoup import re month = { 'Jan' : 1, 'Feb' : 2, 'Mar' : 3, 'Apr' : 4, 'May' : 5, 'Jun' : 6, 'Jul' : 7, 'Aug' : 8, 'Sep' : 9, 'Oct'..