일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 클러스터링
- 프롬프트 엔지니어링
- 크롤링
- lambda
- 태블로
- 군집화
- streamlit
- SQL
- pandas
- Python
- 기초통계
- 최종 프로젝트
- data analyst
- 전처리
- 기초프로젝트
- jd
- 데이터분석
- GA4
- 히트맵
- SQLD
- 프로젝트
- 팀프로젝트
- 시각화
- 데이터 분석
- If
- 서브쿼리
- 머신러닝
- Chat GPT
- da
- cross join
- Today
- Total
목록크롤링 (26)
세조목
최종 프로젝트 7일차입니다. 금일은 가게명을 클릭하고 플레이스 페이지가 열림과 동시에 전혀 다른 페이지가 함께 열리는 오류와 리뷰 탭의 '더보기' 버튼을 클릭했을때 '거리뷰' 페이지가 열리는 오류를 수정했습니다. sleep() 시간 늘이기 driver.switch_to.parent_frame()을 driver.switch_to.default_content()로 변경하기 class name 변경하기 를 시도해봤지만 위 방법들로는 해결할 수가 없었습니다. 그러다가 def page_down(num): body = driver.find_element(By.CSS_SELECTOR, 'body') #body.click() for i in range(num): body.send_keys(Keys.PAGE_DOWN) ..
최종 프로젝트 2024.04.01 - [데이터 분석 공부/프로젝트] - 최종 프로젝트 6일차(24.04.01) 최종 프로젝트 6일차(24.04.01) 최종 프로젝트 6일차입니다. 금일은 팀원들과 함께 지금까지 개별적으로 진행한 크롤링 진척 사항을 공유하고, 앞으로의 일정에 대해서 이야기 나누는 시간을 가졌습니다. 모두 큰 문제없이 크 eyeoftheworld1209.tistory.com 최종 프로젝트 6일차입니다. 팀원들과 함께 진행한 팀 회의 결과를 바탕으로 데이터를 추가적으로 크롤링하는 작업을 진행했습니다. 자세한 내용은 위 포스팅에 정리해두었습니다.
최종 프로젝트 6일차입니다. 금일은 팀원들과 함께 지금까지 개별적으로 진행한 크롤링 진척 사항을 공유하고, 앞으로의 일정에 대해서 이야기 나누는 시간을 가졌습니다. 모두 큰 문제없이 크롤링 작업이 진행되고 있었습니다. 물론 세부적으로 손 봐야할 부분은 있지만요. 진행사항 공유 후 앞으로의 일정에 대해서 얘기 나눴는데 저희가 만들고자하는 데이터셋의 컬럼도 통일했습니다. 다른 컬럼들은 제가 기존에 모두 수집했던 데이터들이었으나 '주소' 데이터는 없어서 추가하는 작업을 금일 진행했습니다. address_list = [] address = driver.find_element(By.CLASS_NAME, 'LDgIH').text address_list.append(address) 주소 데이터를 추가하는 코드는 간단..
2024.03.27 - [데이터 분석 공부/프로젝트] - 최종 프로젝트 2일차(24.03.27) 2024.03.28 - [데이터 분석 공부/프로젝트] - 최종 프로젝트 3일차(24.03.28) 2024.03.29 - [데이터 분석 공부/프로젝트] - 최종 프로젝트 4일차(24.03.29) 2024.03.31 - [데이터 분석 공부/프로젝트] - 최종 프로젝트 5일차(24.03.31) 금주부터 최종 프로젝트가 본격적으로 시작되었습니다. 이번주에는 프로젝트 주제 선정 크롤링을 활용한 데이터 수집 을 진행했는데 지난주에 크롤링을 학습했다고 해서 쉽지만은 않았습니다. 거의 대부분 구글링으로 코드를 작성하고 수정했으니까요. 확실히 실제 크롤링 작업을 한 번 해보니까 크롤링이 어떠한 방식으로 이루어지는지에 대한 이..