일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- data analyst
- jd
- SQL
- 히트맵
- 머신러닝
- 최종 프로젝트
- lambda
- SQLD
- 전처리
- 군집화
- pandas
- 시각화
- 기초통계
- cross join
- 기초프로젝트
- Python
- 크롤링
- GA4
- Chat GPT
- 클러스터링
- 팀프로젝트
- 서브쿼리
- streamlit
- 프롬프트 엔지니어링
- 태블로
- If
- 데이터분석
- da
- 프로젝트
- 데이터 분석
- Today
- Total
목록Python (224)
세조목
심화 프로젝트 2024.02.15 - [데이터 분석 공부/프로젝트] - 심화 프로젝트 10일차(24.02.15) 심화 프로젝트 10일차(24.02.15) 심화 프로젝트 10일차입니다. 금일은 지금까지 분석했던 내용들을 다시 한번 정리하고, 인사이트를 도출하는 시간을 가졌습니다. 팀원들과 3시간 정도 회의를 진행하면서 다양한 이야기들을 주 eyeoftheworld1209.tistory.com SQLD(3주차-식별자) SQL & PYTHON 예제 SQL 596. Classes More Than 5 Students https://leetcode.com/problems/product-sales-analysis-iii/description/ SELECT PRODUCT_ID, YEAR FIRST_YEAR, QUAN..
심화 프로젝트 10일차입니다. 금일은 지금까지 분석했던 내용들을 다시 한번 정리하고, 인사이트를 도출하는 시간을 가졌습니다. 팀원들과 3시간 정도 회의를 진행하면서 다양한 이야기들을 주고받았고 그 과정에서 혼자서라면 생각하지 못했을 아이디어들을 도출할 수 있었습니다. 그렇게 금번 심화 프로젝트의 발표 목차와 내용들을 정리해서 튜터님께 flow check를 받았습니다. 다양한 피드백을 주셨는데 개인적으로는 욕심이 났지만 남은 프로젝트 기간동안 해당 내용들을 추가적으로 수행하기보다는 이번 프로젝트는 지금까지 정리된 내용 정도로만 마무리하고, 피드백 받은 부분은 개별적으로 연습해보는 것이 좋을 것 같다고 팀원들과 입을 맞췄습니다. 저희가 느끼기에도 지금까지 정리된 내용의 인사이트 부분이 다소 부실한 감이 없지..
심화 프로젝트 2024.02.14 - [데이터 분석 공부/프로젝트] - 심화 프로젝트 8~9일차(24.02.14) 심화 프로젝트 8~9일차(24.02.14) 심화 프로젝트 8, 9일차에는 아래 To Do 리스트에 따라 ECDF 코드 작성과 CC(Carrying Capacity)계산을 수행했습니다. 동제 : 케어링 케퍼시티(학습 & 시간 여유 있으면 직접 구해보기) 정희 : ECDF 지훈 : 블 eyeoftheworld1209.tistory.com SQLD(3주차-관계) PYTHON 예제 복습 가운데 글자 가져오기 https://school.programmers.co.kr/learn/courses/30/lessons/12903 def solution(s): val = list(s) if len(val) %..
심화 프로젝트 8, 9일차에는 아래 To Do 리스트에 따라 ECDF 코드 작성과 CC(Carrying Capacity)계산을 수행했습니다. 동제 : 케어링 케퍼시티(학습 & 시간 여유 있으면 직접 구해보기) 정희 : ECDF 지훈 : 블랙프라이데이 전주, 블랙프라이데이 주, 블랙플라이데이 그 다음주 ID별 totals 계산 지훈 1. 16년 8월부터 17년 8월 순서로 바 그래프 그리기 2. 16년 10월, 11월 channelGrouping 별 파이차트 동제 1. 첫 방문자 중 구매한 시점의 분포를 구해보기(for 신규고객 정의) 정희 1. 이탈자 수 counting하기위해 이탈 기간을 어느 정도로 잡는게 적정한지 파악 ECDF 코드 작성 group = train_df2.groupby(['date',..