일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- da
- 프로젝트
- 히트맵
- 데이터 분석
- 태블로
- 클러스터링
- 크롤링
- data analyst
- 시각화
- cross join
- 최종 프로젝트
- jd
- SQL
- 전처리
- 서브쿼리
- 팀프로젝트
- 머신러닝
- If
- 군집화
- pandas
- 프롬프트 엔지니어링
- 데이터분석
- 기초통계
- lambda
- GA4
- streamlit
- Python
- Chat GPT
- 기초프로젝트
- SQLD
Archives
- Today
- Total
목록Gradient Boosting Model (1)
세조목
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/JP3zq/btsEonuFt3I/HxQY8Q5ZaRvVtsWNYXq8YK/img.png)
목차 의사결정나무 랜덤 포레스트 KNN(최근접 이웃) 부스팅 알고리즘 1. 의사결정나무 import pandas as pd import seaborn as sns import matplotlib.pyplot as plt from sklearn.preprocessing import LabelEncoder from sklearn.tree import DecisionTreeClassifier, plot_tree titanic_df = pd.read_csv('경로.csv') 의사결정나무를 만들려면 sklearn.tree 라이브러리의 DecisionTreeClassifier 클래스를 가져와야한다. X_features = ['Pclass', 'Sex', 'Age', 'Fare', 'Embarked'] # 평균으로 ..
데이터 분석 공부/머신러닝
2024. 2. 2. 21:24