์ผ | ์ | ํ | ์ | ๋ชฉ | ๊ธ | ํ |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- ์๊ณ ๋ฆฌ์ฆ ๊ณต๋ถ
- medical AI
- ์ฑ์ธ๋ฒคํฐ ์ดํ๋ง๋ค๊ธฐ
- ์ฌ๊ทํจ์
- ์ฑ์ธ๋ฒคํฐ ๊ธฐ์ด
- ์์ ์์ phase recognition
- ์ฑ์ธ๋ฒคํฐ TinyDB
- ์ฑ์ธ๋ฒคํฐ
- ์๊ณ ๋ฆฌ์ฆ
- ์์ ์์ ๋ถ๋ฅ
- TooLLLM_facilitating Large Language Models to Maset 16000+ Real-World APIs
- ์ฑ์ธ๋ฒคํฐ ๊ตฌ๊ตฌ๋จ
- ๋ถํ ์ ๋ณต
- c#
- ์ดํด๋ฆฝ์ค DB์ฐ๋
- ์๊ณ ๋ฆฌ์ฆ ์ด๋ก
- ๋ฐ์ดํฐ๋ฒ ์ด์ค
- LLM ๋ ผ๋ฌธ๋ฆฌ๋ทฐ
- ํต์ ๋ ฌ
- MySQL ์ฐ๋
- ์ฑ์ธ๋ฒคํฐ ์ฑ๋ง๋ค๊ธฐ
- C#์ผ๋ก ์๊ณ ๋ฆฌ์ฆ ๊ตฌํ
- ๊ทธ๋ฆฌ๋ ์๊ณ ๋ฆฌ์ฆ
- ์ต์ ์ ์ฅ ํธ๋ฆฌ
- ๋ถํ ์ ๋ณต ์๊ณ ๋ฆฌ์ฆ
- timestamp supervision
- LLM ๋ ผ๋ฌธ
- ์ค๋ผํด๋ก ๋ฐฐ์ฐ๋ ๋ฐ์ดํฐ๋ฒ ์ด์ค ๊ฐ๋ก ๊ณผ ์ค์ต 2ํ
- ๋์ ๊ณํ ์๊ณ ๋ฆฌ์ฆ
- LaMa2
- Today
- Total
YJ_Scribbles
[ML] Light GBM ๊ฐ๋ ๋ฐ ์์ ์ฝ๋ ๋ณธ๋ฌธ
๐Light GBM ๊ธฐ๋ณธ ๊ฐ๋
-> GradientBoosting์ ๋ฐ์ ์ํจ ๊ฒ : XGBoost
-> XGBoost ์๋๋ฅผ ๋ ๋์ธ ๊ฒ : LightGBM
ใ ๊ธฐ์กด tree ๊ธฐ๋ฐ ์๊ณ ๋ฆฌ์ฆ : Level wise(๊ท ํ ํธ๋ฆฌ ๋ถํ ) ๋ฐฉ์ ์ฌ์ฉ
-> ์ํ์ ํ์ฅ
-> tree ๊น์ด : ์ต์ํ
-> ๊ท ํ์ ์ํ ์๊ฐ ํ์
ใ Light GBM ์๊ณ ๋ฆฌ์ฆ : Leaf wise(๋ฆฌํ ์ค์ฌ ํธ๋ฆฌ ๋ถํ ) ๋ฐฉ์ ์ฌ์ฉ
-> ์์ง์ ํ์ฅ
-> ์ต๋ ์์ค ๊ฐ(Max data loss)์ ๊ฐ์ง๋ ๋ฆฌํ ๋ ธํธ๋ฅผ ์ง์์ ์ผ๋ก ๋ถํ
-> ํธ๋ฆฌ ๊ธฐ์ค ๋ถํ ๋ฐฉ์์ ๋นํด ์์ธก ์ค๋ฅ ์์ค์ ์ต์
๐Light GBM ์ฅ์
- ๊ฐ๋ณ๊ณ ์๋๊ฐ ๋น ๋ฆ
- ํฐ ์ฌ์ด์ฆ์ ๋ฐ์ดํฐ๋ฅผ ์คํ์ํฌ ๋ ์ ์ ๋ฉ๋ชจ๋ฆฌ ์ฌ์ฉ
- categorical feature ๋ค์ ์๋ ๋ณํ๊ณผ ์ต์ ๋ถํ
- ๊ฒฐ๊ณผ์ ์ ํ๋์ ์ด์ ์ ๋ง์ถค
- GPU ํ์ต ์ง์
๐Light GBM ๋จ์
- ์ ์ ๋ฐ์ดํฐ ์ฌ์ฉ์ ๊ณผ์ ํฉ ๊ฐ๋ฅ์ฑ(์ ์ ๋ฐ์ดํฐ ๊ธฐ์ค : 10,000๊ฐ)
๐Light GBM ํ๋ผ๋ฏธํฐ
-> Light GBM์ ๊ตฌํ์ ์ฌ์ฐ๋, ํ๋ผ๋ฏธํฐ๊ฐ 100๊ฐ๊ฐ ๋๋๋ค : ์ค์ํ ํ๋ผ๋ฏธํฐ๋ง ์๊ณ ์์ด๋ ์ฌ์ฉํ๋ ๋ฐ์ ๋ฌด๋ฆฌ ์๋ค
๐Light GBM ์ค์ต
-> ์๋์ฝ๋ค ์ฌ์ฉํ๋ ํ๊ฒฝ์ด๋ผ ๋จผ์ ์ค์น ์งํ
conda install -c conda-forge lightgbm
import lightgbm as lgb
# Preprocess your data
X = labeled_data.drop('label', axis=1)
y = labeled_data['label']
# Normalize the features
scaler = StandardScaler()
X = scaler.fit_transform(X)
# Split data into training and testing sets
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=1)
# Perform K-fold cross-validation
lgb_model = lgb.LGBMClassifier()
lgb_model.fit(X_train, y_train)
y_pred_prob = lgb_model.predict_proba(X_test)
# Perform K-fold cross-validation and calculate AUROC scores
y_pred_proba = cross_val_predict(lgb_model, X, y, cv=5, method='predict_proba')
roc_auc = roc_auc_score(y_test, y_pred_prob, multi_class='ovr', average='macro')
print("Macro-average AUROC score:", roc_auc)
plot_roc(y_test, y_pred_prob)
ใ feature importance
-> ํ๋ผ๋ฏธํฐ๋ฅผ ๋ค๋ฅด๊ฒ ํ๋ฉด ๋ชจ๋ธ ๋๋ฆด๋๋ง๋ค feature importance๊ฐ ๋ณํจ