본문 바로가기

반응형

코딩

(88)
코랩에서 seaborn 및 matplotlib에서 한글 깨짐 현상 2시간을 헤매면서 chatGPT 수십번들 두드리다가 드디어 찾았다. #폰트 설치 !sudo apt-get install -y fonts-nanum !sudo fc-cache -fv !rm ~/.cache/matplotlib -rf 위와같이 폰트를 설치하고 런타임 재시작을 한다 plt.rc('font', family='NanumBarunGothic') 맷플롯플립에서 폰트를 적용하고 실행한다. 끝~ 아래는 참고용 import pandas as pd import seaborn as sns import matplotlib.pyplot as plt plt.rc('font', family='NanumBarunGothic') # 데이터 불러오기 및 처리 df = pd.read_csv('/content/sample_d..
배치 경사하강법 / 확률적 경사하강법 / 미니배치 경사하강법 활용처 배치 경사하강법(Batch Gradient Descent) 작은 규모의 데이터셋 정확한 최적화를 필요로 하는 경우 볼록 손실함수 모델이 충분한 메모리를 가지고 있는 경우 과적합이 없는 경우 확률적 경사하강법(Stochastic Gradient Descent) 대규모 데이터셋 온라인학습 비선형 최적화(그래디언트를 계산하기 어렵거나, 미분 불가할대) 규제(SGD는 L1, L2규제와 함께 사용되어 오버피팅 방지 신경망 학습 미니배치 경사하강법(Mini-Batch Gradient Descent) - 임의의 샘플에 대해 gradient 계산 대규모 데이터 셋 메모리 제약이 있는 경우 노이즈 계산 효용성(배치보다 속도가 빠름) 행렬 연산에 최적화된 하드웨어, 특히 GPU 출처: 핸즈온 머신러닝
[코딩] 08-2 합성곱 신경망을 사용한 이미지 분류 데이터 불러오기 from tensorflow import keras from sklearn.model_selection import train_test_split (train_input, train_target), (test_input, test_target) = \ keras.datasets.fashion_mnist.load_data() train_scaled = train_input.reshape(-1, 28, 28, 1) / 255.0 train_scaled, val_scaled, train_target, val_target = train_test_split( train_scaled, train_target, test_size=0.2, random_state=42) 합성신경망 만들기 model = ..
[코딩] 07-3 신경망 모델 훈련(f.혼자 공부하는 머신러닝 딥러닝) #데이터 및 준비 from tensorflow import keras from sklearn.model_selection import train_test_split (train_input, train_target), (test_input, test_target) = \ keras.datasets.fashion_mnist.load_data() train_scaled = train_input / 255.0 train_scaled, val_scaled, train_target, val_target = train_test_split( train_scaled, train_target, test_size=0.2, random_state=42) #모델 만드는 함수 정의 def model_fn(a_layer=None)..
[코딩] 트리 앙상블(랜덤포레스트, 그라디언트부스팅, 엑스트라트리, XG부스트, 라이트GBM) - 혼자 공부하는 머신러닝 딥러닝 목차 데이터 RandomForest ExtraTree Gredient Boosting Histogram based Gradient Boosting XGBoost LightGBM 데이터 import numpy as np import pandas as pd from sklearn.model_selection import train_test_split wine = pd.read_csv('https://bit.ly/wine_csv_data') data= wine[['alcohol', 'sugar', 'pH']].to_numpy() target = wine[['class']].to_numpy() train_input,test_input, train_target,test_target = \ train_test_sp..
[코딩] 결정트리(f.혼자 공부하는 머신러닝 딥러닝) ㅇ불순도(gini impurity) - 지니불순도 = 1-(음성클래스비율^2 + 양성클래스비율^2) - 어떤 노드의 두 클래스 비율이 1/2씩 차이가 나면 지니 불순도는 최악 - 반면, 노드에 하나의 클래스만 있다면 지니 불순도는 0이 됨. 즉, 순수노드 ㅇ 결정트리 모델은 부모 노드와 자식노드의 불순도 차이가 가능한 크도록 트리를 성장시킴 ㅇ 정보이득 : 부모와 자식 노드 사이의 불순도 DecisionTreeClassifier에서 criterion = 'entropy' 를 지정하여 엔트로피 불순도를 사용할 수 있음. 엔트로피 불순도 : -음성클래스비율 x log2(음성클래스비율) - 양성 클래스 비율 x log2(양성클래스비율) 데이터 및 train-test 나누기 #데이터 import pandas a..
[코딩] 이진분류,다중분류(f.혼자공부하는 머신러닝 딥러닝) 목차 1. 데이터 세팅 가. train,test 나누기 나. 정규화 2. k-최근접 훈련 가. 훈련 나. 예측 다. 확률 수치 구하기 3. 이진분류 가. 로지스틱회귀 훈련 나. 예측값(샘플5개) 및 확률 값 다. 계수확인(coef, intercept) 라. z값 및 확률값 4. 다중분류 가. 훈련 나. 예측값(샘플5개) 및 확률값 다. z값 및 확률값 라. 소프트맥스 계산 데이터 import pandas as pd import numpy as np fish = pd.read_csv('https://bit.ly/fish_csv_data') train,test 나누기 및 정규화 fish_input = fish[['Weight', 'Length', 'Diagonal', 'Height', 'Width']].to..
[코딩] Neighbors 도미와 빙어 전처리 후 구분(혼자 공부하는 머신러닝 딥러닝) 목차 1. 문제 및 데이터 2. 코드작성 3. 코드풀이(1)- 데이터 전처리 4. 코드풀이(2)- 데이터 전처리 후 5. 참고 column_stack(), concatenate() 문제 : length가 25, weight가 150인 물고기가 도미인지 빙어인지 구분 데이터(도미와 송어의 길이와 무게) #데이터 bream_length = [25.4, 26.3, 26.5, 29.0, 29.0, 29.7, 29.7, 30.0, 30.0, 30.7, 31.0, 31.0, 31.5, 32.0, 32.0, 32.0, 33.0, 33.0, 33.5, 33.5, 34.0, 34.0, 34.5, 35.0, 35.0, 35.0, 35.0, 36.0, 36.0, 37.0, 38.5, 38.5, 39.5, 41.0, 41.0..

반응형