본문 바로가기

KHUDA

KHUDA ML 세션 5주차

chapter 6 비지도 학습 

 

군집알고리즘 
비지도 학습 
타깃이 없을 때 사용하는 머신러닝 알고리즘 
이미지 업로드 

 

plt.imshow(fruits[0], cmap='gray')
plt.show()

맵플롯립의 imshow() 함수를 사용하여 넘파이 배열로 저장된 이미지를 그린다. 

300은 이미지 개수, 이미지 크기가 100*100이다. 

이미지의 각 픽셀은 넘파이 배열 원소 하나에 대응한다 

흰 바탕은 우리에게 중요치 않지만, 컴퓨터는 255에 가까운 바탕에 집중한다 

따라서 바탕을 검고 대상을 밝게 만든다

plt.imshow(fruits[0], cmap='gray_r')
plt.show()

fig, axs = plt.subplots(1, 2)
axs[0].imshow(fruits[100], cmap='gray_r')
axs[1].imshow(fruits[200], cmap='gray_r')
plt.show()

하나의 행과 두개의 열을 지정하여 배열처럼 여러 그래프를 쌓을 수 있다 

apple = fruits[0:100].reshape(-1, 100*100)
pineapple = fruits[100:200].reshape(-1, 100*100)
banana = fruits[200:300].reshape(-1, 100*100)

이미지 샘플 100개 옆으로 늘어놓기 

axis인수
axis는 배열 축을 의미한다 다음과 같은 2차원 배열에서 axis=1일때 열 방향으로 계산하고, axis=일때 행 방향으로 계산한다 
사과 샘플 100개에 대한 픽셀 평균값 계산 
[ 88.3346  97.9249  87.3709  98.3703  92.8705  82.6439  94.4244  95.5999
  90.681   81.6226  87.0578  95.0745  93.8416  87.017   97.5078  87.2019
  88.9827 100.9158  92.7823 100.9184 104.9854  88.674   99.5643  97.2495
  94.1179  92.1935  95.1671  93.3322 102.8967  94.6695  90.5285  89.0744
  97.7641  97.2938 100.7564  90.5236 100.2542  85.8452  96.4615  97.1492
  90.711  102.3193  87.1629  89.8751  86.7327  86.3991  95.2865  89.1709
  96.8163  91.6604  96.1065  99.6829  94.9718  87.4812  89.2596  89.5268
  93.799   97.3983  87.151   97.825  103.22    94.4239  83.6657  83.5159
 102.8453  87.0379  91.2742 100.4848  93.8388  90.8568  97.4616  97.5022
  82.446   87.1789  96.9206  90.3135  90.565   97.6538  98.0919  93.6252
  87.3867  84.7073  89.1135  86.7646  88.7301  86.643   96.7323  97.2604
  81.9424  87.1687  97.2066  83.4712  95.9781  91.8096  98.4086 100.7823
 101.556  100.7027  91.6098  88.8976]
히스토그램
히스토그램은 값이 발생한 빈도를 그래프로 표시한 것 입니다. 
보통 X축이 값의 구간이고, Y축은 발생빈도 입니다. 
plt.hist(np.mean(apple, axis=1), alpha=0.8)
plt.hist(np.mean(pineapple, axis=1), alpha=0.8)
plt.hist(np.mean(banana, axis=1), alpha=0.8)
plt.legend(['apple', 'pineapple', 'banana'])
plt.show()

픽셀별 평균값 비교 
fig, axs = plt.subplots(1, 3, figsize=(20, 5))
fig, axs = plt.subplots(1, 3, figsize=(20, 5))
axs[0].bar(range(10000), np.mean(apple, axis=0))
axs[1].bar(range(10000), np.mean(pineapple, axis=0))
axs[2].bar(range(10000), np.mean(banana, axis=0))
plt.show()

픽셀 평균값을 이미지처럼 출력 후 그래프와 비교
apple_mean = np.mean(apple, axis=0).reshape(100, 100)
pineapple_mean = np.mean(pineapple, axis=0).reshape(100, 100)
banana_mean = np.mean(banana, axis=0).reshape(100, 100)

fig, axs = plt.subplots(1, 3, figsize=(20, 5))
axs[0].imshow(apple_mean, cmap='gray_r')
axs[1].imshow(pineapple_mean, cmap='gray_r')
axs[2].imshow(banana_mean, cmap='gray_r')
plt.show()

평균 이미지 =  모든 사진을 합쳐놓은 대표 이미지 

apple_index = np.argsort(abs_mean)[:100]
fig, axs = plt.subplots(10, 10, figsize=(10,10))
for i in range(10):
    for j in range(10):
        axs[i, j].imshow(fruits[apple_index[i*10 + j]], cmap='gray_r')
        axs[i, j].axis('off')
plt.show()

chapter 6-2 k-평균

k-평균 
랜덤하게 클러스터 중심을 정하고 그 중심을 이동시켜 다시 클러스터 만들기를 반복하며 최적의 클러스터를 구성 
클러스터 중심(센트로이드)
k-평균 알고리즘이 만든 클러스터에 속한 샘플의 특성 평균값
엘보우 방법
최적의 클러스터 개수를 정하는 방법 중 하나 
mport numpy as np

fruits = np.load('fruits_300.npy')
fruits_2d = fruits.reshape(-1, 100*100)
from sklearn.cluster import KMeans

km = KMeans(n_clusters=3, random_state=42)
km.fit(fruits_2d)
2차원 배열로 구성 
print(km.labels_)
print(np.unique(km.labels_, return_counts=True))
n_cluster가 3이므로 0,1,2로 나옴 

unique()는 중복을 제외하고 고유한 값 출력 
return_counts=True를 함으로써 중복 빈도 출력
import matplotlib.pyplot as plt

def draw_fruits(arr, ratio=1):
    n = len(arr)    # n은 샘플 개수입니다
    # 한 줄에 10개씩 이미지를 그립니다. 샘플 개수를 10으로 나누어 전체 행 개수를 계산합니다.
    rows = int(np.ceil(n/10))
    # 행이 1개 이면 열 개수는 샘플 개수입니다. 그렇지 않으면 10개입니다.
    cols = n if rows < 2 else 10
    fig, axs = plt.subplots(rows, cols,
                            figsize=(cols*ratio, rows*ratio), squeeze=False)
    for i in range(rows):
        for j in range(cols):
            if i*10 + j < n:    # n 개까지만 그립니다.
                axs[i, j].imshow(arr[i*10 + j], cmap='gray_r')
            axs[i, j].axis('off')
    plt.show()
sqeeze = False 
원소 개수가 1인 차원을 자동으로 압축하여 차원을 축소시킴 
이렇게 되면 중첩된 for문을 수행할 때 에러가 발생
이 예에서는 10개 미만의 샘플을 가진 클러스터가 없지만 오류를 방지하고자 squeeze = false로 지정 
불리언 인덱싱
draw_fruits(fruits[km.labels_==0])
draw_fruits(fruits[km.labels_==1])
draw_fruits(fruits[km.labels_==2])
엘보우 방법 
이니셔
클러스터 중심과 클러스터에 속한 샘플 사이의 거리를 제곱한 값
일반적으로 클러스터 개수가 늘어나면 클러스터 안의 샘플 개수가 줄어들기에 이너셔도 줄어듦

 

 

엘보우 방법
클러스터 개수를 늘려가며 이너셔 변화를 관찰

 

'KHUDA' 카테고리의 다른 글

KHUDA Data buiseness 01 practice  (3) 2024.03.18
KHUDA Data buisness 01  (0) 2024.03.13
KHUDA ML 세션 4주차  (1) 2024.02.20
KHUDA ML세션 3주차  (1) 2024.02.13
KHUDA ML세션 2주차  (1) 2024.02.05