10 K-medoides

10.1 Algoritmo:

  1. Asignar aleatoreamente un número, del \(1\) a \(K\) a cada observación. Estos funcionan como asignaciones iniciales para las observaciones.

  2. Iterar hasta que las asignaciones dejen de cambiar: 2.1 Para cada uno de los \(K\) conglomerados, calcular el medoide del conglomerado. El \(k\)-ésimo medoide del grupo es el vector de las \(p\) medias de características para las observaciones en el \(k\)-ésimo grupo.

2.2 Asignar cada observación al conglomerado cuyo medoide es el más cercano (donde más cercano se define utilizando la distancia euclidiana).

10.1.1 Paso 1: recopilación de datos

10.1.2 Paso 2: Explorar y preparar los datos

10.1.3 Paso 3: entrenar un modelo en los datos

Los pasos anteriores son los mismos realizados en kmeans. Ahora ajustamos un kmedoides:

library(cluster)
pamx <- pam(crime_s, 2)

10.1.4 Paso 4: evaluar el rendimiento del modelo

Gráficamente:

library(fpc)
library(cluster)
clusplot(pam(x=crime_s,k=2))

10.1.5 Paso 5: mejorando el ajuste

print(pamk(crime_s,krange=1:5)$nc)
## [1] 2