<div dir="ltr"><div dir="ltr"><div dir="ltr"><div>Hi devs, <br></div><div><br></div><div>I'm writing to ask how do one determine the best number of classes/clusters in a set of unsupervised classifications with different k in GRASS? I use i.cluster with different number of classes and then i.maxlik that uses a modified version of k-means according to the manual page. Now, I would like to know which unsup classif is the best within the set. I check the i.cluster reports (looking for separability) and then explored the rejection maps. But none of those seems to work as a crisp and clear indicator. BTW, does anyone know which separability index does i.cluster use?</div><div><br></div><div>In any case, I have seen some indices elsewhere (mainly R and Python) that are used to choose the best clustering results (coming from the same or different clustering methods). Examples of those indices are Silhouette, Dunn, etc. Some are called internal as they do not require test data and just characterize the compactness of clusters. On the other hand, the ones requiring test data are called external. I have seen them in dtwclust R package [0] (the package is oriented to time series clustering but validation indices are more general) and in scikit-learn in Python [1]. Does any of you have something already implemented in this direction? or how do you assess your unsup classification (clustering) results?<br></div></div><div dir="ltr"><br></div><div>Any ideas or suggestions within GRASS?</div><div><br></div><div dir="ltr"><div>Thanks much in advance!</div><div>Vero</div><div><br></div><div>[0] <a href="https://rdrr.io/cran/dtwclust/man/cvi.html">https://rdrr.io/cran/dtwclust/man/cvi.html</a><br></div><div>[1] <a href="http://scikit-learn.org/stable/modules/clustering.html#clustering-performance-evaluation">http://scikit-learn.org/stable/modules/clustering.html#clustering-performance-evaluation</a><br></div></div></div></div>