Difference between revisions of "Clustering"

From Opengenome.net
 
(2 intermediate revisions by the same user not shown)
Line 1: Line 1:
<font color="#800080" size="4">Clustering</font><br /><br /><span style="FONT-SIZE: 10pt; COLOR: black; FONT-FAMILY: 굴림; mso-hansi-font-family: 'Times New Roman'; mso-ansi-language: KO; mso-fareast-language: KO; mso-bidi-language: AR-SA; mso-bidi-font-family: 굴림">패턴 공간에 주어진 유한 개의 패턴들이 서로 가깝게 모여서 무리를 이루고 있는 집합을<br />cluster 라하고&nbsp;무리 지어가는 과정을 clustering 이라 한다.<br /><br /><br /><br /><font color="#99cc00" size="3"><strong># Clustering algorithm<br /></strong></font><br />- <span lang="EN-US" style="FONT-SIZE: 10pt; FONT-FAMILY: 굴림; mso-ansi-language: EN-US; mso-fareast-language: KO; mso-bidi-language: AR-SA; mso-font-kerning: 1.0pt; mso-bidi-font-family: 'Times New Roman'; mso-bidi-font-size: 12.0pt"><strong>Hierarchical clustering<br /></strong>&nbsp; : Hierarchical clustering은 bottom-up 또는 top-down 방식을 취하며 각 요소들로 부터&nbsp;<br />&nbsp;&nbsp;&nbsp; 시작한 클러스터들이 계층적 구조를 이루고 있다. tree구조에서 한쪽끝은 각각의 요소이고&nbsp;<br />&nbsp;&nbsp;&nbsp; 다른쪽 끝은 모든 요소를 가지는 하나의 클러스터가 된다.<br /><br />- k-means<br />&nbsp; : k-means는 군집화 문제를 해결하는 가장 간단한 자율학습 알고리즘으로 랜덤하게 N개의&nbsp;<br />&nbsp;&nbsp;&nbsp; 중심점을 정하고 그 점들과 이웃하는 가장 가까운 값들을 cluster 해 나가서 어느&nbsp;<br />&nbsp;&nbsp;&nbsp; 중심점에서든지 더이상 cluster가 일어나지 않을때까지 진행됨<br /></span></span>
+
<font color="#800080" size="4">Clustering</font><br /><br /><span style="FONT-SIZE: 10pt; COLOR: black; FONT-FAMILY: 굴림; mso-hansi-font-family: 'Times New Roman'; mso-ansi-language: KO; mso-fareast-language: KO; mso-bidi-language: AR-SA; mso-bidi-font-family: 굴림">패턴 공간에 주어진 유한 개의 패턴들이 서로 가깝게 모여서 무리를 이루고 있는 집합을<br />cluster 라하고&nbsp;무리 지어가는 과정을 clustering 이라 한다.<br /><br /><br /><br /><font color="#99cc00" size="3"><strong># Clustering algorithm<br /></strong></font><br />- <span lang="EN-US" style="FONT-SIZE: 10pt; FONT-FAMILY: 굴림; mso-ansi-language: EN-US; mso-fareast-language: KO; mso-bidi-language: AR-SA; mso-font-kerning: 1.0pt; mso-bidi-font-family: 'Times New Roman'; mso-bidi-font-size: 12.0pt"><strong>Hierarchical clustering<br /></strong>&nbsp; : Hierarchical clustering은 bottom-up 또는 top-down 방식을 취하며 각 요소들로 부터&nbsp;<br />&nbsp;&nbsp;&nbsp; 시작한 클러스터들이 계층적 구조를 이루고 있다. tree구조에서 한쪽끝은 각각의 요소이고&nbsp;<br />&nbsp;&nbsp;&nbsp; 다른쪽 끝은 모든 요소를 가지는 하나의 클러스터가 된다.<br /><br />-<strong> k-means</strong><br />&nbsp; : k-means는 군집화 문제를 해결하는 가장 간단한 자율학습 알고리즘으로 랜덤하게 N개의&nbsp;<br />&nbsp;&nbsp;&nbsp; 중심점을 정하고 그 점들과 이웃하는 가장 가까운 값들을 cluster 해 나가서 어느&nbsp;<br />&nbsp;&nbsp;&nbsp; 중심점에서든지 더이상 cluster가 일어나지 않을때까지 진행됨<br />&nbsp;&nbsp;&nbsp; &rarr;<font style="BACKGROUND-COLOR: #ffffff"> </font><font style="BACKGROUND-COLOR: #ffcc99">demo</font><font style="BACKGROUND-COLOR: #ffffff"> </font>:&nbsp;<a href="http://www.elet.polimi.it/upload/matteucc/Clustering/tutorial_html/AppletKM.html">http://www.elet.polimi.it/upload/matteucc/Clustering/tutorial_html/AppletKM.html</a><br /><br />-<strong> SOM (Self&nbsp; Organizing&nbsp; Map)</strong><br />&nbsp;&nbsp;: SOM은 출력 map에 자신의 물리적 위치를 가지며 winner-take-all 과정에 참여하는 인공 뉴런의&nbsp;<br />&nbsp;&nbsp;&nbsp; 집합을 의미한다. 이것은 일종의 경쟁신경망으로 입력벡터에 가장 가까운 가중치 벡터를 가지는&nbsp;<br />&nbsp;&nbsp;&nbsp; 노드를 winner로 선언하고, 그 값이 입력벡터에 더 가까워지도록 가중치가 조정되고, 각 노드는&nbsp;<br />&nbsp;&nbsp;&nbsp; 이웃의 집합을 가지게 된다.&nbsp;<br /><br /></span></span>

Latest revision as of 12:12, 15 June 2006

Clustering

패턴 공간에 주어진 유한 개의 패턴들이 서로 가깝게 모여서 무리를 이루고 있는 집합을
cluster 라하고 무리 지어가는 과정을 clustering 이라 한다.



# Clustering algorithm

- Hierarchical clustering
  : Hierarchical clustering은 bottom-up 또는 top-down 방식을 취하며 각 요소들로 부터 
    시작한 클러스터들이 계층적 구조를 이루고 있다. tree구조에서 한쪽끝은 각각의 요소이고 
    다른쪽 끝은 모든 요소를 가지는 하나의 클러스터가 된다.

- k-means
  : k-means는 군집화 문제를 해결하는 가장 간단한 자율학습 알고리즘으로 랜덤하게 N개의 
    중심점을 정하고 그 점들과 이웃하는 가장 가까운 값들을 cluster 해 나가서 어느 
    중심점에서든지 더이상 cluster가 일어나지 않을때까지 진행됨
    → demo http://www.elet.polimi.it/upload/matteucc/Clustering/tutorial_html/AppletKM.html

- SOM (Self  Organizing  Map)
  : SOM은 출력 map에 자신의 물리적 위치를 가지며 winner-take-all 과정에 참여하는 인공 뉴런의 
    집합을 의미한다. 이것은 일종의 경쟁신경망으로 입력벡터에 가장 가까운 가중치 벡터를 가지는 
    노드를 winner로 선언하고, 그 값이 입력벡터에 더 가까워지도록 가중치가 조정되고, 각 노드는 
    이웃의 집합을 가지게 된다.