• Àüü
  • ÀüÀÚ/Àü±â
  • Åë½Å
  • ÄÄÇ»ÅÍ
´Ý±â

»çÀÌÆ®¸Ê

Loading..

Please wait....

±¹³» ³í¹®Áö

Ȩ Ȩ > ¿¬±¸¹®Çå > ±¹³» ³í¹®Áö > Çѱ¹Á¤º¸°úÇÐȸ ³í¹®Áö > Á¤º¸°úÇÐȸ ³í¹®Áö B : ¼ÒÇÁÆ®¿þ¾î ¹× ÀÀ¿ë

Á¤º¸°úÇÐȸ ³í¹®Áö B : ¼ÒÇÁÆ®¿þ¾î ¹× ÀÀ¿ë

Current Result Document : 6 / 7 ÀÌÀü°Ç ÀÌÀü°Ç   ´ÙÀ½°Ç ´ÙÀ½°Ç

ÇѱÛÁ¦¸ñ(Korean Title) ºñºÐ·ùÇ¥½Ã µ¥ÀÌŸ¸¦ ÀÌ¿ëÇÏ´Â ºÐ·ù ±â¹Ý Co-training ¹æ¹ý
¿µ¹®Á¦¸ñ(English Title) A Co-training Method based on Classification Using Unlabeled Data
ÀúÀÚ(Author) À±Çý¼º   ÀÌ»óÈ£   ¹Ú½Â¼ö   ¿ëȯ½Â   ±èÁÖÇÑ  
¿ø¹®¼ö·Ïó(Citation) VOL 31 NO. 08 PP. 0991 ~ 0998 (2004. 08)
Çѱ۳»¿ë
(Korean Abstract)
»ý¹° Á¤º¸ÇРµî ¸¹Àº ÀÀ¿ë ºÐ¾ß¿¡¼­ µ¥ÀÌŸ ºÐ¼®À» ÇÒ ¶§´Â ÀûÀº ¼öÀÇ ºÐ·ùÇ¥½ÃµÈ µ¥ÀÌŸ(labeled data)¿Í ¸¹Àº ¼öÀÇ ºñºÐ·ùÇ¥½ÃµÈ µ¥ÀÌŸ(unlabeled data)°¡ ÀÖÀ» ¼ö ÀÖ´Ù. ºÐ·ùÇ¥½ÃµÈ ÀÚ·á´Â »ç¶÷ÀÇ ³ë·ÂÀÌ ¿ä±¸µÇ±â ¶§¹®¿¡ ¾ò±â°¡ ¾î·Æ°í ºñ¿ëÀÌ ¸¹ÀÌ µéÁö¸¸, ºñºÐ·ùÇ¥½ÃµÈ ÀÚ·á´Â º° ¾î·Á¿ò ¾øÀÌ ½±°Ô ¾òÀ» ¼ö ÀÖ´Ù. À̶§ ºñºÐ·ùÇ¥½ÃµÈ ÀڷḦ ÀÌ¿ëÇÏ¿© ÀڷḦ ºÐ·ùÇÏ°í ºÐ¼®Çϴµ¥ ³Î¸® ÀÌ¿ëµÇ°í Àִ ¹æ¹ýÀÌ co-training ¾Ë°í¸®ÁòÀÌ´Ù. ÀÌ ¹æ¹ýÀº ÀûÀº ¼öÀÇ ºÐ·ùÇ¥½ÃµÈ ÀÚ·á¿¡¼­ µÎ °¡Áö ºä(view)·Î °¢ ºÐ·ùÀÚ¸¦ ÇнÀÇÑ´Ù. ±×¸®°í °¢ ºÐ·ùÀڴ ºÐ¼®ÇÏ°íÀÚ Çϴ ¸ðµç ºñºÐ·ùÇ¥½ÃµÈ ÀÚ·á¿¡¼­ °¡Àå ¸¸Á·ÇÒ¸¸ÇÑ ¿¹ÃøÀÚµéÀ» ¸¸µé¾î ³ª°£´Ù. ÀÌ·¸°Ô ÈƷ൥ÀÌŸ ¼Â¿¡¼­ ½ÇÇèÀ» ¿©·¯ ¹ø ¹Ýº¹ÀûÀ¸·Î ÇÏ°Ô µÇ¸é °¢ ºä¿¡¼­ »õ·Î¿î ºÐ·ùÀÚ°¡ ÇнÀµÇ¾î ºÐ·ùÇ¥½ÃµÈ ÀÚ·áÀÇ ¼ö°¡ Áõ°¡ÇÑ´Ù. 
º» ³í¹®¿¡¼­´Â ºñºÐ·ùÇ¥½ÃµÈ µ¥ÀÌŸ¸¦ ÀÌ¿ëÇÏ¿© »õ·Î¿î co-training ¹æ¹ýÀ» Á¦½ÃÇÑ´Ù. ÀÌ ¹æ¹ýÀº µÎ °¡Áö ºÐ·ùÀÚ¿Í WebKB ¹× BIND XMLÀÇ 2°¡Áö ½ÇÇè µ¥ÀÌŸ¸¦ °¡Áö°í Æò°¡ÇÏ¿´´Ù. ½ÇÇè °á°ú·Î¼­, ÀÌ ³í¹®¿¡¼­ Á¦¾ÈÇÑ co-training ¹æ¹ýÀÌ ºÐ·ùÇ¥½ÃµÈ ÀÚ·áÀÇ ¼ö°¡ ¸Å¿ì ÀûÀ» ¶§ ºÐ·ùÁ¤È®¼ºÀ» È¿°úÀûÀ¸·Î Çâ»ó½Ãų ¼ö ÀÖÀ½À» º¸¿´´Ù.
¿µ¹®³»¿ë
(English Abstract)
In many practical learning problems including bioinformatics area, there is a small amount of labeled data along with a large pool of unlabeled data. Labeled examples are fairly expensive to obtain because they require human efforts. In contrast, unlabeled examples can be inexpensively gathered without an expert. A common method with unlabeled data for data classification and analysis is co-training. This method uses a small set of labeled examples to learn a classifier in two views. Then each classifier is applied to all unlabeled examples, and co-training detects the examples on which each classifier makes the most confident predictions. After some iterations, new classifiers are learned in training data and the number of labeled examples is increased. 
In this paper, we propose a new co-training strategy using unlabeled data. And we evaluate our method with two classifiers and two experimental data: WebKB and BIND XML data. Our experimentation shows that the proposed co-training technique effectively improves the classification accuracy when the number of labeled examples are very small.
Å°¿öµå(Keyword) ±â°èÇнÀ   co-training   ºÐ·ù ¾Ë°í¸®Áò   ¹Ý±³»ç ÇнÀ   classification algorithm  
ÆÄÀÏ÷ºÎ PDF ´Ù¿î·Îµå