• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            posts - 12, comments - 4, trackbacks - 0, articles - 36
            今天看了一篇文章,主要講的是數(shù)據(jù)挖掘在新聞事件的發(fā)現(xiàn)和跟蹤上面的應用。論文的題目是Learing approaches for Detecting and Tracking News Events.
            文章主要分成五個部分
            新聞事件的特點分析,新聞事件的發(fā)現(xiàn),新聞事件發(fā)現(xiàn)的評估,新聞時間的跟蹤,新聞事件跟蹤的評估

            大致總結一些每一部分的主要內(nèi)容

            新聞事件的特點分析
               新聞事件和一般的文本分類,信息提取不同的地方在于,新聞事件的發(fā)展和報道和時間上的關系。新聞是以時間順序輸入TDT系統(tǒng),關于某個事件的新聞,在時間上是一個尖峰脈沖。因此在做相似性聚類的時候需要充分考慮報道同一事件的新聞在時間上的相似性,以及文本相似性。
               還有就是,報道不同事件的新聞的term會大大不同,其起到的作用,即權值也大大不同,因此需要動態(tài)的更改這些權值,為下面的聚類和分類使用。

            新聞事件的發(fā)現(xiàn)
               新聞事件的發(fā)現(xiàn),實際上就是文本聚類,和時間有關的,文本量不大的文本聚類
               事件發(fā)現(xiàn)又分為兩部分:回顧的事件挖掘和新事件的在線發(fā)現(xiàn)。
               這篇文章主要采用了兩個修改了的聚類算法:GAC和INCR,其中GAC是對塊數(shù)據(jù)進行處理,會返回樹狀聚類,INCR是對流數(shù)據(jù)進行處理
               聚類的表示,這篇文章使用的是ltc,但其中的idf因子進行了修改
            IDF(t,p)=log(N(p)/n(t,p)) 其中p是時間。

               GAC的步驟,

            1.       把輸入集合的每一個文檔當作一個單獨的聚類,設置初始劃分為單個集合的全部集。

            2.       把當前劃分分成兩個沒有重疊,并且連續(xù)的大小為m(用戶預定義的)的籃子

            3.       在每個籃子里面使用GAC,重復的把兩個低層的聚類聚集成一個高層的聚類,直到籃子中的聚類降到p(用戶預定義的)或者任意兩個聚類間的相似性小于一個與定義的閾值(用戶預定義的)。

            4.       移除籃子邊界,按照聚類的時間,把所有GAC聚類放在一起。使用的到的聚類序列作為更新的劃分。

            5.       重新計算2-4部,直到劃分的大小不大于m,或者聚類之間的相似性達到限制。

            6.       定期(once of 運行第五步k次)的在每個最高層聚類中重聚類,通過撫平組建聚類和從葉結點重新增長聚類。防止新聞事件被分在兩個時間窗口的情況的影響。

                  

               
            INCR
            算法是直接的,一個一個處理文檔,逐步增加聚類。如果一個新文檔和一個類的相似性大于一個閾值tc,則聚入到已有的最近類。如果和所有的聚類的相似性都小于閾值,則把他作為新類的種子。通過恰當?shù)倪x取閾值,可以獲得不同粒度的聚類。

                   對于INCR在線事件發(fā)現(xiàn)的應用時,我們引入了一個附加的閾值,noverlty threshold(tn)。如果當前文檔和任何聚類的相似性都小于noverlty threshold,這個文檔就標記為“NEW”,表示這是一個新事件的開頭;否則就標記“OLD”。通過調(diào)整這個閾值,可以調(diào)整對于在線發(fā)現(xiàn)新事件的敏感度。

                   設置兩個閾值的原因在于可以為不同的任務進行優(yōu)化,我們發(fā)現(xiàn)設置tc=tn對于回顧聚類比較合適,而設置tc=正無窮對于在線偵測比較更好,即,不產(chǎn)生任何聚類。

                   對于INCR增加的另外一個功能是時間懲罰(time penalty)。最簡單的方法是使用一個時間窗口。給定當前的文檔x,我們引入一個時間窗口m表示x前的m個文檔,然后定義修改后的x和任意聚類c相似性sim(x,c)

            另外,他們引入了衰退相似性的權重函數(shù)sim(x,c)=(1-i/m)*sim(x,c),其中ix和類c中最近的文檔數(shù)。文中說,可以給出非線性的衰退函數(shù),以求得更好的結果。

             

                   對于新舊的預測,每個文檔要計算一個score,表示這個文檔有多新score(x)=1-arg max{sim(x,c)'}  其中x是當前新文檔,c是過去的所有聚類。通過設定閾值,來控制準確率和召回率的折中。
               
            新聞事件發(fā)現(xiàn)的評估
               回顧事件的發(fā)現(xiàn),使用關于籃子的GAC效果最好
               對于在線發(fā)現(xiàn),處理流數(shù)據(jù)的INCR有天生的優(yōu)勢,但是需要恰當?shù)恼{(diào)整相似性的權重函數(shù)和聚類的閾值,這可能需要通過實驗測定。

            新聞事件的跟蹤
               就是要在新聞事件到來的時候,確定他是關于那些事件,但是做決定的根據(jù)是先前到來的關于這個事件的為數(shù)不多的新聞。同時還要求能夠分開有關系的新聞事件,例如前后的礦難。另外就是要求對一個新聞事件的判斷必須是獨立的,與其他事件無關。
               文章選取了kNN和決策樹的算法。因為kNN在TC上的性能非常好,對術語和新聞作了最少的假設。
               為每個新聞事件訓練了一個kNN,并把它的m-ary變成了二維判斷。是由于正面事例太少,所以修改了一下YES的判斷標準。
               決策樹的算法暫時不考慮。
               在做分類時,一般只考慮一到一個半月以內(nèi)的新聞作為訓練集,因為一般新聞的持續(xù)時間不會超過兩個月

            事件跟蹤的評估
            修改后的kNN效果還是很不錯的

            精品无码人妻久久久久久| 色综合久久久久综合99| 99久久777色| 久久本道久久综合伊人| 午夜精品久久久久久久无码| 中文字幕无码免费久久| 久久综合久久综合久久综合| 久久久久亚洲AV无码专区网站 | 久久综合色之久久综合| 伊人久久大香线蕉成人| AV色综合久久天堂AV色综合在| 国产精品嫩草影院久久| av色综合久久天堂av色综合在| 久久er热视频在这里精品| 亚洲人成网站999久久久综合| 久久综合给久久狠狠97色| 久久有码中文字幕| 久久婷婷国产麻豆91天堂| 97精品依人久久久大香线蕉97| 中文字幕亚洲综合久久2| 久久久亚洲AV波多野结衣| 久久久久无码专区亚洲av| 国产情侣久久久久aⅴ免费| 久久精品国产免费观看三人同眠| 国产91久久综合| 99999久久久久久亚洲| 成人午夜精品无码区久久| 亚洲精品tv久久久久| 国产亚州精品女人久久久久久| 久久综合久久自在自线精品自| 国产精品中文久久久久久久| 久久久久国产一级毛片高清板| 韩国无遮挡三级久久| 99久久99久久久精品齐齐| 亚洲va久久久噜噜噜久久天堂| 伊人色综合久久天天人守人婷| 精品久久久久中文字| 狠狠精品干练久久久无码中文字幕| 国产精品久久久久国产A级| 蜜臀av性久久久久蜜臀aⅴ| 亚洲乱码中文字幕久久孕妇黑人|