• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            posts - 12, comments - 4, trackbacks - 0, articles - 36
            今天看了一篇文章,主要講的是數(shù)據(jù)挖掘在新聞事件的發(fā)現(xiàn)和跟蹤上面的應用。論文的題目是Learing approaches for Detecting and Tracking News Events.
            文章主要分成五個部分
            新聞事件的特點分析,新聞事件的發(fā)現(xiàn),新聞事件發(fā)現(xiàn)的評估,新聞時間的跟蹤,新聞事件跟蹤的評估

            大致總結(jié)一些每一部分的主要內(nèi)容

            新聞事件的特點分析
               新聞事件和一般的文本分類,信息提取不同的地方在于,新聞事件的發(fā)展和報道和時間上的關(guān)系。新聞是以時間順序輸入TDT系統(tǒng),關(guān)于某個事件的新聞,在時間上是一個尖峰脈沖。因此在做相似性聚類的時候需要充分考慮報道同一事件的新聞在時間上的相似性,以及文本相似性。
               還有就是,報道不同事件的新聞的term會大大不同,其起到的作用,即權(quán)值也大大不同,因此需要動態(tài)的更改這些權(quán)值,為下面的聚類和分類使用。

            新聞事件的發(fā)現(xiàn)
               新聞事件的發(fā)現(xiàn),實際上就是文本聚類,和時間有關(guān)的,文本量不大的文本聚類
               事件發(fā)現(xiàn)又分為兩部分:回顧的事件挖掘和新事件的在線發(fā)現(xiàn)。
               這篇文章主要采用了兩個修改了的聚類算法:GAC和INCR,其中GAC是對塊數(shù)據(jù)進行處理,會返回樹狀聚類,INCR是對流數(shù)據(jù)進行處理
               聚類的表示,這篇文章使用的是ltc,但其中的idf因子進行了修改
            IDF(t,p)=log(N(p)/n(t,p)) 其中p是時間。

               GAC的步驟,

            1.       把輸入集合的每一個文檔當作一個單獨的聚類,設置初始劃分為單個集合的全部集。

            2.       把當前劃分分成兩個沒有重疊,并且連續(xù)的大小為m(用戶預定義的)的籃子

            3.       在每個籃子里面使用GAC,重復的把兩個低層的聚類聚集成一個高層的聚類,直到籃子中的聚類降到p(用戶預定義的)或者任意兩個聚類間的相似性小于一個與定義的閾值(用戶預定義的)。

            4.       移除籃子邊界,按照聚類的時間,把所有GAC聚類放在一起。使用的到的聚類序列作為更新的劃分。

            5.       重新計算2-4部,直到劃分的大小不大于m,或者聚類之間的相似性達到限制。

            6.       定期(once of 運行第五步k次)的在每個最高層聚類中重聚類,通過撫平組建聚類和從葉結(jié)點重新增長聚類。防止新聞事件被分在兩個時間窗口的情況的影響。

                  

               
            INCR
            算法是直接的,一個一個處理文檔,逐步增加聚類。如果一個新文檔和一個類的相似性大于一個閾值tc,則聚入到已有的最近類。如果和所有的聚類的相似性都小于閾值,則把他作為新類的種子。通過恰當?shù)倪x取閾值,可以獲得不同粒度的聚類。

                   對于INCR在線事件發(fā)現(xiàn)的應用時,我們引入了一個附加的閾值,noverlty threshold(tn)。如果當前文檔和任何聚類的相似性都小于noverlty threshold,這個文檔就標記為“NEW”,表示這是一個新事件的開頭;否則就標記“OLD”。通過調(diào)整這個閾值,可以調(diào)整對于在線發(fā)現(xiàn)新事件的敏感度。

                   設置兩個閾值的原因在于可以為不同的任務進行優(yōu)化,我們發(fā)現(xiàn)設置tc=tn對于回顧聚類比較合適,而設置tc=正無窮對于在線偵測比較更好,即,不產(chǎn)生任何聚類。

                   對于INCR增加的另外一個功能是時間懲罰(time penalty)。最簡單的方法是使用一個時間窗口。給定當前的文檔x,我們引入一個時間窗口m表示x前的m個文檔,然后定義修改后的x和任意聚類c相似性sim(x,c)

            另外,他們引入了衰退相似性的權(quán)重函數(shù)sim(x,c)=(1-i/m)*sim(x,c),其中ix和類c中最近的文檔數(shù)。文中說,可以給出非線性的衰退函數(shù),以求得更好的結(jié)果。

             

                   對于新舊的預測,每個文檔要計算一個score,表示這個文檔有多新score(x)=1-arg max{sim(x,c)'}  其中x是當前新文檔,c是過去的所有聚類。通過設定閾值,來控制準確率和召回率的折中。
               
            新聞事件發(fā)現(xiàn)的評估
               回顧事件的發(fā)現(xiàn),使用關(guān)于籃子的GAC效果最好
               對于在線發(fā)現(xiàn),處理流數(shù)據(jù)的INCR有天生的優(yōu)勢,但是需要恰當?shù)恼{(diào)整相似性的權(quán)重函數(shù)和聚類的閾值,這可能需要通過實驗測定。

            新聞事件的跟蹤
               就是要在新聞事件到來的時候,確定他是關(guān)于那些事件,但是做決定的根據(jù)是先前到來的關(guān)于這個事件的為數(shù)不多的新聞。同時還要求能夠分開有關(guān)系的新聞事件,例如前后的礦難。另外就是要求對一個新聞事件的判斷必須是獨立的,與其他事件無關(guān)。
               文章選取了kNN和決策樹的算法。因為kNN在TC上的性能非常好,對術(shù)語和新聞作了最少的假設。
               為每個新聞事件訓練了一個kNN,并把它的m-ary變成了二維判斷。是由于正面事例太少,所以修改了一下YES的判斷標準。
               決策樹的算法暫時不考慮。
               在做分類時,一般只考慮一到一個半月以內(nèi)的新聞作為訓練集,因為一般新聞的持續(xù)時間不會超過兩個月

            事件跟蹤的評估
            修改后的kNN效果還是很不錯的

            A级毛片无码久久精品免费| 九九久久精品国产| 久久久精品人妻一区二区三区四| 久久亚洲国产成人影院| 人人妻久久人人澡人人爽人人精品| 亚洲欧美成人久久综合中文网 | 久久精品亚洲精品国产色婷| 精品国产乱码久久久久久1区2区| 亚洲午夜久久影院| 国产精品中文久久久久久久| 国产亚洲欧美精品久久久| 久久精品国产WWW456C0M| 久久精品国产男包| 精品无码久久久久久久久久| 久久人人爽人人爽人人片av高请| 99久久精品免费国产大片| 久久无码国产专区精品| 一本色道久久88加勒比—综合| 奇米影视7777久久精品人人爽| 久久久精品免费国产四虎| 少妇无套内谢久久久久| 伊人久久综在合线亚洲2019 | 99国产精品久久| 一本一道久久a久久精品综合 | 久久综合九色综合欧美就去吻| 99久久无色码中文字幕人妻| 久久99精品久久久久久不卡| 国产午夜久久影院| 中文精品久久久久人妻不卡| 久久久久亚洲精品中文字幕| 精品久久综合1区2区3区激情| 99re这里只有精品热久久| 亚洲国产成人久久笫一页| 99久久国产综合精品麻豆| 中文字幕久久精品无码| 中文无码久久精品| 狠狠色丁香久久婷婷综合| 色婷婷狠狠久久综合五月| 久久精品国产亚洲5555| 欧美久久一级内射wwwwww.| 久久99国产一区二区三区|