青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品

隨筆-341  評論-2670  文章-0  trackbacks-0
    今天在測試封裝在FreeScript內的正則表達式接口的時候發現了一個垃圾收集器的Bug,不過很容易就看出來了,于是立刻fix掉。出錯的原因在于垃圾收集的時候只標記了運算堆棧的內容,忘了標記調用堆棧的內容。

    這個新的Syngram包含了三個工具,分別是正則表達式、詞法分析器和語法分析器。

    正則表達式分純、安全和貪婪三種。純正則表達式僅僅用于匹配,速度非常快(以前的測試表明一秒鐘可以匹配44萬次),但是沒有預查和捕獲等功能。安全和貪婪兩種正則表達式則是通過不同的搜索方法來匹配字符串的內容,雖然慢了一點,不過有了預查和捕獲等功能。之前的文章有提到過關于一個少回溯多捕獲的測試用例下的速度。安全分析法回溯將會占用很多時間,而貪婪分析法則回溯基本是沒什么消耗的。

    詞法分析器則可以輸入不同的正則表達式,然后將字符串切割成匹配和不匹配的段落,并告訴你匹配的部分實際上是匹配了哪一條正則表達式。這個功能在分析很多字符串的時候都是相當好用的。

    至于語法分析器,則是實現了一個上下文無關文法庫。語法分析器可以通過接受支持Choice、Sequence、Option等操作的上下文無關文法(介于BNF和EBNF中間的一種表示)來講一個字符串分析之后執行用戶指定的語義規則。自己以前寫的Syngram for C++的一大優勢是支持左遞歸,使用Boost::Spirit來分析具有明顯左遞歸性質的文法的話你將不得不接受一個線性表來表示原本應該是樹的結構,這樣的話很難簡潔地搞定很多復雜的分析過程。Syngram for C++解決了這個問題。于是我將Syngram for C++包裝進了FreeScript,于是腳本也具有這個能力來分析復雜但是有遞歸結構的字符串了。

    在此貼一個例子。正則表達式大家都很熟悉就不貼了,這里貼一個語法分析器分析四則運算式子的FreeScript代碼:
 1 _run(_global,readfile(apppath++"Syngram.free"));
 2 using Syngram;
 3 
 4 Parser=Syner.new();
 5 
 6 Parser.SetDiscard("\\s+");
 7 Parser.SetToken("number","\\d+(.\\d+)?");
 8 Parser.SetToken("left","\\(");
 9 Parser.SetToken("right","\\)");
10 Parser.SetToken("add","\\+|\\-");
11 Parser.SetToken("mul","\\*|/");
12 Parser.SetDefaultError("未知錯誤。");
13 Parser.SetUnexpectedEndError("表達式過早結束。");
14 
15 Parser.SetRule("TERM","number",func(items)
16 {
17     return items[0];
18 });
19 Parser.SetRule("TERM","left EXP:\"括號后缺少表達式。\" right:\"缺少右括號。\"",func(items)
20 {
21     return items[1];
22 });
23 Parser.SetRule("TERM","add TERM:\"單目操作符后缺少表達式。\"",func(items)
24 {
25     if(items[0]=="+")
26         return items[1];
27     else
28         return -items[1];
29 });
30 Parser.SetRule("FACTOR","TERM",func(items)
31 {
32     return items[0];
33 });
34 Parser.SetRule("FACTOR","FACTOR mul TERM:\"雙目操作符后缺少表達式。\"",func(items)
35 {
36     if(items[1]=="*")
37         return items[0]*items[2];
38     else
39         return items[0]/items[2];
40 });
41 Parser.SetRule("EXP","FACTOR",func(items)
42 {
43     return items[0];
44 });
45 Parser.SetRule("EXP","EXP add FACTOR:\"雙目操作符后缺少表達式。\"",func(items)
46 {
47     if(items[1]=="+")
48         return items[0]+items[2];
49     else
50         return items[0]-items[2];
51 });
52 
53 Parser.Initialize("EXP");
54 
55 try_catch(
56     func()
57     {
58         writeln(Parser.Parse(read("輸入一個四則運算式子:")));
59     },
60     func(errmsg)
61     {
62         writeln("格式錯誤:",errmsg);
63     }
64 );
    這段程序輸入一個四則運算式子,如果輸入錯誤則顯示配置進去的相應的錯誤信息,否則則使用綁定的語義規則(Parse.SetRule中的func(items))來計算整個式子的結果。Syngram for C++的文法并不是使用字符串表示的,但是Syner在開發的時候FreeScript尚未實現操作符重載,于是就算了,懶得重新封裝一個。封裝的那一層用了Syngram for C++實現了字符串到文法的分析器,然后套上一層新的Syngram for C++來分析FreeScript的代碼所要分析的內容。事實上這個分析器是Syngram2

    好了,現在貼出Syngram for FreeScript的代碼:
  1 /****************************************************************
  2 本庫需要【Collections.free】的支持
  3 
  4 RegexpMatch:正則表達式匹配結果
  5     Captures            :匿名捕獲只讀表
  6     Storages            :命名捕獲多值表
  7     Position            :匹配位置
  8     Text                :匹配結果
  9     Matched                :是否成功匹配
 10 RegexpBase:正則表達式基類
 11     Find({value}Text)        :在字符串中尋找所有匹配的只讀表
 12     Split({value}Text)        :使用正則表達式分割字符串的只讀表
 13     Cut({value}Text)        :將字符串分割成匹配或不匹配正則表達式的部分的只讀表
 14     Match({value}Text)        :在字符串中尋找第一個匹配
 15     MatchHead({value}Text)        :返回從第一個字符開始的匹配
 16     MatchWhole({value}Text)        :返回匹配整個字符串的匹配
 17 
 18 RegexpPure:純匹配正則表達式
 19     constructor({value}Expression)    :使用字符串構造正則表達式
 20 RegexpSafe:安全正則表達式
 21     constructor({value}Expression)    :使用字符串構造正則表達式
 22 RegexpGreed:貪婪正則表達式
 23     constructor({value}Expression)    :使用字符串構造正則表達式
 24 
 25 LexerToken:詞法分析器記號
 26     Data                :自定義數據
 27     Position            :位置
 28     Text                :記號內容
 29 Lexer:詞法分析器
 30     constructor()            :構造詞法分析器
 31     Add({value}Exp,Data)        :添加類型并綁定自定義數據
 32     Initialize()            :初始化
 33     Parse({value}Input)        :分析字符串,返回LexerToken的只讀表
 34     
 35 
 36 Syner:上下文無關文法分析器
 37     SetDiscard(Regex)        :設置詞法分析后需要刪掉的記號的正則表達式
 38     SetToken(Name,Regex)        :設置有效記號的名字和對應的正則表達式
 39     SetRule(Name,Rule,Func)        :設置推導式的名字、推導式和語義回調函數
 40     Initialize(Nonterminator)    :設置初始符號并初始化
 41     IsReady()            :返回是否已經初始化
 42     Parse(Text)            :分析字符串
 43     SetDefaultError(Text)        :一般錯誤返回的消息
 44     SetUnexpectedEndError(Text)    :過早結束返回的消息
 45 ****************************************************************/
 46 Syngram=namespace 
 47 {
 48     fixed RegexpMatch=class()
 49     {
 50         local Captures=null;
 51         local Storages=null;
 52         local Position=null;
 53         local Text=null;
 54         local Matched=null;
 55 
 56         local constructor=func(Item)
 57         {
 58             Matched=matched(Item);
 59             Text=text(Item);
 60             Position=pos(Item);
 61             Captures=ReadonlyList.new(catched(Item));
 62             Storages=MultiMap.new();
 63             for(name in allstorages(Item))
 64                 Storages.Add(name,storage(Item,name));
 65         };
 66     };
 67 
 68     fixed RegexpBase=class()
 69     {
 70         local Find=null;
 71         local Split=null;
 72         local Cut=null;
 73         local Match=null;
 74         local MatchHead=null;
 75         local MatchWhole=null;
 76 
 77         local constructor=func()
 78         {
 79             local Engine=null;
 80 
 81             local TransformResult=multifunc
 82             {
 83                 func({array}Items)
 84                 {
 85                     return ReadonlyList.new(Items).Map(func(Item)return RegexpMatch.new(Item););
 86                 }
 87                 func(Item)
 88                 {
 89                     return RegexpMatch.new(Item);
 90                 }
 91             };
 92 
 93             Find=func({value}Text)
 94             {
 95                 return TransformResult(find(Engine,Text));
 96             };
 97 
 98             Split=func({value}Text)
 99             {
100                 return TransformResult(split(Engine,Text));
101             };
102 
103             Cut=func({value}Text)
104             {
105                 return TransformResult(cut(Engine,Text));
106             };
107 
108             Match=func({value}Text)
109             {
110                 return TransformResult(match(Engine,Text));
111             };
112 
113             MatchHead=func({value}Text)
114             {
115                 return TransformResult(matchhead(Engine,Text));
116             };
117 
118             MatchWhole=func({value}Text)
119             {
120                 return TransformResult(matchwhole(Engine,Text));
121             };
122 
123             return func(Regexp)
124             {
125                 Engine=Regexp;
126             };
127         }();
128     };
129 
130     fixed RegexpPure=class(RegexpBase)
131     {
132         local constructor=func({value}Expression)
133         {
134             base.constructor(regexppure(Expression));
135         };
136     };
137 
138     fixed RegexpSafe=class(RegexpBase)
139     {
140         local constructor=func({value}Expression)
141         {
142             base.constructor(regexpsafe(Expression));
143         };
144     };
145 
146     fixed RegexpGreed=class(RegexpBase)
147     {
148         local constructor=func({value}Expression)
149         {
150             base.constructor(regexpgreed(Expression));
151         };
152     };
153 
154     fixed LexerToken=class()
155     {
156         local Data=null;
157         local Position=-1;
158         local Text="";
159     };
160 
161     fixed Lexer=class()
162     {
163         local Add=null;
164         local Initialize=null;
165         local Parse=null;
166 
167         local constructor=func()
168         {
169             local DataMap=Map.new();
170             local Engine=lexercreate();
171 
172             local TransformResult=func(Item)
173             {
174                 local Result=LexerToken.new();
175                 Result.Position=Item.Position;
176                 Result.Text=Item.Text;
177                 if(Item.Type!=-1)
178                     Result.Data=DataMap[Item.Type];
179                 return Result;
180             };
181 
182             Add=func({value}Expression,Data)
183             {
184                 DataMap.Add(lexeradd(Engine,Expression),Data);
185             };
186 
187             Initialize=func()
188             {
189                 lexerbuild(Engine);
190             };
191 
192             Parse=func({value}Text)
193             {
194                 return ReadonlyList.new(lexerparse(Engine,Text)).Map(TransformResult);
195             };
196 
197             return func()
198             {
199             };
200         }();
201     };
202 
203     fixed Syner=class()
204     {
205         local SetDiscard=null;        /*設置詞法分析后需要刪掉的記號類型*/
206         local SetToken=null;        /*設置有效記號*/
207         local SetRule=null;            /*設置推到規則以及綁定該規則的語義處理函數*/
208         local Initialize=null;        /*設置起始非終結符并完成整個分析器的建立*/
209         local IsReady=null;            /*返回是否已經完成分析器的建立*/
210         local Parse=null;            /*分析一個字符串并返回該字符串經過語義處理函數處理的結果*/
211         local SetDefaultError=null;        /*設置一般錯誤拋出的異常*/
212         local SetUnexpectedEndError=null;    /*設置由于表達式不完整導致的錯誤拋出的異常*/
213     
214         constructor=func()
215         {
216             local _IsReady=false;
217             local _Grammar="";
218             local _Processors=[];
219             local _RuleCount=0;
220             local _Analyzer=null;
221     
222             local _TextProcess=func(Text)
223             {
224                 local Result="";
225                 for(c in Text)
226                 {
227                     if(c=="\"")Result=Result++"\\\"";
228                     else             Result=Result++c;
229                 }
230                 return Result;
231             };
232     
233             SetDiscard=func(Regex)
234             {
235                 if(!_IsReady)
236                 {
237                     _Grammar=_Grammar++"discard "++Regex++"\r\n";
238                 }
239             };
240     
241             SetToken=func(Name,Regex)
242             {
243                 if(!_IsReady)
244                 {
245                     _Grammar=_Grammar++Name++"="++Regex++"\r\n";
246                 }
247             };
248     
249             SetRule=func(Name,Rule,Func)
250             {
251                 if(!_IsReady)
252                 {
253                     local NonTerminator=Name++"._"++_RuleCount;
254                     _RuleCount=_RuleCount+1;
255                     _Grammar=_Grammar++NonTerminator++"->"++Rule++"\r\n";
256                     _Processors[#_Processors:0]=[[NonTerminator,Func]];
257                 }
258             };
259     
260             Initialize=func(NonTerminator)
261             {
262                 if(!_IsReady)
263                 {
264                     _Grammar=_Grammar++"init "++NonTerminator;
265                     _Analyzer=buildsyner(_Grammar,_Processors);
266                     _IsReady=true;
267                 }
268             };
269     
270             IsReady=func()
271             {
272                 return _IsReady;
273             };
274     
275             Parse=func(Text)
276             {
277                 return runsyner(_Analyzer,Text);
278             };
279     
280             SetDefaultError=func(Text)
281             {
282                 if(!_IsReady)
283                 {
284                     _Grammar=_Grammar++"default \""++_TextProcess(Text)++"\"\r\n";
285                 }
286             };
287     
288             SetUnexpectedEndError=func(Text)
289             {
290                 if(!_IsReady)
291                 {
292                     _Grammar=_Grammar++"end \""++_TextProcess(Text)++"\"\r\n";
293                 }
294             };
295         };
296     };
297 };
posted on 2008-05-19 00:56 陳梓瀚(vczh) 閱讀(1650) 評論(4)  編輯 收藏 引用 所屬分類: Vczh Free Script

評論:
# re: Vczh Free Script 2.0的Syngram庫完成 2008-05-19 01:56 | foxtail
感覺你大腦里有一張很全面的網絡  回復  更多評論
  
# re: Vczh Free Script 2.0的Syngram庫完成 2008-05-19 06:29 | 陳梓瀚(vczh)
我自己做的東西,我當然清楚了。  回復  更多評論
  
# re: Vczh Free Script 2.0的Syngram庫完成 2008-05-19 07:56 | 空明流轉
你這個代碼帖的也是邪門.  回復  更多評論
  
# re: Vczh Free Script 2.0的Syngram庫完成[未登錄] 2008-05-19 09:20 | Alex
不錯不錯,支持一下  回復  更多評論
  
青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品
  • <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            亚洲国产欧美一区| 亚洲欧美区自拍先锋| 久久精品伊人| 欧美国产日韩xxxxx| 欧美激情一区二区三区成人| 先锋影音国产一区| 亚洲第一狼人社区| 欧美日韩在线免费| 久久天天躁狠狠躁夜夜av| 国产视频精品xxxx| 久久国产成人| 久久久久91| 亚洲欧美bt| 欧美一区二区三区在线播放| 91久久夜色精品国产九色| 国产精品爱久久久久久久| 欧美一区午夜视频在线观看| 夜夜狂射影院欧美极品| 欧美一区二区三区四区在线观看| 国产精品久久久久9999吃药| 亚洲尤物影院| 午夜一区二区三区在线观看| 久久免费黄色| 午夜久久资源| 欧美综合国产| 亚洲视频专区在线| 国产精品黄视频| 亚洲永久精品大片| 最新高清无码专区| 亚洲一级片在线观看| 亚洲国产精品成人精品| 国产在线精品自拍| 欧美激情第4页| 久久国产精品免费一区| 亚洲字幕一区二区| 亚洲免费精彩视频| 欧美国产日韩一区二区三区| 一本色道久久精品| 亚洲欧美另类综合偷拍| 亚洲一区二区在线播放| 麻豆精品精华液| 亚洲视频电影图片偷拍一区| 国产色综合天天综合网| 欧美日韩另类视频| 欧美国产视频在线| 国产精品播放| 亚洲国产老妈| 欧美在线综合| 欧美在线一区二区三区| 亚洲激情视频在线| 日韩视频久久| 欧美一区二区免费视频| 亚洲免费黄色| 久久国产精品72免费观看| 久久久不卡网国产精品一区| 国产精品高潮在线| 狠狠干综合网| 欧美一区二区三区免费观看视频 | 久久成人羞羞网站| 久久亚洲春色中文字幕| 欧美色道久久88综合亚洲精品| 国产一区二区三区观看| 亚洲免费综合| 久久久久久**毛片大全| 亚洲国产精品尤物yw在线观看| 日韩亚洲欧美一区二区三区| 久久综合九色综合欧美狠狠| 国产精品美女在线| 亚洲欧美另类久久久精品2019| 久久久精彩视频| 日韩一级精品视频在线观看| 欧美性大战xxxxx久久久| 日韩亚洲不卡在线| 欧美成人嫩草网站| 一本久久a久久免费精品不卡| 久久久久在线观看| 亚洲欧美一区在线| 久久久久国产一区二区三区四区 | 午夜视频久久久久久| 国产精品久久久久久久久免费樱桃| 亚洲免费电影在线观看| 亚洲欧美日韩一区| 欧美手机在线| 亚洲一区二区三区午夜| 亚洲精品在线视频观看| 久久婷婷久久| 亚洲综合视频一区| 久久嫩草精品久久久精品一| 亚洲视频免费观看| av不卡在线观看| 在线看片第一页欧美| 美女国内精品自产拍在线播放| 亚洲作爱视频| 亚洲午夜国产一区99re久久| 永久免费精品影视网站| 亚洲最黄网站| 亚洲国产日韩一区| 欧美一级大片在线观看| 欧美一级淫片aaaaaaa视频| 欧美国产一区二区| 亚洲愉拍自拍另类高清精品| 国产日韩精品在线播放| 久久精品国产精品亚洲| 欧美在线不卡视频| 久久在线免费观看| 久久久久久久性| 日韩一区二区精品视频| 亚洲一区二区三区视频播放| 夜夜嗨一区二区| 欧美午夜剧场| 亚洲伊人伊色伊影伊综合网| 久久亚洲风情| 亚洲黄色在线| 国产日韩欧美一区| 性色一区二区| 久久久青草婷婷精品综合日韩| 久久精品99国产精品日本| 亚洲视频国产视频| 国产午夜精品理论片a级大结局 | 亚洲最新视频在线| 久久精品国产一区二区三| 欧美高清视频www夜色资源网| 国产精品欧美日韩一区| 欧美一区国产在线| 久久五月激情| 午夜精品免费在线| 亚洲国产裸拍裸体视频在线观看乱了 | 欧美一区二区三区免费大片| 欧美精品aa| 西瓜成人精品人成网站| 亚洲精品欧美| 亚洲视频你懂的| 国产欧美日韩在线| 欧美性久久久| 欧美日韩福利| 亚洲午夜高清视频| 99热精品在线| 一区一区视频| 国产亚洲第一区| 亚洲第一狼人社区| 国产日韩欧美在线一区| 欧美成人自拍视频| 欧美国产丝袜视频| 国产欧美日韩综合一区在线播放 | 狠狠入ady亚洲精品| 欧美人成在线| 一本色道久久综合亚洲精品高清| 国产一区二区成人| 国产精品视频yy9099| 国产亚洲精品一区二区| 国产日韩专区| 欧美日韩福利视频| 韩日精品视频一区| 国产精品高精视频免费| 久久久久久网址| 国产亚洲成年网址在线观看| ●精品国产综合乱码久久久久| 亚洲午夜日本在线观看| 欧美高清视频在线| 午夜免费电影一区在线观看| 亚洲一二三区在线观看| 午夜影视日本亚洲欧洲精品| 久久国产88| 欧美午夜精品久久久久久超碰| 国产精品久久久久久久久免费樱桃| 欧美不卡视频一区发布| 欧美日韩精品免费看| 日韩亚洲欧美中文三级| 久久视频精品在线| 亚洲精选久久| 欧美多人爱爱视频网站| 国产免费成人av| 一区福利视频| 亚洲欧洲视频在线| 亚洲国产欧美一区二区三区同亚洲 | 在线成人国产| 亚洲影视九九影院在线观看| 久久综合色天天久久综合图片| 欧美成熟视频| 欧美福利视频一区| 日韩视频精品在线| 久久精品视频在线播放| 亚洲欧美一区二区三区久久| 国内一区二区三区| 猛干欧美女孩| 欧美精品一区二区三区视频| 亚洲欧美中文日韩v在线观看| 亚洲区第一页| 国产精品久久久久久av下载红粉 | 午夜宅男欧美| 国产精品一区二区三区久久久| 久久精品91久久久久久再现| 美女视频一区免费观看| 性视频1819p久久| 欧美人与禽猛交乱配| 免费亚洲电影在线观看| 欧美日韩免费高清| 欧美在线视频一区| 欧美精品在线网站| 欧美在线不卡|