青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品

woaidongmao

文章均收錄自他人博客,但不喜標題前加-[轉貼],因其丑陋,見諒!~
隨筆 - 1469, 文章 - 0, 評論 - 661, 引用 - 0
數據加載中……

C++的詞法分析器

 

[lexical_analyzer.h]

#ifndef LEXICAL_ANALYZER_H
#define LEXICAL_ANALYZER_H

enum lexical_status
{
    status_success,
    status_eof,
    status_invalid_char,
    status_unknown = -1,
};

enum token_category
{
    token_error,
    token_keyword,
    token_identifier,
    token_number,
    token_char,
    token_string,
    token_operator,
    token_punctuator,
};

struct token
{

    token_category category;
    std::string value;
};

class lexical_analyzer
{
public:
    explicit lexical_analyzer(std::istream& ifs);
    lexical_status get_token(token& t);
    int current_line() const;
private:
    bool filter_space();
    bool filter_comment();
    std::string get_hex_string();
    std::string get_digital_string();
    std::string get_string(char delimiter);
    bool is_keyword(const std::string& str);
    int get_char();
    int peek_char();
    void putback(char ch);
    void skip_char();
private:
    std::istream* m_pstream;
    int m_line;
};

inline lexical_analyzer::lexical_analyzer(std::istream& ifs)
    :m_pstream(&ifs), m_line(1)
{
}

inline int lexical_analyzer::current_line() const
{
    return m_line;
}

inline int lexical_analyzer::peek_char()
{
    return m_pstream->peek();
}

inline void lexical_analyzer::skip_char()
{
    get_char();
}

#endif//LEXICAL_ANALYZER_H




[lexical_analyzer.cpp]


#include <fstream>
#include "lexical_analyzer.h"

int lexical_analyzer::get_char()
{
    int ch = m_pstream->get();
    if (ch=='\n')
        ++m_line;
    return ch;
}

void lexical_analyzer::putback(char ch)
{
    if (ch=='\n')
        --m_line;
    m_pstream->putback(ch);
}

bool lexical_analyzer::filter_space()
{
    bool result = false;
    char ch = peek_char();
    if (isspace(ch))
    {
        do
        {
            skip_char();
            ch = peek_char();
        }
        while (isspace(ch));
        return true;
    }
    return false;
}

bool lexical_analyzer::filter_comment()
{
    if(peek_char()=='/')
    {
        skip_char();
        char ch = get_char();
        if(ch=='/')
        {
            while(peek_char()!='\n')
            {
                skip_char();
            }
        }
        else if(ch=='*')
        {
            for(;;)
            {
                if(get_char()=='*' && get_char()=='/')
                    break;
            }
        }
        else
        {
            putback('/');
            return false;
        }
        return true;
    }
    else
    {
        return false;
    }
}

bool lexical_analyzer::is_keyword(const std::string& str)
{
    static const char* const keywords[]=
    {
        "asm",      "auto",         "bad_cast",     "bad_typeid",
        "bool",     "break",        "case",         "catch",
        "char",     "class",        "const",        "const_cast",
        "continue", "default",      "delete",       "do",
        "double",   "dynamic_cast", "else",         "enum",
        "except",   "explicit",     "extern",       "false",
        "finally",  "float",        "for",          "friend",
        "goto",     "if",           "inline",       "int",
        "long",     "mutable",      "namespace",    "new",
        "operator", "private",      "protected",    "public",
        "register", "reinterpret_cast",     "return",   "short",
        "signed",   "sizeof",       "static",       "static_cast",
        "struct",   "switch",       "template",     "this",
        "throw",    "true",         "try",          "typedef",
        "typeid",   "typename",     "union",        "unsigned",
        "using",    "virtual",      "void",         "volatile",
        "while", 
    };

    for(int i=0; i<sizeof(keywords)/sizeof(keywords[0]); i++)
    {
        if(str.compare(keywords[i])==0)
            return true;
    }

    return false;
}

std::string lexical_analyzer::get_string(char delimiter)
{
    std::string result;
    for(;;)
    {
        char ch = get_char();
        if(ch==delimiter)
            break;
        else if(ch=='\\')
        {
            ch = get_char();
            switch(ch)
            {
            case '\"':
                ch = '\"';
                break;
            case '\'':
                ch = '\'';
                break;
            case 'r':
                ch = '\r';
                break;

            case 'n':
                ch = '\n';
                break;
            case 'v':
                ch = '\v';
                break;
            case 't':
                ch = '\t';
                break;
            case 'a':
                ch = '\a';
                break;
            case 'b':
                ch = '\b';
                break;
            case 'f':
                ch = '\f';
                break;
            case '\r':                          // line splice
            case '\n':
                continue;
                break;
            default:
                break;
            }

            if(ch=='x' || ch=='X')
            {
                std::string s = get_hex_string();
                int x = 0;
                for(int i=0; i<s.length(); i++)
                {
                    x *= 16;
                    if(s[i]>='A' && s[i]<='F')
                        x += s[i]-'A' + 10;
                    else if(s[i]>='a' && s[i]<='f')
                        x += s[i]-'a' + 10;
                    else
                        x += s[i]-'0';
                }
                ch = (char)x;
            }

        }

        result += ch;
    }

    return result;
}

std::string lexical_analyzer::get_digital_string()
{
    std::string result;
    char ch;
    while(isdigit(ch=get_char()))
    {
        result += ch;
    }
    putback(ch);

    return result;
}

std::string lexical_analyzer::get_hex_string()
{
    std::string result;
    char ch;
    while(isxdigit(ch=get_char()))
    {
        result += ch;
    }
    putback(ch);

    return result;
}

lexical_status lexical_analyzer::get_token(token& t)
{
    if(m_pstream->eof())
        return status_eof;


    while(filter_space() || filter_comment())
    {
    }
    while(filter_comment() || filter_space())
    {
    }

    if(m_pstream->eof())
        return status_eof;

    t.value.resize(0);

    char ch = get_char();
    if(ch=='_' || isalpha(ch) || isdigit(ch) || ch=='$')
    {
        t.category = token_identifier;
        do
        {
            t.value += ch;
            ch = get_char();
        }while(ch=='_' || isalpha(ch) || isdigit(ch) || ch=='$');
        putback(ch);
    }
    else if(isdigit(ch))
    {
        t.category = token_number;
        t.value += ch;
        ch = get_char();
        if(ch=='x' || ch=='X')
        {
            t.value += ch;
            t.value += get_hex_string();
        }
        else if(isdigit(ch))
        {
            t.value += ch;
            t.value += get_digital_string();
        }
    }
    else if(ch=='\"')
    {
        t.category = token_string;
        t.value = get_string('\"');
    }
    else if(ch=='\'')
    {
        t.category = token_char;
        t.value = get_string('\'');
    }
    else
    {
        t.category = token_operator;
        if(ch=='=' || ch=='&' || ch=='|' || ch==':')
        {
            t.value = ch;
            if(peek_char()==ch)
            {
                t.value += ch;
                skip_char();
            }
        }
        else if(ch=='+' || ch=='-')
        {
            t.value = ch;
            char cc = get_char();
            if(cc==ch)
            {
                t.value += ch;
            }
            else if(cc=='=')
            {
                t.value += '=';
            }
            else if(ch=='-' && cc=='>')
            {
                t.value += '>';                         // ->
                cc = peek_char();
                if(cc=='*')
                {
                    skip_char();

                    t.value += '*';                     // ->*
                }
            }
            else
            {
                putback(cc);
            }
        }
        else if(ch=='*' || ch=='/' || ch=='%' || ch=='^' || ch=='!')
        {

            t.value = ch;
            ch = peek_char();
            if(ch=='=')
            {
                t.value+='=';
                skip_char();
            }
        }
        else if(ch=='<' || ch=='>')
        {
            t.value = ch;
            char cc = get_char();
            if(ch==cc)                              // << >>
            {
                t.value += cc;
                cc = peek_char();
                if(cc=='=')                         // <<= >>=
                {
                    skip_char();
                    t.value += '=';
                }
            }
            else if(cc=='=')
            {
                t.value += '=';
            }
            else
            {
                putback(cc);
            }
        }
        else if(ch=='.')
        {
            t.value = '.';                          // .
            ch = get_char();
            if(ch=='*')
            {
                t.value += '*';                     // .*
            }
            else if(ch=='.')
            {
                char cc = get_char();
                if(cc=='.')                         // ...
                {
                    t.value += "..";
                }
                else
                {
                    putback(cc);
                    putback(ch);
                }
            }
            else
            {
                putback(ch);
            }
        }
        else if(ch=='~' || ch =='?' ||
            ch=='[' || ch==']' ||
            ch=='(' || ch==')'
            )
        {
            t.value = ch;
        }
        else if(ch==';' || ch=='{'|| ch=='}'|| ch==','|| ch=='#' )
        {
            t.category = token_punctuator;
            t.value = ch;
        }
        else if(ch=='\\')
        {
            ch = peek_char();
            if(ch=='\r' || ch=='\n')
            {
                skip_char();
            }
            else
            {
                t.category = token_error;
                t.value = ch;
            }
        }
        else
        {
            t.category = token_error;
            t.value = ch;
            return status_invalid_char;
        }
    }

    if(t.category == token_identifier && is_keyword(t.value))
    {
        t.category = token_keyword;
    }

    return status_success;
}



[main.c], 測試程序
#include <fstream>
#include <string>
#include <iostream>

#include "lexical_analyzer.h"

int main()
{
    std::ifstream ifs("D:\\ThreadFuncs.cpp", std::ios::in | std::ios::binary);
    lexical_analyzer lex(std::cin);
    //lexical_analyzer lex(ifs);
    std::ofstream ofs("D:\\out.cpp");
    //std::ostream& os = ofs;
    std::ostream& os = std::cout;
    token t;
    lexical_status status;
    while((status=lex.get_token(t))!=status_eof)
    {
        if(status==status_success)
            os << t.value << '\n';
        else if(status==status_invalid_char)
            std::cerr << "Line:" << lex.current_line() << "invalid_char: " << t.value << '\n';
    }
    return 0;
}

posted on 2008-05-17 00:09 肥仔 閱讀(1165) 評論(0)  編輯 收藏 引用 所屬分類: LEX & YACC

青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品
  • <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            亚洲一区二区精品在线| 亚洲第一色在线| 国产精品成人aaaaa网站| 国产精品久久久久久av下载红粉 | 国产精品国产三级国产aⅴ入口 | 国产精品你懂的在线欣赏| 在线精品观看| 亚洲宅男天堂在线观看无病毒| 久久久视频精品| 9色精品在线| 看片网站欧美日韩| 伊人久久综合97精品| 亚洲综合色激情五月| 免费视频亚洲| 亚洲免费视频观看| 欧美欧美午夜aⅴ在线观看| 精品999在线播放| 国产精品国色综合久久| 亚洲色在线视频| 亚洲国产精品欧美一二99| 亚洲欧美美女| 欧美三级黄美女| 亚洲日本理论电影| 亚洲特级片在线| 亚洲久久在线| 另类尿喷潮videofree | 亚洲视频视频在线| 91久久在线播放| 欧美xx69| 亚洲另类视频| 欧美成人免费在线视频| 欧美a级一区| 亚洲电影激情视频网站| 美女露胸一区二区三区| 欧美国产精品v| 亚洲一区二区黄色| 久久精品123| 99re6热只有精品免费观看| 亚洲少妇最新在线视频| 欧美一区二区日韩| 亚洲欧美国内爽妇网| 国产一区二区黄| 欧美mv日韩mv国产网站app| 欧美激情久久久久| 亚洲欧美一区在线| 老色鬼精品视频在线观看播放| 亚洲精品亚洲人成人网| 亚洲视屏在线播放| 雨宫琴音一区二区在线| 日韩午夜精品视频| 国产香蕉97碰碰久久人人| 亚洲高清一区二区三区| 国产精品亚洲片夜色在线| 男女视频一区二区| 国产精品视频你懂的| 亚洲第一天堂av| 国产精品视频成人| 亚洲电影免费在线观看| 国产一区二区三区黄视频| 亚洲精品乱码久久久久久按摩观| 国产一区二区三区四区在线观看| 亚洲美女视频在线观看| 在线不卡中文字幕播放| 亚洲一区免费观看| 日韩视频一区| 久久日韩精品| 久久国产精品久久久久久久久久| 欧美另类在线观看| 欧美国产日韩一区二区| 国产丝袜一区二区| 亚洲午夜一区二区三区| 99视频精品| 美女在线一区二区| 久久久久久网| 国产视频不卡| 亚洲一区二区三区精品在线 | 亚洲影院免费| 欧美国产日韩一区| 欧美成人在线免费视频| 国内精品久久久久伊人av| 亚洲主播在线播放| 亚洲永久精品国产| 欧美日韩亚洲综合一区| 麻豆精品视频在线| 国语自产精品视频在线看| 午夜亚洲一区| 欧美自拍丝袜亚洲| 国产欧美91| 亚洲欧美在线高清| 午夜视频在线观看一区二区三区 | 一本色道久久综合亚洲精品按摩| 六月婷婷久久| 欧美不卡在线视频| 亚洲成色www久久网站| 久久久久久9| 久久伊伊香蕉| 在线观看亚洲精品视频| 久久频这里精品99香蕉| 免费久久99精品国产自在现线| 激情视频一区二区| 久久一区二区三区四区| 欧美成黄导航| 日韩视频中文字幕| 亚洲国产精品成人综合| 国产精品激情av在线播放| 一区二区三区 在线观看视| 亚洲一区二区在线| 国产精品第一页第二页第三页| 亚洲天堂偷拍| 久久精品一区四区| 狠久久av成人天堂| 欧美大尺度在线| 日韩性生活视频| 午夜在线一区| 黄色精品网站| 欧美国产日韩精品| 亚洲深夜福利| 久久久久网站| 亚洲人成绝费网站色www| 欧美日韩小视频| 性久久久久久久久久久久| 欧美+亚洲+精品+三区| 99一区二区| 国产亚洲精品aa午夜观看| 美女精品在线| 亚洲欧美高清| 免费亚洲电影在线| 亚洲午夜小视频| 黄色成人av网站| 欧美日韩精品免费看| 亚洲欧美中文日韩v在线观看| 欧美成人资源网| 亚洲欧美精品在线| 亚洲福利视频二区| 国产精品毛片va一区二区三区 | 亚洲激情成人网| 国产精品电影网站| 久久尤物视频| 亚洲综合日韩在线| 亚洲国产日韩欧美| 久久国产直播| 亚洲深夜福利网站| 亚洲国产精品小视频| 国产精品亚洲а∨天堂免在线| 巨乳诱惑日韩免费av| 亚洲欧美日韩综合一区| 亚洲精品欧美极品| 久久亚洲精品一区二区| 99国产精品久久久久久久久久| 国产一级揄自揄精品视频| 欧美日韩免费在线观看| 久久久久久久久久看片| 亚洲一区二区三区中文字幕| 亚洲人成毛片在线播放女女| 久久亚洲精品网站| 欧美一级精品大片| 亚洲视频一区二区| 99国产精品99久久久久久粉嫩| 亚洲电影毛片| 国产一区久久久| 国产精品欧美激情| 欧美日韩一区二区在线| 欧美国产欧美亚洲国产日韩mv天天看完整 | 欧美一区二区日韩| 亚洲一区图片| 夜夜嗨av一区二区三区四区 | 欧美刺激午夜性久久久久久久| 久久国产精品99国产| 亚洲影院免费| 亚洲网站在线| 这里只有视频精品| 99这里只有精品| 久久九九99视频| 日韩一区二区精品葵司在线| 激情综合激情| 国际精品欧美精品| 国产视频一区欧美| 国产午夜精品在线观看| 国产区欧美区日韩区| 国产精品人人爽人人做我的可爱| 欧美三级视频| 国产精品美女主播| 国产精品毛片一区二区三区| 欧美午夜免费影院| 国产精品日韩| 国产亚洲欧美另类中文| 国产一区二区三区自拍| 韩国成人福利片在线播放| 激情欧美一区二区| 亚洲国内精品| 一区二区免费在线视频| 中文av一区二区| 亚洲欧美日韩在线高清直播| 欧美一区在线直播| 麻豆精品传媒视频| 日韩视频在线你懂得| 亚洲欧美日韩精品| 久久久久久久久伊人| 欧美激情一二三区| 国产精品嫩草99av在线|