青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品

woaidongmao

文章均收錄自他人博客,但不喜標題前加-[轉貼],因其丑陋,見諒!~
隨筆 - 1469, 文章 - 0, 評論 - 661, 引用 - 0
數據加載中……

C++的詞法分析器

 

[lexical_analyzer.h]

#ifndef LEXICAL_ANALYZER_H
#define LEXICAL_ANALYZER_H

enum lexical_status
{
    status_success,
    status_eof,
    status_invalid_char,
    status_unknown = -1,
};

enum token_category
{
    token_error,
    token_keyword,
    token_identifier,
    token_number,
    token_char,
    token_string,
    token_operator,
    token_punctuator,
};

struct token
{

    token_category category;
    std::string value;
};

class lexical_analyzer
{
public:
    explicit lexical_analyzer(std::istream& ifs);
    lexical_status get_token(token& t);
    int current_line() const;
private:
    bool filter_space();
    bool filter_comment();
    std::string get_hex_string();
    std::string get_digital_string();
    std::string get_string(char delimiter);
    bool is_keyword(const std::string& str);
    int get_char();
    int peek_char();
    void putback(char ch);
    void skip_char();
private:
    std::istream* m_pstream;
    int m_line;
};

inline lexical_analyzer::lexical_analyzer(std::istream& ifs)
    :m_pstream(&ifs), m_line(1)
{
}

inline int lexical_analyzer::current_line() const
{
    return m_line;
}

inline int lexical_analyzer::peek_char()
{
    return m_pstream->peek();
}

inline void lexical_analyzer::skip_char()
{
    get_char();
}

#endif//LEXICAL_ANALYZER_H




[lexical_analyzer.cpp]


#include <fstream>
#include "lexical_analyzer.h"

int lexical_analyzer::get_char()
{
    int ch = m_pstream->get();
    if (ch=='\n')
        ++m_line;
    return ch;
}

void lexical_analyzer::putback(char ch)
{
    if (ch=='\n')
        --m_line;
    m_pstream->putback(ch);
}

bool lexical_analyzer::filter_space()
{
    bool result = false;
    char ch = peek_char();
    if (isspace(ch))
    {
        do
        {
            skip_char();
            ch = peek_char();
        }
        while (isspace(ch));
        return true;
    }
    return false;
}

bool lexical_analyzer::filter_comment()
{
    if(peek_char()=='/')
    {
        skip_char();
        char ch = get_char();
        if(ch=='/')
        {
            while(peek_char()!='\n')
            {
                skip_char();
            }
        }
        else if(ch=='*')
        {
            for(;;)
            {
                if(get_char()=='*' && get_char()=='/')
                    break;
            }
        }
        else
        {
            putback('/');
            return false;
        }
        return true;
    }
    else
    {
        return false;
    }
}

bool lexical_analyzer::is_keyword(const std::string& str)
{
    static const char* const keywords[]=
    {
        "asm",      "auto",         "bad_cast",     "bad_typeid",
        "bool",     "break",        "case",         "catch",
        "char",     "class",        "const",        "const_cast",
        "continue", "default",      "delete",       "do",
        "double",   "dynamic_cast", "else",         "enum",
        "except",   "explicit",     "extern",       "false",
        "finally",  "float",        "for",          "friend",
        "goto",     "if",           "inline",       "int",
        "long",     "mutable",      "namespace",    "new",
        "operator", "private",      "protected",    "public",
        "register", "reinterpret_cast",     "return",   "short",
        "signed",   "sizeof",       "static",       "static_cast",
        "struct",   "switch",       "template",     "this",
        "throw",    "true",         "try",          "typedef",
        "typeid",   "typename",     "union",        "unsigned",
        "using",    "virtual",      "void",         "volatile",
        "while", 
    };

    for(int i=0; i<sizeof(keywords)/sizeof(keywords[0]); i++)
    {
        if(str.compare(keywords[i])==0)
            return true;
    }

    return false;
}

std::string lexical_analyzer::get_string(char delimiter)
{
    std::string result;
    for(;;)
    {
        char ch = get_char();
        if(ch==delimiter)
            break;
        else if(ch=='\\')
        {
            ch = get_char();
            switch(ch)
            {
            case '\"':
                ch = '\"';
                break;
            case '\'':
                ch = '\'';
                break;
            case 'r':
                ch = '\r';
                break;

            case 'n':
                ch = '\n';
                break;
            case 'v':
                ch = '\v';
                break;
            case 't':
                ch = '\t';
                break;
            case 'a':
                ch = '\a';
                break;
            case 'b':
                ch = '\b';
                break;
            case 'f':
                ch = '\f';
                break;
            case '\r':                          // line splice
            case '\n':
                continue;
                break;
            default:
                break;
            }

            if(ch=='x' || ch=='X')
            {
                std::string s = get_hex_string();
                int x = 0;
                for(int i=0; i<s.length(); i++)
                {
                    x *= 16;
                    if(s[i]>='A' && s[i]<='F')
                        x += s[i]-'A' + 10;
                    else if(s[i]>='a' && s[i]<='f')
                        x += s[i]-'a' + 10;
                    else
                        x += s[i]-'0';
                }
                ch = (char)x;
            }

        }

        result += ch;
    }

    return result;
}

std::string lexical_analyzer::get_digital_string()
{
    std::string result;
    char ch;
    while(isdigit(ch=get_char()))
    {
        result += ch;
    }
    putback(ch);

    return result;
}

std::string lexical_analyzer::get_hex_string()
{
    std::string result;
    char ch;
    while(isxdigit(ch=get_char()))
    {
        result += ch;
    }
    putback(ch);

    return result;
}

lexical_status lexical_analyzer::get_token(token& t)
{
    if(m_pstream->eof())
        return status_eof;


    while(filter_space() || filter_comment())
    {
    }
    while(filter_comment() || filter_space())
    {
    }

    if(m_pstream->eof())
        return status_eof;

    t.value.resize(0);

    char ch = get_char();
    if(ch=='_' || isalpha(ch) || isdigit(ch) || ch=='$')
    {
        t.category = token_identifier;
        do
        {
            t.value += ch;
            ch = get_char();
        }while(ch=='_' || isalpha(ch) || isdigit(ch) || ch=='$');
        putback(ch);
    }
    else if(isdigit(ch))
    {
        t.category = token_number;
        t.value += ch;
        ch = get_char();
        if(ch=='x' || ch=='X')
        {
            t.value += ch;
            t.value += get_hex_string();
        }
        else if(isdigit(ch))
        {
            t.value += ch;
            t.value += get_digital_string();
        }
    }
    else if(ch=='\"')
    {
        t.category = token_string;
        t.value = get_string('\"');
    }
    else if(ch=='\'')
    {
        t.category = token_char;
        t.value = get_string('\'');
    }
    else
    {
        t.category = token_operator;
        if(ch=='=' || ch=='&' || ch=='|' || ch==':')
        {
            t.value = ch;
            if(peek_char()==ch)
            {
                t.value += ch;
                skip_char();
            }
        }
        else if(ch=='+' || ch=='-')
        {
            t.value = ch;
            char cc = get_char();
            if(cc==ch)
            {
                t.value += ch;
            }
            else if(cc=='=')
            {
                t.value += '=';
            }
            else if(ch=='-' && cc=='>')
            {
                t.value += '>';                         // ->
                cc = peek_char();
                if(cc=='*')
                {
                    skip_char();

                    t.value += '*';                     // ->*
                }
            }
            else
            {
                putback(cc);
            }
        }
        else if(ch=='*' || ch=='/' || ch=='%' || ch=='^' || ch=='!')
        {

            t.value = ch;
            ch = peek_char();
            if(ch=='=')
            {
                t.value+='=';
                skip_char();
            }
        }
        else if(ch=='<' || ch=='>')
        {
            t.value = ch;
            char cc = get_char();
            if(ch==cc)                              // << >>
            {
                t.value += cc;
                cc = peek_char();
                if(cc=='=')                         // <<= >>=
                {
                    skip_char();
                    t.value += '=';
                }
            }
            else if(cc=='=')
            {
                t.value += '=';
            }
            else
            {
                putback(cc);
            }
        }
        else if(ch=='.')
        {
            t.value = '.';                          // .
            ch = get_char();
            if(ch=='*')
            {
                t.value += '*';                     // .*
            }
            else if(ch=='.')
            {
                char cc = get_char();
                if(cc=='.')                         // ...
                {
                    t.value += "..";
                }
                else
                {
                    putback(cc);
                    putback(ch);
                }
            }
            else
            {
                putback(ch);
            }
        }
        else if(ch=='~' || ch =='?' ||
            ch=='[' || ch==']' ||
            ch=='(' || ch==')'
            )
        {
            t.value = ch;
        }
        else if(ch==';' || ch=='{'|| ch=='}'|| ch==','|| ch=='#' )
        {
            t.category = token_punctuator;
            t.value = ch;
        }
        else if(ch=='\\')
        {
            ch = peek_char();
            if(ch=='\r' || ch=='\n')
            {
                skip_char();
            }
            else
            {
                t.category = token_error;
                t.value = ch;
            }
        }
        else
        {
            t.category = token_error;
            t.value = ch;
            return status_invalid_char;
        }
    }

    if(t.category == token_identifier && is_keyword(t.value))
    {
        t.category = token_keyword;
    }

    return status_success;
}



[main.c], 測試程序
#include <fstream>
#include <string>
#include <iostream>

#include "lexical_analyzer.h"

int main()
{
    std::ifstream ifs("D:\\ThreadFuncs.cpp", std::ios::in | std::ios::binary);
    lexical_analyzer lex(std::cin);
    //lexical_analyzer lex(ifs);
    std::ofstream ofs("D:\\out.cpp");
    //std::ostream& os = ofs;
    std::ostream& os = std::cout;
    token t;
    lexical_status status;
    while((status=lex.get_token(t))!=status_eof)
    {
        if(status==status_success)
            os << t.value << '\n';
        else if(status==status_invalid_char)
            std::cerr << "Line:" << lex.current_line() << "invalid_char: " << t.value << '\n';
    }
    return 0;
}

posted on 2008-05-17 00:09 肥仔 閱讀(1165) 評論(0)  編輯 收藏 引用 所屬分類: LEX & YACC

青青草原综合久久大伊人导航_色综合久久天天综合_日日噜噜夜夜狠狠久久丁香五月_热久久这里只有精品
  • <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>
            日韩视频一区二区在线观看 | 国产精品看片资源| 久久不射网站| 久久九九99| 久久久久女教师免费一区| 欧美一区二区在线看| 欧美在线播放一区| 久久婷婷丁香| 欧美日韩国产一区二区三区地区| 欧美片在线播放| 国产精品女人网站| 一区二区欧美日韩视频| 伊人久久男人天堂| 亚洲国产91色在线| 一区二区三区免费看| 欧美一区观看| 欧美激情国产精品| 亚洲在线视频一区| 免费观看亚洲视频大全| 国产精品成人一区| 亚洲国产你懂的| 亚洲一区影音先锋| 亚洲第一精品久久忘忧草社区| 亚洲国产成人在线播放| 亚洲视频香蕉人妖| 欧美福利视频一区| 国产欧美日韩中文字幕在线| 永久91嫩草亚洲精品人人| 中日韩美女免费视频网址在线观看 | 欧美日韩一区二区三区四区在线观看 | 一区二区三区自拍| 亚洲欧美日本视频在线观看| 老色鬼久久亚洲一区二区| 日韩视频在线观看一区二区| 欧美一区二区私人影院日本 | 久久精品一区四区| 国产精品久久久久免费a∨| 91久久精品一区二区别| 亚洲在线观看视频网站| 亚洲高清免费| 久久这里有精品15一区二区三区| 国产精品久久久久高潮| 亚洲伦理自拍| 亚洲福利视频免费观看| 久久久久久91香蕉国产| 国产亚洲福利社区一区| 亚洲欧美视频| 国内精品久久久久久影视8| 亚洲精品色图| 美女脱光内衣内裤视频久久影院| 中文一区字幕| 欧美日韩精品免费观看| 亚洲欧洲在线一区| 欧美黄色精品| 免费观看一区| 亚洲精选成人| 亚洲欧洲在线一区| 欧美激情久久久| 亚洲精品视频在线看| 国产一区二区在线免费观看| 国产精品白丝jk黑袜喷水| 999在线观看精品免费不卡网站| 久久在线免费观看视频| 欧美一区二区视频在线观看2020 | 亚洲一区二区欧美日韩| 亚洲免费精彩视频| 欧美精品免费看| 一区二区欧美视频| 亚洲手机视频| 国产欧美日韩亚洲一区二区三区| 亚洲一区免费在线观看| 亚洲一区二区欧美日韩| 国产毛片精品国产一区二区三区| 欧美一级久久久久久久大片| 亚洲影院在线| 黄网站色欧美视频| 最新中文字幕一区二区三区| 欧美片第一页| 欧美综合国产| 另类国产ts人妖高潮视频| 亚洲精品在线看| 一本一本久久| 一区二区三区在线高清| 亚洲国产成人tv| 国产精品海角社区在线观看| 欧美在线播放一区| 欧美岛国在线观看| 午夜一级久久| 老司机久久99久久精品播放免费| 亚洲国产三级网| 亚洲视频在线视频| 怡红院精品视频在线观看极品| 亚洲国产精品福利| 欧美午夜一区二区福利视频| 久久久.com| 欧美精品久久一区| 久久久久中文| 欧美日韩成人在线观看| 久久国产精品高清| 欧美日韩第一区日日骚| 久久精品日产第一区二区三区| 久久性天堂网| 欧美在线啊v| 欧美日韩国产综合视频在线观看中文| 欧美在线一级视频| 欧美日韩国产黄| 欧美成人国产va精品日本一级| 欧美色图五月天| 国内精品视频在线播放| 亚洲人成人一区二区三区| 国产一区二区你懂的| 亚洲精品欧美在线| 在线观看国产欧美| 午夜精品久久久久久久蜜桃app | 国内精品美女在线观看| 国产精品视频内| 久久影院午夜论| 国产精品狼人久久影院观看方式| 美女主播一区| 国产丝袜一区二区| 一本大道久久a久久精二百| 亚洲国产你懂的| 久久精品五月婷婷| 久久av资源网| 国产老肥熟一区二区三区| 日韩亚洲欧美成人| 亚洲精品孕妇| 欧美mv日韩mv国产网站app| 久久人人97超碰精品888| 国产精品视频xxxx| 一区二区三区国产| 亚洲一区欧美| 欧美三级电影网| 亚洲日本理论电影| 亚洲久久成人| 欧美国产综合视频| 亚洲国产一区二区在线| 亚洲第一精品夜夜躁人人爽 | 欧美一级专区| 久久国产日韩| 一区二区在线免费观看| 欧美在线视频日韩| 久久婷婷色综合| 亚洲二区免费| 欧美精品日韩www.p站| 日韩视频久久| 欧美一区观看| 亚洲第一网站| 欧美日韩日日夜夜| 午夜精品久久久久久久99水蜜桃| 欧美一级在线亚洲天堂| 国产日韩欧美在线一区| 久久精品72免费观看| 玖玖玖国产精品| 亚洲日本成人| 国产精品高清网站| 欧美一区国产一区| 亚洲国产综合在线| 亚洲欧美综合精品久久成人| 国产精品极品美女粉嫩高清在线| 亚洲一区视频在线| 免费久久99精品国产自在现线| 亚洲国产精选| 国产精品高潮呻吟视频| 久久九九99| 亚洲乱码久久| 久久久久天天天天| 一区二区欧美激情| 黄色精品一区二区| 欧美体内she精视频| 久久精品九九| 99国内精品| 久久中文字幕一区| 在线性视频日韩欧美| 国产欧美在线视频| 欧美成人免费网| 亚洲自拍另类| 亚洲国产va精品久久久不卡综合| 亚洲尤物精选| 亚洲精品日韩在线| 国产一二三精品| 欧美日韩一区国产| 久久久中精品2020中文| 亚洲在线观看免费| 亚洲女同在线| 欧美日韩ab片| 久久黄色级2电影| 日韩一区二区免费高清| 蜜臀久久久99精品久久久久久| 一区二区三区国产| 在线观看欧美激情| 国产精品国产三级国产a| 免费亚洲电影| 久久精品动漫| 亚洲欧美日韩视频一区| 一本不卡影院| 亚洲人成7777| 亚洲国产一区在线观看| 欧美大片免费观看在线观看网站推荐| 亚洲一本大道在线|