• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            Khan's Notebook GCC/GNU/Linux Delphi/Window Java/Anywhere

            路漫漫,長(zhǎng)修遠(yuǎn),我們不能沒有錢
            隨筆 - 173, 文章 - 0, 評(píng)論 - 257, 引用 - 0
            數(shù)據(jù)加載中……

            linux下播放器設(shè)計(jì)和開發(fā)

            播放器設(shè)計(jì)與開發(fā)  
            轉(zhuǎn)載自http://hi.baidu.com/zhaozequan
            kf701.ye@gmail.com 2008
            本文根據(jù)DawnLightPlayer的開發(fā)經(jīng)驗(yàn)寫成。DawnLithtPlayer是今天3月份開始,和maddrone一起在業(yè)余時(shí)間開發(fā)的一個(gè)跨平臺(tái),多線程的播放器,主要是在Linux下面開發(fā)的,文中所用示例代碼均截自其中。
            DawnLightPlayer目前可以運(yùn)行在Linux和Windows系統(tǒng)上,并使用VC和Python開發(fā)了GUI,支持大部分的音視頻文件格式和網(wǎng)絡(luò)流,另外新增對(duì)CMMB協(xié)議的支持,不支持 RMVB, SWF 等尚未公開協(xié)議的視頻文件格式。
            目錄:
            一. 播放器的流程
               1. 輸入
               2. 解碼
               3. 輸出
            二. 播放器的實(shí)現(xiàn)
               1. 輸入實(shí)現(xiàn)
               2. 解碼線程實(shí)現(xiàn)
               3. 輸出線程實(shí)現(xiàn)
            三. 視頻輸出庫(kù)
               1. SDL (多平臺(tái),支持硬件縮放)
               2. DirectX DirectDraw (win32平臺(tái),支持硬件縮放)
               3. OpenGL (多平臺(tái),支持硬件縮放)
               4. X11 (Linux/Unix)
               5. FrameBuffer (Linux, 無硬件縮放)
            四. 音頻輸出
               1. OSS (Open Sound System for Linux)
               2. ALSA (Advanced Linux Sound Architecture)
               3. DirectSound (WIN32)
            五. 音視頻同步
               1. 以音頻為基準(zhǔn)同步視頻
               2. 以視頻為基準(zhǔn)同步音頻
               3. 同步于一個(gè)外部時(shí)鐘
            六. 截圖
               1. 使用jpeglib保存成jpeg文件
               2. 使用libpng保存成png文件
            七. YUV RGB 軟件轉(zhuǎn)換
            八. 軟件縮放
            一. 播放器的流程
            1. 輸入 : 從文件或網(wǎng)絡(luò)等讀取原數(shù)據(jù),如 x.avi, x.mov, rtsp://xxx, 對(duì)原數(shù)據(jù)進(jìn)行解析,比如文件,首先要分析文件格式,從文件中取得音視頻編碼參數(shù),視頻時(shí)間長(zhǎng)度等信息,然后要從其中取出音頻編碼數(shù)據(jù)和視頻編碼數(shù)據(jù)送到解 碼部分,這里暫稱這種編碼源數(shù)據(jù)塊為 packet。
            2. 解碼 : 初始化時(shí),利用輸入端從源數(shù)據(jù)中取得的信息調(diào)用不同的解碼庫(kù)初始化;然后接收輸入端傳送來的音視頻編碼數(shù)據(jù),分別進(jìn)行音頻解碼和視頻解碼,視頻解碼出來的 數(shù)據(jù)一般是 YUV 或 RGB 數(shù)據(jù),這里暫稱為 picture, 音頻解碼出來的數(shù)據(jù)是采樣數(shù)據(jù),是聲卡可以播放的數(shù)據(jù),這里暫稱為 sample。 解碼所得的數(shù)據(jù)接下來送到輸出部分。
            3. 輸出 : 接收解碼部分送來的 picture 和 sample 并顯示。 視頻顯示一般使用某個(gè)圖形庫(kù),如 SDL, Xlib, DirectDraw, OpengGL, FrameBuffer等, 音頻輸出是把 sample 寫入系統(tǒng)的音頻驅(qū)動(dòng),由音頻驅(qū)動(dòng)送入聲卡播放, 可用的音頻輸出有 ALSA, OSS, SDL, DirectSound, WaveOut等。
            二. 播放器的實(shí)現(xiàn)
            推薦實(shí)現(xiàn)方案
            一個(gè)audio_packet隊(duì)列,一個(gè)video_packet隊(duì)列,一個(gè)picture隊(duì)列,一個(gè)sample隊(duì)列
            一個(gè)input線程,兩個(gè)decode線程,兩個(gè)output線程,一個(gè)UI控制線程
            1. 輸入實(shí)現(xiàn)
            對(duì) 文件的解析,首先要了解文件的格式,文件格式一般稱為文件容器。公開的文件格式,按格式協(xié)議讀取分析就可以了,但像RMVB,SWF這種目前還不公開格式 的文件,就不好辦,也是目前一般播放器的困難。一般的文件格式的解析libavformat庫(kù)已經(jīng)做了,只要使用它就行,下面給出示例代碼段:
            初始化:
            static int avin_file_init(void)
            {
                AVFormatParameters params, *ap = &params;
                err = av_open_input_file( &fmtctx, input_filename, NULL, 0, ap );
                if ( err < 0 )
                {
                    av_log(NULL, AV_LOG_ERROR, "%d: init input from file error\n", __LINE__);
                    print_error( input_filename, err );
                    return -1;
                }
                fmtctx->flags |= AVFMT_FLAG_GENPTS;
                err = av_find_stream_info( fmtctx );
                if ( err < 0 )
                {
                    av_log(NULL, AV_LOG_ERROR, "%d: init input from file error\n", __LINE__);
                    print_error( input_filename, err );
                    return -1;
                }
                if (fmtctx->pb) fmtctx->pb->eof_reached = 0;
                dump_format( fmtctx, 0, input_filename, 0 );
                ....
            }
            讀取packet:
            while( 1 )
            {
                AVPacket *pkt = NULL;
                pkt = av_malloc( sizeof(AVPacket) );
                ret = av_read_frame(fmtctx, pkt);
                
            送出packet到解碼部分:
                可以memcpy, 或用LinkList結(jié)構(gòu)處理,如:
                push_to_video_packet_queue(pkt);
            }
            如果是自己的私有輸入,比如移動(dòng)電視的視頻輸入,代碼如下,部分是偽代碼:
            while( 1 )
            {
                your_parse_code();
                size = your_get_video_data(buf);
                pkt = av_mallocz( sizeof(AVPacket) );
                x = av_new_packet( pkt, vret);
                memcpy( pkt->data, buf, size );
                pkt->pts = your_time;
                push_to_video_packet_queue(pkt);
            }
            2. 解碼線程實(shí)現(xiàn)
            解碼是個(gè)算法大課題,大多只能使用已有的解碼庫(kù),如libavcodec,下面示例代碼:
            while ( 1 )
            {
                AVPicture *picture;
                AVPacket *pkt = pop_from_video_packet_queue();
                AVFrame *frame = avcodec_alloc_frame();
                avcodec_decode_video(video_ctxp, frame, &got_picture, pkt->data, pkt->size);
                if ( got_picture )
                {
                    convert_frame_to_picture( picture, frame );
                    picture->pts = pkt->pts;
                    push_to_picture_queue( picture );
                }
            }
            音頻雷同
            3. 輸出線程實(shí)現(xiàn)
            視 頻輸出要控制FPS,比如25幀每秒的視頻,那么每一幀的顯示時(shí)間要是1/25秒,但把一幀RGB數(shù)據(jù)寫入顯存用不了1/25秒的時(shí)間,那么就要控制,不 能讓25幀的數(shù)據(jù)在0.1或0.2秒的時(shí)間內(nèi)就顯示完了,最簡(jiǎn)單的實(shí)現(xiàn)是在每顯示一幀數(shù)據(jù)后,sleep( 1/fps - 顯示用去的時(shí)間 )。
            音 視頻同步這個(gè)重要的工作也要在輸出線程里完成。以音頻為基準(zhǔn)同步視頻,以視頻為基準(zhǔn)同步音頻,或與一個(gè)外部時(shí)鐘同步,都是可行的方法,但以音頻為基準(zhǔn)同步 視頻是最簡(jiǎn)單也最有效的方法。音頻驅(qū)動(dòng)只要設(shè)置好sample rate, sample size 和 channels 后, write 數(shù)據(jù)就會(huì)以此恒定的速度播放, 如果驅(qū)動(dòng)的輸出 buffer 滿,則 write 就可以等待。
            視頻:
            while( 1 )
            {
                picture = pop_from_picture_queue();
                picture_shot( picture ); /* 截圖 */
                vo->display( picture );
                video_pts = picture->pts;
                sync_with_audio(); /* 同步 */
                control_fps(); /* FPS */
            }
            音頻:
            while( 1 )
            {
                sample = pop_from_sample_queue();
                ao->play( sample );
                now_pts = sample->pts;
            }
            三. 視頻輸出庫(kù)
            1. SDL (多平臺(tái),支持硬件縮放)
            SDL(Simple DirectMedia Layer) is a cross-platform multimedia library designed to provide low level access to audio, keyboard, mouse, joystick, 3D hardware via OpenGL, and 2D video framebuffer.
            其實(shí)SDL就是一個(gè)中間件,它封裝了下層的OpenGL, FrameBuffer, X11, DirectX等給上層提供一個(gè)統(tǒng)一的API接口,使用SDL的優(yōu)點(diǎn)是我們不必再為X11或DirectX分別做個(gè)視頻輸出程序了。
            SDL可以直接顯示YUV數(shù)據(jù)和RGB數(shù)據(jù),一般解碼得到的picture都是YUV420P格式的,不用做YUV2RGB的轉(zhuǎn)換就可以直接顯示,主要代碼如下:
            static int vo_sdl_init(void)
            {
                ....
                screen = SDL_SetVideoMode(ww, wh, 0, flags);
                overlay = SDL_CreateYUVOverlay(dw, dh, SDL_YV12_OVERLAY, screen);
               ....
            }
            static void vo_sdl_display(AVPicture *pict)
            {
                SDL_Rect rect;
                AVPicture p;
                SDL_LockYUVOverlay(overlay);
                p.data[0] = overlay->pixels[0];
                p.data[1] = overlay->pixels[2];
                p.data[2] = overlay->pixels[1];
                p.linesize[0] = overlay->pitches[0];
                p.linesize[1] = overlay->pitches[2];
                p.linesize[2] = overlay->pitches[1];
                vo_sdl_sws( &p, pict ); /* only do memcpy */
                SDL_UnlockYUVOverlay(overlay);
                rect.x = dx;
                rect.y = dy;
                rect.w = dw;
                rect.h = dh;
                SDL_DisplayYUVOverlay(overlay, &rect);
            }
            2. DirectX DirectDraw (win32平臺(tái),支持硬件縮放)
            DirectX是window上使用較多的一種輸出,也支持直接YUV或RGB顯示,示例代碼:
            static int vo_dx_init(void)
            {
                DxCreateWindow();
                DxInitDirectDraw();
                DxCreatePrimarySurface();
                DxCreateOverlay();
                DetectImgFormat();
            }
            static void vo_dx_display(AVPicture *pic)
            {
                vfmt2rgb(my_pic, pic);
                memcpy( g_image, my_pic->data[0], my_pic->linesize[0] * height );
                flip_page();
            }
            3. OpenGL (多平臺(tái),支持硬件縮放)
            OpenGL是3D游戲庫(kù),跨平臺(tái),效率高,支持大多數(shù)的顯示加速,顯示2D RGB數(shù)據(jù)只要使用glDrawPixels函數(shù)就足夠了,同時(shí)禁用一些OpenGL管線操作效率更高,如:
                glDisable( GL_SCISSOR_TEST );
                glDisable( GL_ALPHA_TEST );
                glDisable( GL_DEPTH_TEST );
                glDisable( GL_DITHER );
            4. X11 (Linux/Unix)
            X11 是Unix/Linux系統(tǒng)平臺(tái)上的基本圖形界面庫(kù),像普通的GTK,QT等主要都是建立在X11的基礎(chǔ)之上。但X11的API接口太多,復(fù)雜,很不利于 開發(fā),基本的GUI程序一般都會(huì)使用GTK,QT等,不會(huì)直接調(diào)用X11的API,這里只是為了效率。MPlyaer的libvo里有X11的完整使用代 碼,包括全屏等功能。
            static void vo_x11_display(AVPicture* pic)
            {
                vfmt2rgb( my_pic, pic );
                Ximg->data = my_pic->data[0];
                XPutImage(Xdisplay, Xvowin, Xvogc, Ximg,
                          0, 0, 0, 0, dw, dh);
                XSync(Xdisplay, False);
                XSync(Xdisplay, False);
            }
            5. FrameBuffer (Linux, 無硬件縮放)
            FrameBuffer是Linux內(nèi)核的一部分,提供一個(gè)到顯存的存取地址的map,但沒有任何加速使用。
            static void vo_fb_display(AVPicture *pic)
            {
                int i;
                uint8_t *src, *dst = fbctxp->mem;
                vfmt2rgb( my_pic, pic );
                src = my_pic->data[0];
                for ( i = 0; i < fbctxp->dh; i++ )
                {
                    memcpy( dst, src, fbctxp->dw * (fbctxp->varinfo.bits_per_pixel / 8) );
                    dst += fbctxp->fixinfo.line_length;
                    src += my_pic->linesize[0];
                }
            }
            四. 音頻輸出
            1. OSS (Open Sound System for Linux)
            OSS是Linux下面最簡(jiǎn)單的音頻輸出了,直接write就可以。
            static int ao_oss_init(void)
            {
                int i;
                dsp = open(dsp_dev, O_WRONLY);
                if ( dsp < 0 )
                {
                    av_log(NULL, AV_LOG_ERROR, "open oss: %s\n", strerror(errno));
                    return -1;
                }
                i = sample_rate;
                ioctl (dsp, SNDCTL_DSP_SPEED, &i);
                i = format2oss(sample_fmt);
                ioctl(dsp, SNDCTL_DSP_SETFMT, &i);
                i = channels;
                if ( i > 2 ) i = 2;
                ioctl(dsp, SNDCTL_DSP_CHANNELS, &i);
                return 0;
            }
            static void ao_oss_play(AVSample *s)
            {
                write(dsp, s->data, s->size);
            }
            2. ALSA (Advanced Linux Sound Architecture)
            ALSA做的比較失敗,長(zhǎng)長(zhǎng)的函數(shù)名。
            static void ao_alsa_play(AVSample *s)
            {
                int num_frames = s->size / bytes_per_sample;
                snd_pcm_sframes_t res = 0;
                uint8_t *data = s->data;
                if (!alsa_handle)
                    return ;
                if (num_frames == 0)
                    return ;
            rewrite:
                res = snd_pcm_writei(alsa_handle, data, num_frames);
                if ( res == -EINTR )
                    goto rewrite;
                if ( res < 0 )
                {
                    snd_pcm_prepare(alsa_handle);
                    goto rewrite;
                }
                if ( res < num_frames )
                {
                    data += res * bytes_per_sample;
                    num_frames -= res;
                    goto rewrite;
                }
            }
            3. DirectSound (WIN32)
            MS DirectX的一部分,它的缺點(diǎn)是不如Linux里面的OSS或ALSA那樣,在沒有sample寫入的時(shí)候,自動(dòng) silent,DirectSound在播放過程中,當(dāng)沒有sample數(shù)據(jù)送入輸出線程時(shí),它總是回放最后0.2或0.5秒的數(shù)據(jù)。由于只是最近移植 DawnLightPlayer才使用起Windows,不太了解其機(jī)制。
            static void dsound_play(AVSample *s)
            {
                int wlen, ret, len = s->size;
                uint8_t *data = s->data;
                while ( len > 0 )
                {
                    wlen = dsound_getspace();
                    if ( wlen > len ) wlen = len;
                    ret = write_buffer(data, wlen);
                    data += ret;
                    len -= ret;
                    usleep(10*1000);
                }
            }
            五. 音視頻同步
            1. 以音頻為基準(zhǔn)同步視頻
            視頻輸出線程中如下處理:
                start_time = now();
                ....
                vo->display( picture );
                last_video_pts = picture->pts;
                end_time = now();
                rest_time = end_time - start_time;
                av_diff = last_audio_pts - last_video_pts;
                if ( av_diff > 0.2 )
                {
                    if ( av_diff < 0.5 ) rest_time -= rest_time / 4;
                    else rest_time -= rest_time / 2;
                }
                else if ( av_diff < -0.2)
                {
                    if ( av_diff > -0.5 ) rest_time += rest_time / 4;
                    else rest_time += rest_time / 2;
                }
                if ( rest_time > 0 )
                    usleep(rest_time);
            2. 以視頻為基準(zhǔn)同步音頻
            3. 同步于一個(gè)外部時(shí)鐘
            六. 截圖
            截圖可以在解碼線程做,也可以在輸出線程做,見前面的輸出線程部分。只要在display前把picture保存起來即可。一般加一些編碼,如保存成 PNG 或 JPEG 格式。
            1. 使用jpeglib保存成jpeg文件
            static void draw_jpeg(AVPicture *pic)
            {
                char fname[128];
                struct jpeg_compress_struct cinfo;
                struct jpeg_error_mgr jerr;
                JSAMPROW row_pointer[1];
                int row_stride;
                uint8_t *buffer;
                if ( !po_status )
                    return ;
                vfmt2rgb24(my_pic, pic);
                buffer = my_pic->data[0];
            #ifdef __MINGW32__
                sprintf(fname, "%s\\DLPShot-%d.jpg", get_save_path(), framenum++);
            #else
                sprintf(fname, "%s/DLPShot-%d.jpg", get_save_path(), framenum++);
            #endif
                fp = fopen (fname, "wb");
                if (fp == NULL)
                {
                    av_log(NULL, AV_LOG_ERROR, "fopen %s error\n", fname);
                    return;
                }
                cinfo.err = jpeg_std_error(&jerr);
                jpeg_create_compress(&cinfo);
                jpeg_stdio_dest(&cinfo, fp);
                cinfo.image_width = width;
                cinfo.image_height = height;
                cinfo.input_components = 3;
                cinfo.in_color_space = JCS_RGB;
                jpeg_set_defaults(&cinfo);
                cinfo.write_JFIF_header = TRUE;
                cinfo.JFIF_major_version = 1;
                cinfo.JFIF_minor_version = 2;
                cinfo.density_unit = 1;
                cinfo.X_density = jpeg_dpi * width / width;
                cinfo.Y_density = jpeg_dpi * height / height;
                cinfo.write_Adobe_marker = TRUE;
                jpeg_set_quality(&cinfo, jpeg_quality, jpeg_baseline);
                cinfo.optimize_coding = jpeg_optimize;
                cinfo.smoothing_factor = jpeg_smooth;
                if ( jpeg_progressive_mode )
                {
                    jpeg_simple_progression(&cinfo);
                }
                jpeg_start_compress(&cinfo, TRUE);
                row_stride = width * 3;
                while (cinfo.next_scanline < height)
                {
                    row_pointer[0] = &buffer[cinfo.next_scanline * row_stride];
                    (void)jpeg_write_scanlines(&cinfo, row_pointer, 1);
                }
                jpeg_finish_compress(&cinfo);
                fclose(fp);
                jpeg_destroy_compress(&cinfo);
                return ;
            }
            2. 使用libpng保存成png文件
            static void draw_png(AVPicture *pic)
            {
                int k;
                png_byte *row_pointers[height]; /* GCC C99 */
                if ( init_png() < 0 )
                {
                    av_log(NULL, AV_LOG_ERROR, "draw_png: init png error\n");
                    return ;
                }
                vfmt2rgb24( my_pic, pic );
                for ( k = 0; k < height; k++ )
                    row_pointers[k] = my_pic->data[0] + my_pic->linesize[0] * k;
                png_write_image(png.png_ptr, row_pointers);
                destroy_png();
            }
            七. YUV RGB 轉(zhuǎn)換
            YUV 與RGB的轉(zhuǎn)換和縮放,一般在低端設(shè)備上,要有硬件加速來做,否則CPU吃不消。在如今的高端PC上,可以使用軟件來做,libswscale庫(kù)正為此而 來。libswscale針對(duì)X86 CPU已經(jīng)做了優(yōu)化,如使用 MMX, SSE, 3DNOW 等 CPU 相關(guān)的多媒體指令。
            static int vfmt2rgb(AVPicture *dst, AVPicture *src)
            {
                static struct SwsContext *img_convert_ctx;
                img_convert_ctx = sws_getCachedContext(img_convert_ctx,
                                  width, height, src_pic_fmt,
                                  width, height, my_pic_fmt, SWS_X, NULL, NULL, NULL);
                sws_scale(img_convert_ctx, src->data, src->linesize,
                          0, width, dst->data, dst->linesize);
                return 0;
            }
            比如從 YUV420P 到 RGB24 的轉(zhuǎn)換,只要設(shè)置
            src_pic_fmt = PIX_FMT_YUV420P ;
            my_pic_fmt = PIX_FMT_RGB24 ;
            八. 軟件縮放
            軟件縮放就可以使用上述的 libswscale 庫(kù),調(diào)用代碼基本一樣,只是改一下目標(biāo)picture的width和height,如放大兩倍:
            static int zoom_2(AVPicture *dst, AVPicture *src)
            {
                static struct SwsContext *img_convert_ctx;
                img_convert_ctx = sws_getCachedContext(img_convert_ctx,
                                  width, height, src_pic_fmt,
                                  width*2, height*2, my_pic_fmt, SWS_X, NULL, NULL, NULL);
                sws_scale(img_convert_ctx, src->data, src->linesize,
                          0, width*2, dst->data, dst->linesize);
                return 0;
            }

            posted on 2013-03-24 13:36 Khan 閱讀(2070) 評(píng)論(1)  編輯 收藏 引用 所屬分類: GCC/G++跨平臺(tái)開發(fā)

            評(píng)論

            # re: linux下播放器設(shè)計(jì)和開發(fā)  回復(fù)  更多評(píng)論   

            好東西
            伊人久久大香线蕉成人| 性色欲网站人妻丰满中文久久不卡| 国产91久久综合| 亚洲国产小视频精品久久久三级| 国产毛片欧美毛片久久久| 2021久久国自产拍精品| 色播久久人人爽人人爽人人片aV | 99久久这里只有精品| 日韩欧美亚洲综合久久影院d3| 无码人妻少妇久久中文字幕| 久久午夜无码鲁丝片| 亚洲人AV永久一区二区三区久久| 国产精品女同久久久久电影院| 日产精品久久久久久久| 久久99精品综合国产首页| 国内精品久久久久影院薰衣草| 久久国产免费| 91久久精品国产成人久久| 人妻精品久久久久中文字幕69| 亚洲乱码日产精品a级毛片久久 | 久久青青草原精品国产| 亚洲精品第一综合99久久 | 久久99热这里只频精品6| 国产伊人久久| 观看 国产综合久久久久鬼色 欧美 亚洲 一区二区 | 日韩欧美亚洲综合久久影院Ds| 久久国产精品久久| 久久国产精品成人片免费| 亚洲国产精品久久电影欧美| 热久久国产欧美一区二区精品| 93精91精品国产综合久久香蕉 | 久久久受www免费人成| 亚洲乱亚洲乱淫久久| 99热精品久久只有精品| 国产精品青草久久久久福利99| 欧美777精品久久久久网| 久久精品国产亚洲一区二区| 国产精品久久永久免费| 亚洲国产天堂久久综合网站| 亚洲一本综合久久| 久久久久亚洲AV成人网人人软件 |