• <ins id="pjuwb"></ins>
    <blockquote id="pjuwb"><pre id="pjuwb"></pre></blockquote>
    <noscript id="pjuwb"></noscript>
          <sup id="pjuwb"><pre id="pjuwb"></pre></sup>
            <dd id="pjuwb"></dd>
            <abbr id="pjuwb"></abbr>

            O(1) 的小樂

            Job Hunting

            公告

            記錄我的生活和工作。。。
            <2012年11月>
            28293031123
            45678910
            11121314151617
            18192021222324
            2526272829301
            2345678

            統計

            • 隨筆 - 182
            • 文章 - 1
            • 評論 - 41
            • 引用 - 0

            留言簿(10)

            隨筆分類(70)

            隨筆檔案(182)

            文章檔案(1)

            如影隨形

            搜索

            •  

            最新隨筆

            最新評論

            閱讀排行榜

            評論排行榜

            20100906

            1 今天,看了一下avstar的論文。。沒有發現使用foot constraints的方法。。真是崩潰。。

            2 上午上課,矩陣分析與應用。。。。很扯的一節課。。整理了一下課堂講義。。等有時間一起發出來吧。。

            3 晚上聽了一個Convex Optimization的Stanford Course。。。恩,收獲還是挺大的。。。

            4 下午去辦牡丹卡。。

            5 看了一下PCA。。沒搞的太明白。。。明天繼續。。

             

            明日:

            1 論文

            2 PCA

            3 把課程的講義整理一下。。不能白看啊。。

             

            整理的筆記:

            \documentclass[11pt]{article}
            \usepackage{ctex}
            \usepackage{graphicx}
            \usepackage{float}
            \DeclareGraphicsRule{.jpg}{eps}{.bb}{}
            \DeclareGraphicsRule{.png}{eps}{.bb}{}

            \begin{document}

            \title{Matrix Analysis and Application}
            \author{Sosi}
            \maketitle
            \section{Jacobian and Hessian Matrix}
            \begin{enumerate}
            \item Jacobian Matrix\\
            the Jacobian matrix is the matrix of all first-order partial derivatives
            of a vector or scalar-value function with respect to another vector. Suppose
            $F:R^n \rightarrow R^m $is a function from Euclidean n-space to Euclidean m-space.Such a function is given by $m$ real-value component function,$y_1(x_1,...,x_n),...,y_m(x_1,...,x_n)$.The partial derivatives of
            all these functions (if they exit) can be organized in a $m-by-n$matrix,the Jacobian matrix $J$ of $F$,as follows:
            \begin{displaymath}
            \mathbf{X} =
            \left( \begin{array}{ccc}
            x_{11} & x_{12} & \ldots \\
            x_{21} & x_{22} & \dots  \\
            \vdots & \vdots & \ddots
            \end{array} \right)
            \end{displaymath}
            \begin{displaymath}
            \mathbf{J} =
            \left( \begin{array}{ccc}
            \frac{ \partial y_1}{ \partial x_1}
            & \ldots  &
            \frac{{\partial}y_1}{{\partial} x_n} \\ %求導使用的是\prime  偏導使用的是\partial
            \vdots & \ddots &\vdots\\
            \frac{ {\partial} y_m}{ {\partial} x_1}
            & \ldots   &
            \frac{ {\partial} y_m}{ {\partial} x_n}
            \end{array}
            \right)
            \end{displaymath}

            \item Hessian Matrix\\
            in mathematics, the Hessian matrix is the square matrix of second-order
            partial derivatives of a function; that is, it describes the local curvatrue of a function of many variables.The Hessian matrix was developed in the 19th century by the German mathematician Hesse and later named after him.
            \begin{displaymath}
            \mathbf{H(f)} =
            \left( \begin{array}{cccc}
            \frac{ \partial ^2 f}{ \partial x_1^2}
            &
            \frac{ \partial ^2 f}{ \partial x_1 \partial x_2}
            & \ldots  &
            \frac{{\partial}^2 f}{{\partial}x_1 {\partial}x_n} \\ %求導使用的是\prime  偏導使用的是\partial
            \frac{ \partial ^2 f}{ \partial x_2{\partial}x_1}
            &
            \frac{ \partial ^2 f}{ \partial x_2^2 }
            & \ldots  &
            \frac{{\partial}^2 f}{{\partial}x_2 {\partial}x_n} \\
            \vdots &\vdots\ \ddots &\vdots\\
            \frac{ \partial ^2 f}{ \partial x_n{\partial}x_1}
            &
            \frac{ \partial ^2 f}{ \partial x_n \partial x_2}
            & \ldots  &
            \frac{{\partial}^2 f}{{\partial}x_n^2} \\
            \end{array}
            \right)
            \end{displaymath}
            Hessian matrices are used in large-scale optimization problems with Newton-type methods because they are the coefficient of the quadratic term of a local Taylor expansion of a function.That is

            \begin{displaymath}
            y=f(x+\Delta x)\approx f(x)+J(x)\Delta x +\frac{1}{2}\Delta x^TH(x)\Delta x
            \end{displaymath}
            \end{enumerate}

            \section{對稱矩陣性質}
            一種對稱矩陣的定義方法:
            \begin{displaymath}
            Ax=\bigtriangledown f(x)    \\f(x)=\frac{x^TAx}{2}
            \end{displaymath}

            \section{證明}
            有限維線性空間任意兩個極大無關組所含向量個數相同\\
            證明:
            $ (x_1,...,x_n)=(y_1,...,y_m)A $\\
            $(y_1,...,y_m)=(x_1,...,x_n)B$\\
            $(y_1,...,y_m)= (y_1,...,y_m)AB$\\
            $AB=E_n$\\
            $BA=E_m$\\
            $tract(AB)=trace(BA)$\\
            $m=n$\\

            \section{性質}
            過渡矩陣非奇異\\
            A為奇異矩陣的定義是:存在非零n維向量使得$Ax=0$
            \end{document}

            posted on 2010-09-06 22:15 Sosi 閱讀(126) 評論(0)  編輯 收藏 引用

            統計系統
            久久精品国产一区二区三区日韩| 伊人色综合久久天天人手人婷 | 亚洲午夜久久久久久噜噜噜| 国产成人综合久久精品红 | 久久亚洲精品国产精品| 东京热TOKYO综合久久精品 | 国产精品嫩草影院久久| 久久精品国产99国产精品导航| 韩国免费A级毛片久久| 久久精品国产72国产精福利| 亚洲欧美成人综合久久久| 国产成人精品久久| 亚洲中文久久精品无码ww16| 久久久久国产亚洲AV麻豆| AV色综合久久天堂AV色综合在| 青春久久| 久久久久九九精品影院| 777米奇久久最新地址| 人妻久久久一区二区三区| 日韩中文久久| 久久久久久国产精品无码下载| 久久久国产精品亚洲一区| 亚洲精品国精品久久99热| 久久精品国产精品亚洲人人| 精品久久人人爽天天玩人人妻 | 91麻豆精品国产91久久久久久| 亚洲va国产va天堂va久久| 久久久久国产精品人妻| 亚洲国产成人久久综合区| 久久久中文字幕日本| 久久er国产精品免费观看8| 99久久国产综合精品五月天喷水 | 国产精品久久久久久搜索| 久久超碰97人人做人人爱| 中文字幕热久久久久久久| 精品久久久久久中文字幕大豆网 | 日日狠狠久久偷偷色综合0 | 老司机午夜网站国内精品久久久久久久久| 四虎国产永久免费久久| 久久精品无码一区二区三区日韩| 国产女人aaa级久久久级|