發(fā)信人: GzLi (笑梨), 信區(qū): DataMining
標(biāo) 題: [合集]上載了Intro. to SVMs的術(shù)語(yǔ)列表的翻譯
發(fā)信站: 南京大學(xué)小百合站 (Sat May 10 18:51:40 2003)
GzLi (笑梨) 于Sat May 3 12:07:00 2003)
提到:
為了能夠在學(xué)習(xí)SVM的過(guò)程中,有統(tǒng)一中文的說(shuō)法,我嘗試把
Intro. to svms的一本書(shū)中的術(shù)語(yǔ)翻譯了出來(lái),
請(qǐng)感興趣的同仁,能夠抽空看看,大家多提意見(jiàn)。
http://bbs.nju.edu.cn/file/svm.pdf
術(shù)語(yǔ)列表的翻譯,請(qǐng)大家多指正。
email: lgz@sjtu.edu.cn
詳細(xì)如下:
active set methods & 活動(dòng)集方法 \\
adaboost & \\
Adatron & \\
affine function & 仿射函數(shù) \\
ANOVA kernels & \\
& \\
Bayes formula & 貝葉斯公式 \\
bias & 偏置 \\
bioinformatics & 生物信息學(xué) \\
box constraint algorithm & 盒約束算法 \\
& \\
capacity & 容量 \\ % 張學(xué)工的本質(zhì)
capacity control & 容量控制 \\
chunking & 塊 \\
classification & 分類 \\
compression & 壓縮 \\
computational learning theory & 計(jì)算學(xué)習(xí)理論 \\
computer vision & 計(jì)算機(jī)視覺(jué) \\
consistent hypothesis & 一致性假設(shè) \\
constraint & 約束 \\
constraint active and inactive & 活動(dòng)和不活動(dòng)約束 \\
constraint box & 約束盒 \\
constrain equality and inequality & 約束等式和不等式 \\
convex combination & 凸優(yōu)化 \\
convex function & 凸方程 \\
convex null & 凸殼 \\
convex programming & 凸規(guī)劃 \\
convex set & 凸集 \\
convex optimisation problem & 凸優(yōu)化問(wèn)題 \\
covariance matrix & 協(xié)方差矩陣 \\
cover & 覆蓋 \\
covreing number & 覆蓋個(gè)數(shù) \\
& \\
data dependent analysis & 數(shù)據(jù)依賴分析 \\
decision function & 決策函數(shù) \\
decomposition & 分解 \\
dimension fat-shattering & 肥打散維 \\
dimension VC & VC 維 \\
dimension reduction & 維數(shù)約簡(jiǎn) \\
distribution free & 自由分布 \\
dot product & 點(diǎn)積 \\
dual optimisation problem & 對(duì)偶優(yōu)化問(wèn)題 \\
dual problem & 對(duì)偶問(wèn)題 \\
dual variables & 對(duì)偶變量 \\
duality & 對(duì)偶性 \\
duality gap & 對(duì)偶間距 \\
& \\
effective VC dimension & 有效VC維 \\
eigenvalue, eigenvectors & 特征值,特征向量 \\
empirical risk minimisation & 經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化 \\
error of a hypothesis & 假設(shè)的誤差 \\
& \\
fat-shattering dimension & 肥打散維 \\
feasibility gap & 可行間距 \\
feasible region & 可行區(qū)域 \\
features & 特征 \\
flexibility & 彈性 \\
& \\
Gaussian kernel & 高斯核 \\
Gaussian prior & 高斯先驗(yàn)知識(shí) \\
Gaussian process & 高斯過(guò)程 \\
generalisation & 推廣性 \\
gradient ascent & 梯度上升 \\
Gram matrix & Gram 矩陣 \\
growth function & 生長(zhǎng)函數(shù) \\
& \\
hand written digit recognition & 手寫(xiě)數(shù)字識(shí)別 \\
hard margin & 硬間隔 \\
Hilbert space & Hilbert 空間 \\
hinge loss & 鉸鏈損失 \\
hyperplane & 超平面 \\
hyperplane canonical & 規(guī)范超平面 \\
hypothesis space & 假設(shè)空間 \\
& \\
image classification & 圖像分類 \\
implicit mapping & 隱式映射 \\
inner product & 內(nèi)積 \\
input distribution & 輸入分布 \\
insensitive loss & 不敏感損失 \\
insensitive loss function & 不敏感損失函數(shù) \\
& \\
Karush-Kuhn-Tucker(KKT) conditions & KKT條件 \\
kernel & 核 \\
kernel Adatron & 核Adatron \\
kernel making & 核構(gòu)造 \\
kernel matrix & 核矩陣 \\
kernel Mercer & Mercer核 \\
kernel reproducting & 再生核 \\
Krieging & Krieging \\
Kuhn-Tucker theorem & Kuhn-Tucker定理 \\
& \\
Lagrange multipliers & 拉格朗日乘子 \\
Lagrange theorem & 拉格朗日定理 \\
Lagrange theory & 拉格朗日理論 \\
Lagrangian dual problem & 拉格朗日對(duì)偶問(wèn)題 \\
Lagrangian generalised & 廣義拉格朗日理論 \\ % generalised Lagrangian
learning algorithm & 學(xué)習(xí)算法 \\
learning bias & 學(xué)習(xí)偏置 \\
learning machines & 學(xué)習(xí)機(jī)器 \\
learning methodology & 學(xué)習(xí)方法 \\
learning probably approximately correct(pac) & 概率逼近正確學(xué)習(xí) \\
learning rate & 學(xué)習(xí)率 \\
learning theory & 學(xué)習(xí)理論 \\
least squares & 最小二乘 \\
leave-one-out & 留一法 \\
linear learning machines & 線性學(xué)習(xí)機(jī)器 \\
linear Programme & 線性規(guī)劃 \\
linear Programming SVMs & 線性規(guī)劃SVMs \\
linearly separable & 線性可分 \\
Lovelace, Lady & Lovelace女士 \\
luckiness & 幸運(yùn) \\
& \\
margin bounds on generalisation & 推廣性的間隔界 \\
margin distribution & 間隔分布 \\
margin error & 間隔誤差 \\
margin functional & 誤差泛函 \\
margin geometric & 幾何誤差 \\
margin slack variable & 間隔松弛變量 \\
margin soft & 軟間隔 \\
margin soft and hard & 軟硬間隔 \\
matrix positive definite & 正定矩陣 \\
matrix positive half-definite & 半正定矩陣 \\
maximal margin bounds & 最大間隔界 \\
maximal margin classifier & 最大間隔分類器 \\
maximum a posteriori & 最大后驗(yàn)概率 \\
Mercer's conditions & Mercer條件 \\
Mercer's theorem & Mercer定理 \\
Model selection & 模型選擇 \\
multi-class classification & 多類分類 \\
& \\
neural newwork & 神經(jīng)網(wǎng)絡(luò) \\
noisy data & 噪聲數(shù)據(jù) \\
nonseparable & 不可分 \\
Novikoff's theorem & Novikoff定理 \\
& \\
objective dual & 對(duì)偶目標(biāo) \\
objective function & 目標(biāo)函數(shù) \\
on-line learning & 在線學(xué)習(xí) \\
operator linear & 線性算法 \\
operator positive & 正算子 \\
optimisation theory & 優(yōu)化理論 \\
& \\
pac learning & pac 學(xué)習(xí) \\
perceptron & 感知器 \\
primal form & 原始形式 \\
primal problem & 原始問(wèn)題 \\
& \\
quadratic optimisation & 二次優(yōu)化 \\
quadratic programming & 二次規(guī)劃 \\
& \\
recursive kernels & 回歸核 \\
regression & 回歸 \\
reproducing kernel Hilbert space & 再生核Hilbert空間 \\
redge regression & 嶺回歸 \\
risk functional & 風(fēng)險(xiǎn)泛函 \\
& \\
saddle point & 鞍點(diǎn) \\
sample complexity & 樣本復(fù)雜度 \\
sample compression scheme & 樣本壓縮方案 \\
scalar product & 尺度積 \\
sequential minimal optimization(SMO) & 序列最小優(yōu)化 \\
shattering & 打散 \\
Skilling & \\
slack variables & 松弛變量 \\
slack vector & 松弛向量 \\
soft margin algorithm, 1-norm & 一階范數(shù)軟間隔算法 \\
soft margin algorithm, 2-norm & 二階范數(shù)軟間隔算法 \\
soft margin bounds & 軟間隔界 \\
soft margin optimisation & 軟間隔優(yōu)化 \\
sparseness & 稀疏性 \\
statistical learning theory & 統(tǒng)計(jì)學(xué)習(xí)理論 \\
stopping criteria & 停止條件 \\
structural risk minimisation & 結(jié)構(gòu)風(fēng)險(xiǎn)最小 \\
structural risk minimisation data dependent & 數(shù)據(jù)依賴的結(jié)構(gòu)風(fēng)險(xiǎn)最小 \\
supervised learning & 監(jiān)督學(xué)習(xí) \\
Support Vectors Machines & 支持向量機(jī) \\
support vectors & 支持向量 \\
& \\
target function & 目標(biāo)函數(shù) \\
text categorisation & 文本分類 \\
Turing & 圖靈 \\
& \\
uniform convergence & 統(tǒng)一收斂 \\
unsuperviesed learning & 無(wú)監(jiān)督學(xué)習(xí) \\
& \\
value of an optimisation problem & 優(yōu)化問(wèn)題的值 \\
VC dimension & VC維 \\
VC theorem & VC 定理 \\
& \\
Widrow-Hoff algorithm & Widrow-Hoff算法 \\
working set methods & 工作集方法 \\
fpzh (fpzh) 于Sat May 3 15:38:59 2003)
提到:
呵呵,斑竹辛苦了。隔離期滿了沒(méi)有啊,兄弟們都狠掛念你啊
草草看了一下,uniform convergence似乎應(yīng)翻為“一致收斂”,見(jiàn)<統(tǒng)計(jì)學(xué)習(xí)理論的本
質(zhì)>P226,scalar product好像一般翻為“數(shù)積”,和inner product, dot product同
指一個(gè)概念。不知妥否?
txytxy (nils) 于Sun May 4 11:01:29 2003)
提到:
感覺(jué)翻譯后的效果是,這些術(shù)語(yǔ)均需要理解兩偏,英文一遍,中文一遍,特別是中文術(shù)語(yǔ)
憂為拗口,eg.仿射,盒約束,讓人頭大,如果能夠加上通俗易懂的解釋,即便不太準(zhǔn)確,對(duì)
初雪者一定是大功一見(jiàn)。
難道制造學(xué)術(shù)術(shù)語(yǔ)的目的就是讓人覺(jué)得“這是個(gè)神秘世界”嗎?我覺(jué)得,任何東西,如果
不能讓一個(gè)農(nóng)民聽(tīng)懂,它就不是“好”的。經(jīng)管我們需要嚴(yán)謹(jǐn)?shù)乃^“術(shù)語(yǔ)”,但更需要
直觀的行話,因?yàn)槲覀儾⒉皇翘焯於荚趯?xiě)論文。