统计机器翻译简介.ppt
《统计机器翻译简介.ppt》由会员分享,可在线阅读,更多相关《统计机器翻译简介.ppt(56页珍藏版)》请在三一办公上搜索。
1、2002-12-6,统计机器翻译简介,刘群,2002-12-6,统计机器翻译方法的特点,利用语料库作为知识来源区别于规则方法:无需人工编写规则建立完整的统计模型区别于实例方法或模板方法:必须为整个翻译过程建立统计模型,2002-12-6,统计机器翻译的分类,基于平行概率语法的统计机器翻译模型基于信源信道思想的统计机器翻译模型IBM的Peter Brown等人首先提出目前影响最大几乎成为统计机器翻译的同义词基于最大熵的统计机器翻译模型源于基于特征的自然语言理解Och提出,获ACL2002最佳论文,2002-12-6,统计机器翻译的优缺点,优点无需人工编写规则,利用语料库直接训练得到机器翻译系统;
2、(但可以使用语言资源)系统开发周期短;鲁棒性好;译文质量好;缺点时空开销大;数据稀疏问题严重;对语料库依赖性强;算法研究不成熟。,2002-12-6,基于平行概率语法的统计机器翻译模型,基本思想两种语言建立一套平行的语法规则,规则一一对应两套规则服从同样的概率分布句法分析的过程决定了生成的过程主要模型Alshawi的基于Head Transducer的MT模型吴德恺的Inverse Transduction Grammar(ITG)Takeda的Pattern-based CFG for MT,2002-12-6,Head Transducer MT(1),Head Transducer(中心
3、词转录机)是一种Definite State Automata(有限状态自动机)与一般的有限状态识别器的区别:每一条边上不仅有输入,而且有输出;不是从左至右输入,而是从中心词往两边输入,2002-12-6,Head Transducer MT(2),a:a,0:0,0:0,b:b,a:a,-1:+1,b:b,-1:+1,例子:一个可以将任何a,b组成的串倒置的Head Transducer,2002-12-6,Head Transducer MT(3),所有的语言知识(词典、规则)都表现为Head Transducer;Head Transducer可以嵌套:一个Head Transducer
4、的边是另一个的识别结果;纯统计的训练方法;对齐的结果是依存树:不使用词性和短语类标记;Chart句法分析器。,2002-12-6,Inversion Transduction Grammar(1),比赛星期三开始。The game will start on Wednesday。,2002-12-6,Inversion Transduction Grammar(2),规则形式:A B C A A x/y产生源语言和目标语言串分别为:BC BC:词序相同BC CB:词序交换x y:词典,2002-12-6,Pattern-based CFG for MT(1),每个翻译模板由一个源语言上下文无关
5、规则和一个目标语言上下文无关规则(这两个规则称为翻译模板的骨架),以及对这两个规则的中心词约束和链接约束构成;举例:S:2 NP:1 岁:MP:2 了S:be NP:1 be year:NP:2 old,2002-12-6,Pattern-based CFG for MT(2),中心词约束:对于上下文无关语法规则中右部(子结点)的每个非终结符,可以指定其中心词;对于规则左部(父结点)的非终结符,可以直接指定其中心词,也可以通过使用相同的序号规定其中心词等于其右部的某个非终结符的中心词;链接约束:源语言骨架和目标语言骨架的非终结符子结点通过使用相同的序号建立对应关系,具有对应关系的非终结符互为翻
6、译。,2002-12-6,信源信道模型,假设目标语言文本T是由一段源语言文本S经过某种奇怪的编码得到的,那么翻译的目标就是要将T 还原成S,这也就是就是一个解码的过程。注意,源语言S是噪声信道的输入语言,目标语言T是噪声信道的输出语言,与整个机器翻译系统的源语言和目标语言刚好相反。,2002-12-6,统计机器翻译基本方程式,P.Brown称上式为统计机器翻译基本方程式语言模型:P(S)翻译模型:P(T|S)语言模型反映“S 像一个句子”的程度:流利度翻译模型反映“T像S”的程度:忠实度联合使用两个模型效果好于单独使用翻译模型,因为后者容易导致一些不好的译文。,2002-12-6,语言模型与翻
7、译模型,考虑汉语动词“打”的翻译:有几十种对应的英语词译文:打人,打饭,打鱼,打毛衣,打猎,打草稿,如果直接采用翻译模型,就需要根据上下文建立复杂的上下文条件概率模型如果采用信源信道思想,只要建立简单的翻译模型,可以同样达到目标词语选择的效果:翻译模型:不考虑上下文,只考虑单词之间的翻译概率语言模型:根据单词之间的同现选择最好的译文词,2002-12-6,统计机器翻译的三个问题,三个问题:语言模型P(S)的参数估计翻译模型P(T|S)的参数估计解码(搜索)算法,2002-12-6,语言模型,把一种语言理解成是产生一个句子的随机事件语言模型反映的是一个句子在一种语言中出现的概率语言模型N元语法P
8、(S)=p(s0)*p(s1|s0)*p(Sn|Sn-1Sn-N)链语法:可以处理长距离依赖PCFG(要使用句法标记),2002-12-6,引入隐含变量:对齐A,翻译模型与对齐,P(T|S)的计算转化为P(T,A|S)的估计对齐:建立源语言句子和目标语言句子的词与词之间的对应关系,2002-12-6,IBM Model,对P(T,A|S)的估计IBM Model 1仅考虑词对词的互译概率IBM Model 2加入了词的位置变化的概率IBM Model 3加入了一个词翻译成多个词的概率IBM Model 4IBM Model 5,2002-12-6,IBM Model 3,对于句子中每一个英语单
9、词e,选择一个产出率,其概率为n(|e);对于所有单词的产出率求和得到m-prime;按照下面的方式构造一个新的英语单词串:删除产出率为0的单词,复制产出率为1的单词,复制两遍产出率为2的单词,依此类推;在这m-prime个单词的每一个后面,决定是否插入一个空单词NULL,插入和不插入的概率分别为p1和p0;0为插入的空单词NULL的个数。设m为目前的总单词数:m-prime+0;根据概率表t(f|e),将每一个单词e替换为外文单词f;对于不是由空单词NULL产生的每一个外语单词,根据概率表d(j|i,l,m),赋予一个位置。这里j是法语单词在法语串中的位置,i是产生当前这个法语单词的对应英语
10、单词在英语句子中的位置,l是英语串的长度,m是法语串的长度;如果任何一个目标语言位置被多重登录(含有一个以上单词),则返回失败;给空单词NULL产生的单词赋予一个目标语言位置。这些位置必须是空位置(没有被占用)。任何一个赋值都被认为是等概率的,概率值为1/0。最后,读出法语串,其概率为上述每一步概率的乘积。,2002-12-6,翻译模型的参数训练,Viterbi Training(对比:EM Training)给定初始参数;用已有的参数求最好(Viterbi)的对齐;用得到的对齐重新计算参数;回到第二步,直到收敛为止。IBM Model 1:存在全局最优IBM Model 25:不存在全局最优
11、,初始值取上一个模型训练的结果,2002-12-6,统计机器翻译的解码,借鉴语音识别的搜索算法:堆栈搜索参数空间极大,搜索不能总是保证最优从错误类型看,只有两种:模型错误:概率最大的句子不是正确的句子搜索错误:没有找到概率最大的句子后一类错误只占总错误数的5%(IBM)搜索问题不是瓶颈,2002-12-6,IBM公司的Candide系统 1,基于统计的机器翻译方法分析转换生成中间表示是线性的分析和生成都是可逆的分析(预处理):1.短语切分 2.专名与数词检测3.大小写与拼写校正4.形态分析 5.语言的归一化,2002-12-6,IBM公司的Candide系统 2,转换(解码):基于统计的机器翻
12、译解码分为两个阶段:第一阶段:使用粗糙模型的堆栈搜索输出140个评分最高的译文语言模型:三元语法翻译模型:EM算法第二阶段:使用精细模型的扰动搜索对第一阶段的输出结果先扩充,再重新评分语言模型:链语法翻译模型:最大熵方法,2002-12-6,IBM公司的Candide系统 3,ARPA的测试结果:,2002-12-6,JHU的1999年夏季研讨班,由来IBM的实验引起了广泛的兴趣IBM的实验很难重复:工作量太大目的构造一个统计机器翻译工具(EGYPT)并使它对于研究者来说是可用的(免费传播);在研讨班上用这个工具集构造一个捷克语英语的机器翻译系统;进行基准评价:主观和客观;通过使用形态和句法转
13、录机改进基准测试的结果;在研讨班最后,在一天之内构造一个新语对的翻译器。JHU夏季研讨班大大促进了统计机器翻译的研究,2002-12-6,EGYPT工具包,EGYPT的模块GIZA:这个模块用于从双语语料库中抽取统计知识(参数训练)Decoder:解码器,用于执行具体的翻译过程(在信源信道模型中,“翻译”就是“解码”)Cairo:整个翻译系统的可视化界面,用于管理所有的参数、查看双语语料库对齐的过程和翻译模型的解码过程Whittle:语料库预处理工具EGYPT可在网上免费下载,成为SMT的基准,2002-12-6,EGYPT工具包的性能,“当解码器的原形系统在研讨班上完成时,我们很高兴并惊异于
14、其速度和性能。1990年代早期在IBM公司举行的DARPA机器翻译评价时,我们曾经预计只有很短(10个词左右)的句子才可以用统计方法进行解码,即使那样,每个句子的解码时间也可能是几个小时。在早期IBM的工作过去将近10年后,摩尔定律、更好的编译器以及更加充足的内存和硬盘空间帮助我们构造了一个能够在几秒钟之内对25个单词的句子进行解码的系统。为了确保成功,我们在搜索中使用了相当严格的域值和约束,如下所述。但是,解码器相当有效这个事实为这个方向未来的工作预示了很好的前景,并肯定了IBM的工作的初衷,即强调概率模型比效率更重要。”引自JHU统计机器翻译研讨班的技术报告,2002-12-6,对IBM方
15、法的改进,IBM方法的问题不考虑结构:能否适用于句法结构差别较大的语言?数据稀疏问题严重后续的改进工作王野翊的改进Yamada和Knight的改进Och等人的改进,2002-12-6,王野翊的改进(1),背景:德英口语翻译系统语法结构差异较大数据稀疏(训练数据有限)改进:两个层次的对齐模型粗对齐:短语之间的对齐细对齐:短语内词的对齐,2002-12-6,王野翊的改进(2),文法推导词语聚类:基于互信息的方法短语归并规则学习优点机器翻译的正确率提高:错误率降低了11%提高了整个系统的效率:搜索空间更小缓解了因口语数据缺乏导致的数据稀疏问题,2002-12-6,Yamada和Knight的改进(1
16、),基于语法的翻译模型(Syntax-based TM):输入是源语言句法树输出是目标语言句子翻译的过程:每个内部结点的子结点随机地重新排列:排列概率在每一个结点的左边或右边随机插入一个单词左、右插入和不插入的概率取决于父结点和当前结点标记插入哪个词的概率只与被插入词有关,与位置无关 对于每一个叶结点进行翻译:词对词的翻译概率输出译文句子,2002-12-6,Yamada和Knight的改进(2),2002-12-6,Yamada和Knight的改进(3),2002-12-6,Yamada和Knight的改进(4),2002-12-6,Yamada和Knight的改进(5),训练英日词典例句2
17、121对,平均句长日9.7和英6.9词汇量:英语3463,日语3983,大部分词只出现一次Brills POS Tagger和Collins Parser用中心词词性标记取得短语标记压扁句法树:中心词相同的句法子树合并EM训练20遍迭代:IBM Model 5用20遍迭代,2002-12-6,Yamada和Knight的改进(6),困惑度Perplexity:Our Model:15.70IBM Model:9.84(Over-fitting),结果,2002-12-6,Och等人的改进(1),著名语音翻译系统VerbMobil的一个模块对IBM方法的改进基于类的模型:词语自动聚类:各400个
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 统计 机器翻译 简介
链接地址:https://www.31ppt.com/p-5432363.html