中国科技巨头百度悄悄击败了微软和谷歌

2019年12月31日 0 Comments

据《麻省理工科技评论》(MIT Technology Review)消息, 在本月初一场持续的人工智能竞争中,中国科技巨头百度悄悄击败了微软和谷歌。具体来说, 百度 AI算法ERNIE 在通用语言理解评估测试(General Language Understanding Evaluation,GLUE)上领先其竞争对手。

最大的惊喜是特斯拉大幅提高了自动变道的效率。之前无论是主动打转向变道,还是自动超车变道,目标车道必须拥有三辆车的长度才能完成自动变道。

使用掩码是对自然语言任务进行重大改进背后的核心创新之一,并且是诸如OpenAI著名的GPT-2之类的模型可以撰写极具说服力的散文而又不偏离中心论题的部分原因。

相比之下,BERT一次考虑单词前后的上下文,使其双向。它使用称为“掩码”的技术来执行此操作。在给定的文本段落中,BERT随机隐藏15%的单词,然后尝试从其余单词中进行预测。这使得它可以做出更准确的预测,因为它具有两倍的工作线索。例如,在“男子去___购买牛奶”一句中,句子的开头和结尾都提示了缺失的单词。 ___是您可以去的地方,也是可以购买牛奶的地方。

1、自动雨刷优化,更新自动雨刷逻辑;

百度研究人员开始开发自己的语言模型时,他们希望以掩码技术为基础。但是他们意识到他们需要进行调整以适应中文。在英语中,单词充当语义单元,这意味着完全脱离上下文的单词仍然包含含义。中文字符不能说相同。尽管某些字符确实具有内在含义,例如火、水或木,但大多数字符只有与其他人串在一起才可以。例如,根据匹配,字符灵可以表示聪明(机灵)或灵魂(灵魂)。一旦分开,专有名词中的字符(例如,波士顿或美国)就不是同一件事。

GLUE是AI系统理解人类语言的良好标准。它由九种不同的测试组成,这些测试包括选择句子中的人员和组织的名称以及弄清楚“ it”等代词在存在多个潜在先行词时的含义。因此,在GLUE上得分很高的语言模型可以处理各种阅读理解任务。在满分100分中,此前在 GLUE 测试的平均分为 87。百度现在是第一个凭借其模型ERNIE获得超过90分的团队。

但是BERT改变了这一点。先前的模型学会了仅通过考虑单词之前或之后出现的上下文来预测和解释单词的含义,而不能同时考虑两者。换句话说,它们是单向的。

升级到2019.40系统之后, 只要目标车道有一辆车的安全空间,特斯拉就会自动提速完成变道 ,整个操作更加行云流水。

3、打灯自动变道优化,启动速度更快,成功率更高,体验也更加接近人类驾驶习惯。

地图方面, 新增的指引视图可以在转弯前提供更详细的道路信息,输入你的车牌号,系统导航会根据当地政策,自动绕开临时限行路段。

因此,研究人员在新版本的掩码上对ERNIE进行了培训,该掩码可隐藏字符串而不是单个字符。他们还训练了它以区分有意义的字符串和随机的字符串,从而可以相应地掩盖正确的字符组合。结果,ERNIE对单词如何用中文编码信息有了更深入的了解,并且在预测缺失片段方面更加准确。事实证明,这对于从文本文档进行翻译和信息检索等应用程序非常有用。

研究人员很快发现这种方法实际上实际上也适用于英语。英语中具有类似的单词字符串,这些单词表示的含义与其部分和的总和不同。无法通过将“ Harry Potter”等专有名词和“ chip off the old block”之类的表达式分隔来有意义地解析它们包含的意思。

首先,特斯拉利用大数据和深度学习神经网络, 通过自动驾驶摄像头的实时画面,来决定自动雨刮器的频率 。你每次人工开启雨刮器,都为人工智能算法提供了训练素材。特斯拉会根据你的使用习惯,把自动雨刮器调整最适合你的频率。

2、导航功能新增“车牌限行”和“新视图形式”;

GLUE的公开排行榜在不断变化,另外一支团队很可能很快会超越百度。但值得注意的是,百度的成就说明了AI研究如何从众多贡献者中受益。百度的研究人员必须开发一种专门针对中文的技术来构建ERNIE(代表“知识增强的语义表示模型 ”)。碰巧的是,同样的技术也使它更好地理解英语。

在Transformer的双向编码器表示(BERT)于2018年末创建之前,自然语言模型并不是那么好。他们擅长预测句子中的下一个单词(因此非常适用于自动完成功能),但即使经过一小段时间,他们也无法承受任何思路。这是因为它们不理解含义,例如“它”一词可能指的是什么。