Re: [讨论] AI还能够红几年? 以聊天机器人领域来说明

楼主: lion741205 (狮子)   2019-12-09 22:38:37
※ 引述《wang19980531 (中立评论员)》之铭言:
: 虽然现在实验室接到很多公司计画还是和机器学习相关,
: 但其实很多教授都觉得AI在走下去也过不了几年,
: 技术方面已臻成熟,玩不出什么把戏了。
: 不知道业界怎么看呢?
: 未来的发展是量子计算机吗?
虽然CV透过DL取得了重大进展,但在NLP领域,AI仍然处于发展初期,技术谈不上成熟,
以敝人负责的Chatbot领域来说,有个可以参考的例子,自从图灵测试在2014年被聊天机
器人Eugene通过后,加拿大学者改进测试的缺失提出了威诺格拉德架构挑战赛(Winograd
Schema Challenge),也是目前最具权威的AI竞赛。
该竞赛的第一轮是代词消歧问题(Pronoun disambiguation problems)。举例来说,当人
类分析句子时,会用经验来理解指代的对象:
一、市议会拒绝示威者,因为他们害怕暴力。
二、市议会拒绝示威者,因为他们提倡暴力。
而这个选择题只有两个答案,代词"他们"是指"市议会"还是"示威者",AI应该要指出在第
一句说的是市议会,第二句说的是示威者,从问题上可以发现,系统无法透过这段话的上
下文进行理解得到答案,这在实作上必须透过知识图谱(Knowledge Graph)进行推理,要
通过比赛拿到奖金25,000镁,准确率(Accuracy)必须达到90%以上,但目前最好的成绩只
有58%,远比人类低得多。
除了上述根本影响Chatbot问答品质的问题,还有几个难题仍未被突破:
一、为了整合语音辨识、词法分析、句法分析、语意分析、深度学习,答案搜寻,对话管
理、自然语言生成和语音合成等模组,确保其相容性,以及敝司过去欠下近十年的技术债
,当前Chatbot架构与模型相当复杂,管理较为困难,如何研发通用的架构与模型,是未来
所有同业的发展目标。
二、情感分析(Sentiment Analysis)可以让Chatbot与人交互时更有温度,是目前产学
界热门研究方向。
三、现在的Chatbot只能做好特定领域的工作,如何建构开放领域的知识,甚至不需要人
工建构知识,让机器自学习,也是产学界正在努力的方向。
四、端对端(End to end)系统的建立,不经过传统的模组串联,利用DL建立端对端的简洁
模型;达到输入原始资料后,可直接得到想要的输出结果,但与此同时还要支援多轮对话
管理、上下文情境及知识图谱推理,避免安全回答,甚至是保持Chatbot个性的一致性,
这些挑战都是产学界近期的目标。
以上问题,可见AI还有很长的一段路要走;但不管准确率有多高,以商用Chatbot来说,
只要能节省足够的客服成本,就能让许多企业为高价的AI人才买单。以上是个人在业界
工作得到的经验,分享给各位同业;这个领域还有一堆做不完的工作,也鼓励研究生们
好好学习入坑。
文章被JPPT App吃掉了... 整理中
作者: nighthunt (johnyu164)   2019-12-09 22:59:00
想请教三成就能有实际应用价值这样的论述是如何得到的
作者: followwar (嫌疑犯X的献身)   2019-12-09 23:15:00
NLP不是被BERT模型统治了吗...BERT是pretrained by unsupervised mask autoencoding要用在其他作业势必要finetune 该怎么理解"不一致"之说
作者: sxy67230 (charlesgg)   2019-12-10 00:17:00
Bert的问题比较像是当前纯原始语料资料本身就很精确,质量高的情况下再做大规模训练,但是我认为好的训练应该是要建立在资料源规模不复杂的情况下,像是XLNET或是ALBERT 就是很好的尝试,回归语言建模的问题。然后语言本身就是复杂的问题,AR ML跟AE ML楼主有点混淆了,多轮对话是一个生成跟理解加上记忆的问题,可以去找找参考文献。我不敢说Bert统合了一切,Bert家族反而更像基酒,重点在语言建模的问题上。
作者: GGFACE (ggface)   2019-12-10 00:35:00
没错
作者: sxy67230 (charlesgg)   2019-12-10 00:46:00
我打错字了 AR LM 跟AE LM然后人类视为智慧的聊天建立是更复杂的多重任务,包含生成、理解、先验知识的推理跟后验知识的检索、记忆、组合、情感,还有文化脉络的符号。
作者: longlongint (华哥尔)   2019-12-10 11:23:00
个人觉得 文法上是往前找最近的名词 只能是示威者所以 一那个句子根据知识会觉得WT.....
作者: followwar (嫌疑犯X的献身)   2019-12-10 13:16:00
我理解了你的concern 那我说"Transformer"架构统治NLP也许更精准一点 我比较想说Architecture而不是TASK如同ResNet"架构"在CV领域的影响力
作者: w0005151 (蓝厅)   2019-12-10 18:58:00
这ID有印象是个高手, 在业界混过看到的果然会不太一样
作者: iaminanl (好MAN)   2019-12-10 19:19:00
你举的这两句,我觉不同情境、不同人可能有不同答案
作者: leoloveivy (cried)   2019-12-10 20:15:00
花钱用azure
作者: genius945 (添财)   2019-12-10 23:50:00
推 感谢分享
作者: ILYY (毅力)   2019-12-11 01:13:00
作者: DrTech (竹科管理处网军研发人员)   2019-12-11 22:12:00
这篇讨论没很专业吧,论文也没看几篇的人,chatbot通常是开放领域的"闲聊",才会用chatbot 这名词。chatbot通常跟task-oriented的客服完全不同研究或实务产品路线。这篇却把chatbot 与客服扯在一起…至于NLP被BERT统治?出社会工作了吗?还是在没业务的小公司? 真正流量大,即时性高的应用怎么上得了BERT模型压缩,或知识蒸馏搞 下去,也不是叫BERT阿另外,先不说计算时间问题,BERT真没想像中神奇,BERT以及相关预训练模型出现,学术论文多,实务上真的帮助不大,一堆问题还是没有好方法。
作者: sxy67230 (charlesgg)   2019-12-11 23:22:00
open domain chatbot确实是跟任务导向的客服是不太一样的东西。不过Bert不代表无法应用到高流量上。即时性取决于你想应用的场域,不过就算是rule based 也很难做到open domain ,目前普通商用客服的应用顶多就是过去值机系统的2.0版而已,商业上就是一堆人工建立问答检索,搭配分类跟抽取,最多加上知识图谱、情感分析。当然上述都是普通公司的应用。然后这边确实很难有精彩的辩论,还是要去Reddit才比较有可能
作者: jimmy55311 (jimmy55311)   2019-12-12 00:31:00
推专业深度文 感谢大神分享经验 这篇主要是讲NLP未来的方向吧 后续讨论有点离题了
作者: friends29 (凉哥哥)   2019-12-15 03:28:00
好文推

Links booklink

Contact Us: admin [ a t ] ucptt.com