Re: [闲聊] 为啥vivy这次这么听话

楼主: vacuityhu (真空管)   2021-05-03 22:01:37
推 emptie: 除了堆砌更多没解释的名词,这跟动画的演出其实相差不大 05/03 15:51
→ emptie: 。但老实说这还是难以置信的工程壮举吧。阳电子脑如果不 05/03 15:51
→ emptie: 是出门的时候踢到一箱图纸/或是去火星探险的时候发现了 05/03 15:51
→ emptie: 外星人的远古遗迹,总会有个研发的过程吧?总会从简单的 05/03 15:51
→ emptie: 慢慢进化到复杂吧…?如果是底层的单元就有很大的不一致 05/03 15:51
→ emptie: 性,他们怎么那么有信心堆了几亿个之后封装的成品动得起 05/03 15:51
→ emptie: 来?能处理输入的指令?输出预期中的行为?能连上其他I/ 05/03 15:51
→ emptie: O设备?难道这个世界的晶圆制造商运气都很好…? 05/03 15:51
不好意思...手痒回一下
现在的AI其实完全符合这位朋友的疑问
现在AI主流的基本技术叫做CNN, 折积神经网络
反正你就想像成是用一种叫做折积的数学运算去模拟人类大脑的神经网络
更具体来说, 是用大量的折积运算配一个启动函数来模拟一个神经元做了什么事情
神经元简单来说, 就是上一个神经元A放电去电下一个神经元B, 借此来传递讯息
只要A放电够强, B就接收的到, 反之, A受到的刺激不够放电不够, B就不会有反应
我们就是用数学运算配合启动函数来模拟这个A和B沟通的过程
然后
只有A跟B两个神经元的时候我们还可以给出严谨的数学证明来说明中间发生了什么事
但现在随便一个CNN都上万个神经元在互相连动
训练过程中到底发生了什么事~掷筊问妈祖还比较可靠
虽然各家实验室跟研究人员都努力给出合理的解释来说中间到底在干嘛
但没有一个解释是可以用数学证明的
很吊诡吧~?
成千上万的数学运算堆起来竟然不能用数学去证明跟预测结果会怎样
这就是现在的AI
确实跟去火星探险发现远古遗迹很像
然后现在这个人类无法预测的数学运算就安装在你各位的特斯拉车子里帮你开车
作者: emptie ([ ])   2020-05-03 15:51:00
除了堆砌更多没解释的名词,这跟动画的演出其实相差不大。但老实说这还是难以置信的工程壮举吧。阳电子脑如果不是出门的时候踢到一箱图纸/或是去火星探险的时候发现了外星人的远古遗迹,总会有个研发的过程吧?总会从简单的慢慢进化到复杂吧…?如果是底层的单元就有很大的不一致性,他们怎么那么有信心堆了几亿个之后封装的成品动得起来?能处理输入的指令?输出预期中的行为?能连上其他I/O设备?难道这个世界的晶圆制造商运气都很好…?但这是软件层面上我们不了解完全的原理(而且我们也没放弃去研究为什么) 写好的东西你拿去任何相容的平台都是能跑的
作者: OyodoKai (魔法少女大淀)   2021-05-03 22:04:00
为什么没人愿意相信量子力学的魔法 :(
作者: emptie ([ ])   2021-05-03 22:05:00
因为剧中的科技进步程度很难让人觉得他们解锁了量子运算的科技吧
作者: yosaku (脆弱的超强)   2021-05-03 22:06:00
所以这就是模拟真的人脑运作方式 要是正子脑的资料能被复制 那表示人脑也行了 但就是办不到
作者: snowpoint (暱称)   2021-05-03 22:06:00
量子力学的干扰,应该是神经元讯号在临界点才比较显著因为过于微观,神经元算是宏观的东西了简单来说你有东西好像快想起来的时候,量子力学有机会祝你一臂之力XD
作者: zxcmoney (修司)   2021-05-03 22:10:00
现在的(新AI)主要是带有随机要素吧,借由随机找出新策略但反过来说,就不像旧AI那样可以逐步拆解了
作者: hinanaitenco (桃子好吃)   2021-05-03 22:13:00
事实上 NTK理论已经可以解释类神经网络的效果跟训练过程发生啥事了 还可以不用训练就知道训练完的理论预测值
作者: OyodoKai (魔法少女大淀)   2021-05-03 22:14:00
人类到现在还不知道意识从何而来怎么复制
作者: hinanaitenco (桃子好吃)   2021-05-03 22:14:00
我可以简单的跟你说类神经网络只是种Gaussian process
作者: whitecut   2021-05-03 22:28:00
CNN翻译应该是卷积神经网络吧,纯粹想吐槽这点
作者: hinanaitenco (桃子好吃)   2021-05-03 22:30:00
你看的那篇只是开始 后面CNTK RNTK 等架构都证明出来了NTK 他的特性是data independent的你要算结果只要把t 设无限就等于train 完 (收敛你要train到一半的预测值都有 改t就可以了connection是让每次feed forward过程 近似GP所以越宽越逼近真正的高斯分布 神经网络就越强你那是inference 的时候才要丢资料NTK是种kernel methods他的kernel function 是建立在一个Target network的你要看网络越宽的好处 可以去查 double descent这一套理论你看完 会对类神经网络有更进一步了解需要相关论文可以站内 我研究蛮多的
作者: smallminhaha (HydRocephalus)   2021-05-03 22:51:00
请问……这里是哪里……@@
作者: WindSucker (抽风者)   2021-05-03 23:13:00
holo的灵压
作者: littletip (肉肉)   2021-05-04 01:35:00
我懂了。楼下的各位都懂了吗?
作者: emiya5352 (菲尔席斯)   2021-05-04 01:55:00
跟我十年前想的结果一样
作者: neo10025696 (neooooen)   2021-05-04 02:05:00
我都称那个过程为黑箱,问妈祖让我笑了
作者: piyieen (Nightshift24)   2021-05-04 02:51:00
嗯嗯 跟我想的一样
作者: greed3819 (咬我啊笨蛋)   2021-05-04 05:22:00
这篇先收藏 搞不好以后报告用得到
作者: kohanchen (kohanchen)   2021-05-04 10:05:00
alphago工程师就有讲他们完全不知道阿发狗是怎么推理棋局的

Links booklink

Contact Us: admin [ a t ] ucptt.com