Re: [闲聊] 现实世界有哪些原理不明的科技

楼主: ZooseWu (N5)   2020-12-10 16:18:34
※ 引述《praiseZun (praiseZun)》之铭言:
: 现在的AI就是啊
: 深度学习爆红是十年前就开始了
我想用简单的说法讲一下现在的AI到底是怎么运作的
不过我对AI的理解就只有看看科技文章 下载tensorflow跑过范例而已
所以可能有很多错误的地方还请跟我说
在AI领域最小的单位就是神经元
你可以看作是一个作业员
作业员的工作就是一笔资料进来以后做一个转换再丢出去
例如作业员的工作是把资料"÷2" 那你给他8他就会丢出4 非常简单
然后你把很多作业员集合起来就会变成一个产线
然后一堆产线就集合成一间工厂
一堆工厂就集合成一间超级工厂
一堆超级工厂就集合成"超超级"工厂
不断集合之后的"超超.....级工厂"就是我们的AI
这种不断叠工厂的理论几十年前就有了
只是最近硬件技术进步 能够做更大量的运算
所以工厂可以叠更多层 往上叠之后出来的AI效果居然就还不错
而你就是这堆"超....级工厂" AI的老板
然后训练AI的过程就是调整作业员的工作
例如把作业员工作调整成"÷2.5"
但是这部分是自动进行的 不是人工调整的
老板唯一的工作就是把资料丢进去 AI吐出来之后你回答对或不对
例如你丢一张狗的图片 AI就跟你说这是猫 你就说搞错了 这是狗
AI就会自动调整里面作业员的工作 然后继续下一个测试
经过不断调整之后如果工厂合格了
那我们不管丢什么照片他大部分都能猜出是什么动物
但是你完全搞不懂AI判断的依据或是原理
就算你把资料拆开来看里面的作业员怎么操作的也没用
因为他们不是用流水线的方式去处理资料
而是用一种叫做卷积(convolutional)的方式
大概就像这样 https://imgur.com/Ivvy2YQ
所以整个AI就像一个黑盒子
你知道输入跟输出长怎样 但是中间完全看不到
反正可以用就好 这就是现在AI的现况
但是中间看不到会有什么问题?
如果有一天你买了AI驾驶的车
但是车子出问题或路况出问题
你只能选择直行会撞到一棵大树
或是选择右转撞到五个无辜的路人
如果选择撞无辜的路人你很大的机率存活
但是五个路人很大的机率受重伤
而撞树的话你很大的机率会死去
这时候你觉得AI该怎么选择?
当你站在法庭上时你觉得当初AI选择撞路人
事由你该负责任? 还是车厂该负责任? 还是训练AI的工程师要负责任?
如果AI选择撞树 这种车你敢买吗?
如果撞到路人的情况AI判断不是很大的机率受重伤
而是很大的机率死亡 或是很大的机率轻伤
你觉得什么情况下AI该换不同的判断?
你不知道 你看不到 没人看的到
你只能把模拟资料输入进去看结果
但是实际情况会不会不同?
这是一个很极端的例子 但是有争议的地方往往就是在有两难抉择的地方
然后真实情况往往无可避免的就是会发生有许多争议的情况
作者: arrenwu (键盘的战鬼)   2020-12-10 16:20:00
AI判断的依据大家都懂啊 就是最后算出来那个值
作者: astrayzip   2020-12-10 16:21:00
AI会照路权走吧
作者: siyaoran (七星)   2020-12-10 16:21:00
不知道为何会得出那个值就没办法修正了 AI最大问题的确是修正成特定目标理论上要有一个手动输入极高权值的结果要它优先选 这就不算是AI而是部分AI了求解不知道的东西也就算了 自动驾驶的AI大概都需要写些规则出来遵守
作者: ccpz (OoOoOo)   2020-12-10 16:24:00
比较不极端的例子也有,例如你要AI找出有人的照片,结果找出一堆白人。然后黑人就抗议了
作者: arrenwu (键盘的战鬼)   2020-12-10 16:27:00
都没有问题啊不如说,相信DeepNetwork结果一定不会错才是有问题的
作者: tkigood (提谷德)   2020-12-10 16:28:00
我的理解也是AI就是黑盒子 资料丢的不一样 模型就不一样想改不知道从何改起 只能换资料丢丢看 换些变量重算看看
作者: arrenwu (键盘的战鬼)   2020-12-10 16:29:00
想改不知道从何改起 <--- 一堆人在乱改不是吗XD还有一堆根本就在挑case进行cross validation现在的情况是...有满多人改的新东西,在不同场合的效益不一样而且验证那些 DNN 的 backbone 好坏的方式其实也是用测资去实验。目前并没有透过数学去证明的方式
作者: fish770130 (catfish)   2020-12-10 16:42:00
所以AI下棋是告诉AI输棋是错的 赢棋是对的 然后练蛊?
作者: max60209 (人參無長)   2020-12-10 16:49:00
电车难题
作者: vankhub (尊爵不凡)   2020-12-10 17:00:00
以目前的科技来说,试图去理解跟整理中间的运作会是徒劳的吗?因为目前看来对AI的修正应该都是聚焦在如何让产出没有问题,如果有问题那就测到没有问题为止。但真正的症结点好像是中间的过程?
作者: dannyko (dannyko)   2020-12-10 17:01:00
练蛊没错阿 蒙地卡罗就是靠赛 这就是alpha go早期的方法后面的zero我没读论文不确定怎么进化的
作者: bag0831 (bag)   2020-12-10 17:02:00
文章所说的是supervised learning(监督式学习),如果是像下棋这类的游戏AI是采用reinforcement learning(强化式学习)
作者: dannyko (dannyko)   2020-12-10 17:05:00
理解中间的运作这阵子有新的方向了,在研究对抗型攻击时,发现防御的方法能够加强模型中间的可读性,几年内应该会有一些突破
作者: rock4308 (吃我洛克砲)   2020-12-10 17:53:00
你说卷积然后放全连接的图′_>`
作者: silverair (木栅福山雅治)   2020-12-10 19:44:00
小妹论文本来想做AI的,可是研究越深越觉得这东西门槛实在太高,很多人变成微调主流架构,于是改做GPU= =卷积其实简单讲就是抓特征,卷出来的图就类似于Sobeloperator那样的特征图,出来图太大就池化缩小做那么多其实也就是把大张的图变小,又保留特征
作者: maplefff (maplefff)   2020-12-10 21:13:00

Links booklink

Contact Us: admin [ a t ] ucptt.com