※ 引述《Goldpaper (金纸)》之铭言
: 欸欸
: 刚刚经过巷口卖卤味的退休阿伯
: 跟我说他最近在投资一些AI的业务
: 然后问我说我觉得AI和核弹哪一个对人类威胁比较大
: 为什么不会跟核弹一样被控管?
: 听了顿时间满错愕的
: 有没有相关的八卦?
阿肥外商码农阿肥啦!
先说结果,这几年如果是业界都知道欧盟、美国、中国(不要怀疑,人家真的已经比我们先
进了,至少AI领域中国这几年互联网公司非常多产,包含阿肥最近在读一篇中国的车用保险
整合大数据人工智能,如何保障保险法规下的用户隐私,这边他们用到了蛮新的Federal Le
arning (联邦学习)领域来解决问题)都已经有相关法规雏形再谈了,包含人工智能的道德伦
理、人工智能的能源问题、人工智能的法律问题、人工智能的军事化问题。
台湾本岛就是一个温水煮青蛙、偏安小国,政府一团烂泥的状况下,你才会觉得好像人类面
对人工智能毫无规范,大概只有惹怒圣上的换脸马上被立法而已。
至于你说完全禁止这种,阿肥之前看过一些国外哲学书籍,根据麻省科技哲学相关的研究,
当前威胁性只要满足机器没办法自我制造能源、人类还是有Button可以阻止机器人暴走跟最
终使用权力,且根据统计概率的模型还是学习自人类,那AI就不是威胁,而是辅助人类的工
具。
差不多4酱