[心得] 《哈佛商业评论推荐必读AI趋势》读后心得

楼主: wackynoteis (Wacky)   2023-10-06 22:59:00
《哈佛商业评论推荐必读AI趋势》读后心得与四个收获
善用 AI 转型,将是新时代企业和个人的成功关键
图文好读 https://readingoutpost.com/hbr-on-ai/
想在 AI 转型的浪潮中站稳脚步吗?或是在 ChatGPT 和机器学习成为新常态的时代,找
到一张蓝图来指引新的方向?我今天要跟大家分享的这本书,谈的就是 AI 对于企业经营
和职场工作的各种影响,是帮助你全方位认识 AI 趋势的首选!
这本书在说什么?
《哈佛商业评论推荐必读AI趋势》是由全球最具指标性的管理杂志《哈佛商业评论》精选
出来的文章集结成书。书中不仅解析了 AI 如何颠覆传统的商业模式和工作方式,还涵盖
了行销、人力资源、产品定价等多角度的实用观点。等于在一本书里面,直接读到最具权
威性的 AI 文章精选辑。
书中探讨了很多主题,像是 AI 应用对企业的经营团队和个别员工的影响,从如何正确应
用 AI 行销,到如何避免 AI 产品带来的道德风险,应有尽有。不只如此,书中的文章大
部分都提供了一系列实用的策略和方法,如果你是经理人、企业领导人或新创企业家,都
能迅速掌握 AI 趋势,并顺利导入企业转型。
简单来说,这本书涵盖了关于 AI 各个方面的问题,让我们从一种全局的观念,去思考
AI 对于企业经营和职场工作所带来的影响。以下分享我从书中得到的四个收获。
1.AI 应用的适用领域
书中有一篇文章提到,AI 科技的“适用领域”是我们必须注重的事情。像是车子偶尔发
生事故是不能容忍的,但是 AI 艺术家创作出一些很棒的画,也创作出一些糟糕的画,则
是完全可以接受的。
例如,在像是交通或医疗这种高风险的领域,即使是微小的错误也可能导致严重的后果,
包括生命危险。因此,在这些领域中,AI 的错误是不能被容忍的。像是一个错误的 AI
医疗建议,可能会导致医生做出错误的判断,而耽误了病人该接受的医疗。一个自动驾驶
车辆的失误可能会造成交通事故,严重一点甚至威胁到人们的生命。
一方面来说,站在道德高点的角度,很多人主张不能单纯地将 AI 的失败视为“学习过程
”或“不可避免的错误”,因为一旦发生错误,影响和伤害的可能就是一个人的一辈子。
另一方面,站在比较工程学的角度,这种错误反而是科技发展的必经之路,就像是《反脆
弱》书中的观念一样,为了让“整体”具备反脆弱性(AI 科技的发展带来的好处),就
得接受“个体”的脆弱性(AI 发展的过程中一定会伤害到某些人)。以历史的经验看来
,后者比较有可能会持续发生。
相反地,相对于那些高风险的领域,“创造性”和“表达性”的任务,如艺术创作或行销
文案撰写,对 AI 的失败就很宽容。因为在这些领域中,即使 AI 创作出不受欢迎或者品
质低劣的作品,后果就只是别人不满意,或是市场接受度很低,不会影响到人们的安全或
健康。
因此这篇文章的建议是,可以将 AI 应用在创造性和表达性任务(例如撰写行销文案),
而不是危险和重复性的任务(例如驾驶堆高机)。然而,我自己的看法则是,引用刚刚提
到“反脆弱”的观念,AI 终究会接手所有高风险和低风险的任务,只是时间的早晚问题
而已。
2.AI 可能会妨碍在职学习
很多企业导入 AI 的应用,大多都希望对企业带来正面的帮助。可是书中有一篇文章提醒
了一件事情,那就是 AI 很可能会妨碍新进员工的在职学习。
这篇文章引用了广泛的证据显示,当一家公司部署 AI 应用的时候,经常会阻碍“在职学
习”这个重要的学习途径。文章的作者和他的同事发现,当某个流程完全改用机器取代时
,原本的老手和专家不再需要积极参与,因为机器会搞定大部分的事情。对于他们来说,
这个新的方法就像一个“黑盒子”,反正它会动就好,老手可能会懒得解释细节,因此剥
夺了新进人员的学习机会。
为了避免这种问题,文章提倡一种不同的学习方法,叫做“影子学习”。这个方法我觉得
很适合给主管或企业领导者参考。
首先是确保学习者有机会在“真实”的工作中,挑战自己的极限,碰到困难,让他们有机
会“犯错”然后从错误当中振作起来。为了做到这点,必须由原本的专家设计真实情境的
挑战。
其次是建立清楚的管道,让最优秀的“第一线员工”来担任导师和教练,重新设计角色和
激励的诱因,协助学习者熟练与 AI 一起合作的新方法。
最后,是打造一个可以搜寻、标注、群众外包的“技能库”,也就是公司内部的维基百科
,里面要包含工具和专家指引,让学习者在必要时可以取用,还要让专家和学习者都可以
在上面贡献自己的心得。
所以,对于管理者和组织领导者来说,导入 AI 和自动化流程,可能对大局来说是一件好
事。可是在细节的地方,像是新进员工的在职学习,要避免 AI 把新手和专家隔开了,我
们必须要采取不同的策略去进行。
3.AI 缺乏主观的意图
在书中的一篇文章,提到了 AI 在行销策略上的重点,我们必须留意,AI 本身不知道自
己要什么,而是乖乖地接受我们人类给予的指令。因此,“问出一个好问题”就显得非常
重要,因为好的问题才会引导出好的答案。
在文章作者研究的一家大型电信公司中,他们发现行销团队面临着一个普遍的问题:“如
何有效地运用 AI 来减少顾客流失?”许多人误以为,主管们应该聚焦于找出可能会流失
的顾客。
在企业管理和行销策略中,“问题定位”是成功的关键。如果行销人员对 AI 提出的问题
是“哪些顾客最可能会离开?”,那么答案往往会聚焦在那些无论如何都会离开的顾客上
。这样一来,就浪费了宝贵的行销资源。相反地,如果问题是“哪些考虑离开的顾客‘最
可能’对促销方案有回应?”,就能更精确地对准目标,留住可能留下来的顾客,达到资
源的最大化利用。
这个概念就很像政治竞选中的策略。政治人物通常会把资源和注意力集中在那些“心意摇
摆”的选民上,而不是那些“已经决定”支持或反对的选民。同样地,企业也应该将行销
资源和策略对准那些心意摇摆、最有可能被留住的顾客,而不是那些已经决定离开的顾客

因此,好的问题是解决问题的起点。AI 并不具备“问题意识”或“主观意图”,因此企
业需要更明确地表达自己的需求和目标。只有当我们人类清楚地知道自己要什么,提出正
确的问题,AI 才能真正地发挥它应有的功能,让企业在激烈的市场竞争中占得先机。所
以,我们要跟 AI 沟通的最大重点,就是需要讲清楚自己的意图和需求。
4.AI 的道德和伦理问题
随着 AI 技术在各行各业的迅速应用,道德和伦理问题也越来越引人关注。
书中一篇文章建议,企业组织必须考虑成立专门的“AI 道德委员会”来解决这些问题。
这个委员会的主要任务是针对正在开发或购买的 AI 产品,有系统地找出和减少潜在的道
德风险。像是在美国给予医疗建议的 AI,会根据过去的资料,给予黑人比较少的资源;
给予法律判决建议的 AI,则会判断黑人可能有更高的再犯率。
造成这种现象的背后原因,就是因为 AI 是一个基于数据和算法的工具,它本身缺乏“
意图”和“道德观念”。当 AI 作出决策时,它依赖的是“过去”的数据和经验,而不是
道德或伦理的判断。这种依赖可能会导致判断上的“偏误”,也就是 AI 的决策只是针对
“过去”和“现在”现象的反映,而缺乏对“未来”或更崇高理想的追求。
有些人可能会反驳:“这就是现实世界啊?为什么不完全按照现实世界的资料就好了?难
道连 AI 也要追求政治正确吗?”
问题在于,如果人类社会永远按照“现况”进行,那么既有的不公不义、歧视和偏见的现
象,只会持续存在。回顾人类过去的历史,许多伟大的社会变革都是由那些不满足于现状
、持有高尚理想的人推动的。我们之所以拥有现在这些公民的权利和人道的待遇,在很早
以前的社会都是被视为离经叛道的观念。而人类的道德和伦理决策通常是基于对某种“理
想”的向往。这正是整个世界能够一直进步和改善的重要动力。
所以我很赞同 AI 道德委员会的观念,它不只能帮助组织有系统地识别和减少 AI 产品的
道德风险,还能够确保了人类的道德和伦理价值在 AI 决策过程中能够发挥作用。正因
为 AI 本身缺乏对于“理想”的追求,人类的参与才有机会将这些高尚的理念融入到 AI
的应用之中,推动世界朝着更好的方向发展。
后记:转型和适应AI趋势
如果你平时就像我一样有在固定阅读《哈佛商业评论》的文章,书中的文章你可能都会印
象。但是如果你平常没读过《哈佛商业评论》,那么这本书就一次性地,把最值得你阅读
的 AI 文章都收录进来了。我也曾经写过一篇文章是〈《哈佛商业评论》杂志订阅心得和
评价〉,如果你有兴趣的话欢迎前往阅读。
总结来说,《哈佛商业评论推荐必读AI趋势》这本书我认为对企业的主管和经营者特别有
帮助,因为这本书谈的不只是 AI 的好处,而更多是聚焦在 AI 的风险以及导入 AI 的时
候会遇到的困难。当然,这本书除了告诉我们这些问题之外,最重要的是跟我们说要如何
制定策略,去降低这些风险和克服困难,达到一个更好的导入和转型成果。
对于个人工作者来说,也可以透过这本书去理解现在 AI 的发展趋势,以及未来可能会面
对的一些转变。例如大家最担心的“我会被 AI 取代吗?”这种问题,读完这本书之后,
你会发现“人的价值”开始转变,我们要思考的是如何转型和适应,甚至在必要的时候主
动介入、操作方向盘。我认为,在 AI 持续蓬勃发展的未来,会被 AI 取代的,是无法转
型和适应新价值的人。
作者: skyhawkptt (skyhawk)   2023-10-07 00:28:00
感谢导读 又遇到令人感兴趣的主题
作者: weimr (小胖)   2023-10-07 16:37:00
作者: Belieeve (芥末拿铁)   2023-10-07 18:14:00
作者: junyuo   2023-10-08 10:38:00
谢谢分享
作者: glen7893 (河马)   2023-10-10 06:13:00
谢谢分享

Links booklink

Contact Us: admin [ a t ] ucptt.com