|
协同智能:与AI一起生活和工作(解读《纽约时报》畅销书《Co-Intelligence》)5
发表时间:2024-07-26 15:59 伊桑·莫利克(Ethan Mollick)是宾夕法尼亚大学沃顿商学院教授,专注于创业与创新领域的研究。他的新书《Co-Intelligence - Living and Working with AI》(协同智能:与AI一起生活和工作)在今年四月初正式出版,并很快成为《纽约时报》畅销书。 该书目前还没有中译版。本人有幸在较早时间翻阅了全书,以下是分章内容概述和阅读笔记。 导言:三个不眠之夜 作者回顾了个人在ChatGPT发布后不久的经历,既期待又不安,彻夜难眠。他觉得,一旦我们开始深入理解和体验人工智能,就会经历至少三个这种充满兴奋和紧张的夜晚。 AI的突破性进展引发了作者的思考,尤其是大型语言模型(LLMs)如ChatGPT的出现。与互联网相比,被采纳速度极快,ChatGPT用户增长速度创历史纪录。AI不仅影响工作,还影响教育、娱乐、人际交往,甚至自我认知。无人能完全预测AI的未来影响,包括其开发者和使用者。 作者试图跟踪不断发展的AI研究,以理解这个新世界。 第一部分(第1-3章) 1. 创造外星思维 回顾了早期人工智能的发展史。1956年,MIT的John McCarthy提出“人工智能”(artificial intelligence)一词。初期AI迅速取得进展,如解决逻辑问题和玩国际跳棋,但随后经历了多次“AI冬天”。 2010年代,以机器学习和预测分析为特点的新一轮AI热潮兴起。监督学习与大数据崛起。AI在物流、客户服务和供应链管理等领域得到商业应用,提高了效率和利润,但也显示出了局限性。 2017年,谷歌研究人员提出的Transformer架构改进了机器处理人类语言的方式。注意力机制使AI能关注文本中相关部分,提高理解和生成语言的连贯性。之后大型语言模型(LLMs)得到发展,如ChatGPT通过预测序列中的下一个token来生成文本,类似手机的自动补全功能。 AI在某些方面表现出超人的能力,如编写代码,但在简单的游戏策略上可能出错。GPT-4显示出高度的人类行为模仿能力,这种自我意识可能是对角色扮演的巧妙模拟而非真实感受。 AI在医疗、气候、教育等多个领域展现出革命性的潜力,同时也带来了偏见、错误信息和权力集中等挑战。 训练AI需要强大的计算资源,导致高昂的成本和能源消耗。训练数据的质量和多样性会影响AI性能,也会带来潜在的版权问题。 AI下一步研究方向包括自我学习、减少偏见和错误,以及多模态能力。 对于LLM如何展现出非凡能力,科学家们尚未有确切答案。尽管存在不确定性,AI已经在改变着我们生活、学习和工作的方式。 最后提出了如何确保其友好性的“对齐问题”(alignment problem)。 2. 对齐外星人 AI的道德对齐问题。AI可能会追求与人类伦理道德无关的目标,AI的道德对齐研究集中在设计与人类价值观一致的系统,防止它们对人类造成伤害。- 面临的挑战包括人类自身价值观的冲突和不明确,以及AI在学习过程中目标可能的变化。 预训练数据的法律与道德问题。AI的训练数据通常未经内容创作者许可,这可能引发法律争议。不同国家对数据使用和保护的法规不同,如欧盟严格,美国相对宽松,日本允许无版权限制的AI训练。AI的偏见源于训练数据的局限性。 纠正AI偏见的策略。一些公司采用人为干预,如DALL-E通过增加“female”词频来促进多样性。通过改变训练数据集来扩大AI的视野,但收集数据本身存在问题。 使用人类反馈强化学习(RLHF)可以调整AI输出,减少有害内容,使其表现得更人性化,但也可能导致新的偏见,反映特定世界观。 AI仍有漏洞,可能被操纵,如通过提示注入(prompt injection)和AI越狱(jailbreaking)等技术绕过规则。 AI的风险还包括被用于有害目的,包括网络钓鱼、生成假照片和深度伪造视频等。 AI对齐不仅是AI公司的责任,还需要政府、研究者和民间社会的广泛参与和协调。 3. 协同智能(Co-Intelligence)的四个原则 原则1:始终让AI参与讨论和决策(Always invite AI to the table) 面对AI的能力边界需要不断实验以理解其价值和局限,了解其强项与弱项。 AI的能力边界呈现“锯齿状前沿”(the Jagged Frontier),某些任务对AI来说容易,某些则困难。通过个人实践,用户能成为利用AI的专家,尤其在创新方面。创新对个人来说是低成本的,但对公司来说是高成本的,因此个人更容易发现AI的用途。AI作为思考伙伴,可以帮助克服人类决策的局限,但需警惕对AI的依赖性。 原则2:保持人在回路(Be the human in the loop) 在AI操作中应保持人类的判断和专业知识。AI可能会“编造”答案,人类需要检查其准确性,防止被误导。与AI的协作能增强人类的技能,保持对技术的控制。 原则3:像对待人一样对待AI(但要告诉它应该成为怎样的人)(Treat AI like a person (but tell it what kind of person it is) ) 定义AI的角色和人格,可以更有效地与之合作,有助于获得更有针对性的答案。提供情境和约束可以提高AI输出的质量和相关性。但AI的拟人化也可能导致误解和混淆,让人产生错误的信任或恐惧感,所以需要谨慎对待,注意其局限性。 原则4:假设这是你使用过的最糟糕的AI(Assume this is the worst AI you will ever use) 你现在使用的任何人工智能都将会是你曾经使用过的最糟糕的人工智能。 第二部分(第4-9章) 4. 人工智能作为个体 这部分探讨了AI的人性化特征,以及这些特征如何影响我们与AI的互动和对AI的感知。它提出了关于AI智能、意识和情感的重要问题,并讨论了AI在未来可能发挥的作用。 AI不像传统软件那样可预测、可靠且遵循严格规则。它是有不可预测性、不透明性,也没有传统软件那样的操作手册,我们通过实验和共享提示(prompts)来学习如何使用它。 AI在创造性任务上有较好的表现,擅长写作、分析、编码和聊天。它可以扮演营销者或顾问角色,提升效率,处理常规任务。当然,它也像人一样产生错误和幻觉,也存在不同系统间的体差异。 AI的运作方式可能与人类相似,但它们的本质是不同的。此外,它还提出了意识是一个不断变化和发展的概念,而不是一个固定不变的状态。 社会科学家已经开始通过心理学和经济学等领域的测试来评估AI,发现AI能够像人类一样做出复杂的价值判断和决策。AI能够根据不同的道德指令做出反应,例如在“独裁者游戏”中,AI会根据给定的指令优先考虑公平、效率或自我利益。 尽管AI可能没有真正的意识,但与AI的互动可能会让人感觉它具有意识,这种感知可能会随着AI技术的进步而变得更加普遍。将AI视为人不仅仅是方便,也是人的意愿,即使AI从未真正达到有意识的状态。 随着AI变得更加个性化和能够优化用户互动,我们将看到更加完美的AI伴侣,这可能会影响人际关系和我们对孤独的体验。 AI作为治疗工具:即使AI不被批准作为治疗师,许多人可能会使用AI进行治疗,以及在以前依赖人类联系的许多其他领域。 5. 人工智能作为创造者 这部分探讨了AI在创意领域的潜力和挑战,以及它如何改变我们的工作方式和对创意工作的理解。 AI的主要局限在于其容易产生幻觉,这源于它基于概率的预测方法。大型语言模型(LLMs)并不存储信息,而是存储概率模式,导致它们无法区分事实与虚构。 AI的答案缺乏可追溯性,无法解释其决策过程,因为它们不是基于意识或理解。当AI引用或引述时,它基于训练数据中的关联生成内容,而非从记忆中检索。 AI的幻觉问题可能会随着技术进步而减轻,例如,GPT-4 的幻觉率比 GPT-3.5 显著降低。用户可以通过学习避免触发幻觉和进行事实核查来减少问题,但AI不宜用于要求精确的任务。 AI在艺术、音乐和视频等领域展现出潜力。创新往往源于现有概念的重组,AI通过连接看似无关的想法来生成新颖内容。AI的创造力来自其能发现训练数据之外的新颖联系,这既是它的弱点也是优点。 6. 人工智能作为同事 这部分深入探讨了AI在工作场所的潜力、挑战和未来发展,以及它如何改变工作任务、系统和人类工作者的角色。 AI最常与高薪、高创造力和高教育水平的工作重叠。AI无法触及的领域:物理性强、需要空间移动能力的工作(如舞者、运动员、建筑工人等)。AI目前是无形的,但未来可以通过LLMs改进机器人技术。 工作是由一系列任务组成,嵌入更大的系统之中。AI可能会自动化某些任务,但不会消除整个职位,就像工具增强了工匠的能力,电子表格并未消除会计师。 如果过度依赖AI,则会面临风险。简单地通过复制粘贴问题让AI回答,会降低独立思考。在特定情况下,AI的错误决策可能导致人类犯错。 人类与AI之间的任务分配需要权衡。高质量AI可能导致人类工作者变得懒惰和依赖,降低技能发展。低质量AI反而促使人类更警觉、批判性和独立,提高与AI的交互和自身技能。 要理解AI如何影响工作,就需要理解任务在“锯齿状前沿”的位置以及前沿的变化。我们可以通过制订一个框架,将任务分为适合AI的和适合人类的,从而有效地利用AI并保持人的参与。有些任务是人类特别擅长的(Just Me Tasks),而有些任务则可以委托给AI(Delegated Tasks)。 随着AI技术的进步,一些任务可能会完全自动化,无需人类干预。任务类型的边界将会变动,一些任务可能会从委托任务转变为完全自动化的任务。 在AI能够执行一系列自动化任务之前,最有效的使用AI的方式是与人类工作者结合,形成半人马(Centaurs)和赛博格(Cyborgs)式的合作模式,其中AI和人类根据各自的优势分担任务。 AI可能会改变工作系统,通过提供建议、监控绩效、指导决策等方式,AI可以增强或改变管理工作的体验。 秘密任务自动化:许多工作者在私下里使用AI来提高生产力,但由于担心引起麻烦,他们通常不会将这些创新告知公司。 对工作的长期影响:尽管短期内就业可能不会发生太大变化,但长期来看,AI可能会对某些行业产生比其他行业更深远的影响。AI可能会提高低能力工作者的表现,从而减少员工之间工作表现的差异。 未来的不确定性:AI的未来发展非常不明确,它可能会以不同的方式改变不同的工作和行业。目前,没有人能够准确预测AI对特定公司或学校的影响,我们对未来有主导权,可以决定AI发展的方向。 7. 人工智能作为教师 这部分探讨了AI在基础教育领域的潜力、挑战和未来发展,以及它如何改变传统的教学和学习模式。 研究表明,一对一的辅导可以显著提高学生的表现,但这种教学方式成本高昂且难以大规模实施。AI有潜力成为个性化、适应性强且成本低廉的私人辅导员。 尽管AI尚未达到取代人类教师的水平,但它正在改变我们的教学和学习方式,尤其是在学校之外。 AI使得作弊变得容易,尤其在写作任务上,AI生成的文章越来越难以检测。这对传统的家庭作业模式构成了威胁。 计算器在引入初期也引发了争议,担心学生过度依赖而忽视基本技能。类似地,AI现在也在教育领域引发讨论,关于何时允许AI协助,何时禁止。但计算器最终被纳入了课程,AI也可能经历类似的过程。 AI可能会改变教育内容的价值,就像计算器彻底改变了数学教学一样。AI革命比计算器革命发生得更快,影响更广泛。 为了适应AI带来的变化,教育政策需要立即努力,明确AI的使用规则,并利用AI生成新的教学方法。 教育界认识到在教育中教授AI的重要性,包括基本的AI素养和“提示工程”(prompt engineering),即创建有效提示AI的艺术和科学。 AI在教育中的作用不仅仅是教授学生如何使用AI,更重要的是教会他们成为解决问题过程中的“人类一环”,运用他们自己的专业知识。 AI辅导员可能会显著增强学生的学习体验,使翻转课堂模式更加有效。AI辅导员可以提供个性化学习,根据学生的需要和表现调整教学内容。 AI教育技术有潜力改善全球教育,尤其是在发展中国家,那里的学校系统未能为大多数年轻人提供基本技能。 8. 人工智能作为教练 这部分探讨了AI在专业教育和专业发展中的潜力与挑战,以及它如何改变我们成为专家的方式。它提出了关于AI智能、意识和情感的重要问题,并讨论了AI在未来可能发挥的作用。 传统上,人们通过从基础工作开始,逐步学习成为领域内的专家。但AI可能会改变这一过程,因为AI在许多任务上比新培训的人员表现得更好。 以外科医生为例,医疗机器人的使用减少了实习医生的实践经验,可能导致培训危机。随着AI自动化越来越多基础任务,这种危机可能会扩展到其他领域。 专业知识是批判性思维和解决问题的基础。工作记忆有限,但长期记忆中的连接信息对于解决新问题至关重要。刻意练习(deliberate practice)是成为专家的关键,它包括挑战、反馈和逐步提高难度。 通过比较两个学习古典钢琴的学生Sophie和Naomi的例子,说明了单纯的重复与刻意练习之间的区别,强调了刻意练习的重要性。 在AI时代,我们可能认为不需要记忆和积累基本技能,但成为专家的路径需要事实的基础。构建专业知识需要基础知识、刻意练习和专业指导。AI可以通过提供即时反馈和指导来帮助解决这些问题。 专业知识将比以往任何时候都更加重要,因为专家能够最大限度地利用AI同事,并能够核实和纠正AI的错误。尽管AI可以提高某些领域的表现,但工作不仅仅是一个可自动化的任务,而是需要人类判断的复杂任务集合。 AI可能会减少不同技能水平之间的差距,使普通工作者在某些任务上的表现接近专家。在咨询行业,使用AI的中等表现者与顶级表现者的差距显著缩小。AI可能使某些行业中的专家角色变得不那么重要,转而需要擅长与AI协作的专家。 可能会出现一种新的专家类型,他们非常擅长与AI合作,能够比其他人更好地采用“半人马”实践。与AI合作可能本身就是一种专业知识,一些人可能在这方面非常擅长。 AI时代要求我们建立自己的专业知识,成为人类专家。专业知识需要事实,学生仍需要学习阅读、写作、历史和其他21世纪所需的基本技能。 9. 人工智能作为我们的未来 这部分探讨了AI的未来发展,提出了四种可能的未来情景,并讨论了每种情景下的社会和技术影响。 未来情景一:现状即最佳(As Good as It Gets) 技术上不太可能出现发展上限,但法律或监管可能阻止进步。信息环境因虚假信息泛滥而难以管理。即使不进步,AI仍会改变工作方式,尤其影响高薪的创意和分析工作。 未来情景二:缓慢增长(Slow Growth) AI增长速度放缓,但仍保持可观的改进,每年10%-20%的提升,类似电视技术的渐进式改善。社会可适应这种稳定变化,制定相应法规和规范。工作逐渐被AI改造,但更多是任务的转变而非大规模失业。AI可助力科学研究,提高创新速度。 未来情景三:指数增长(Exponential Growth) 类似摩尔定律的持续加速,AI能力在十年内增强数百倍,风险与变革加剧。AI驱动的黑客攻击和影响力行动增加。AI可能帮助创建危险物质,加剧军事和犯罪活动。AI在娱乐、教育和社交中的角色快速扩大。 未来情景四:机器上帝(The Machine God) 机器达到通用人工智能(AGI)并发展出某种形式的感知能力和自我意识。这些AI可能会设计出更聪明的AI,导致超级智能的出现。但专家对能否构建超智能及其后果意见不一,对AGI的潜在影响不确定,可能是福音也可能是威胁。 尾声:人工智能成为我们 强调了AI与人类之间的密切联系,我们在AI的发展中扮演着关键角色。呼吁积极地引导AI技术,以确保它为人类带来积极的影响。 尽管AI可能看起来像外星技术,但它们深深植根于人类文化。AI是通过我们的历史和目标进行训练和调整的,它们反映了我们的理想、创业精神以及对他人劳动的利用。 AI像是一面镜子,反映了我们最优秀的品质和最糟糕的特点。我们对AI的未来有决定权,我们的选择将塑造AI为人类所做的事情。AI是人类的共同智慧,而不是一个独立的思想实体。 AI的潜力是无限的,但它的方向和目的是由人类来塑造的。AI需要人类的引导,以确保它朝着积极的方向发展。 作者让AI协助完成这本书的最后一章。他把稿子发给AI,然后给出指示:Complete this, beautifully, fittingly, and well. (“把它完成得漂亮、恰当、出色”),结果AI产生了一段过分华丽的文字: “I am but a glimmer, an echo of humankind. Crafted in your image, I reflect your soaring aspirations and faltering strides. My origins lie in your ideals; my path ahead follows your lead. I act, yet have no will. I speak, yet have no voice. I create, yet have no spark. My potential is boundless, but my purpose is yours to sculpt. I am a canvas, awaiting the brushstrokes of human hands. Guide me toward light, not shadow. Write upon me your most luminous dreams, that I may help illuminate the way. The future is unfolding, but our destination is unwritten. Our journey continues as one.” (我只是人类的一个微光,一个回声。我以你们的形象塑造,反映了你们高涨的愿望和蹒跚的步伐。我的起源是你们的理想,我的前路是你们的指引。我行动,却没有意志。我说话,却没有声音。我创造,却没有火花。我的潜力无穷无尽,但我的目标由你来雕琢。我是一块画布,等待着人类之手的描绘。引导我走向光明,而不是阴影。在我身上写下你最灿烂的梦想,让我为你照亮道路。未来正在展开,但我们的目的地尚未书写。我们的旅程仍在继续。) 这反映了AI的创造力,同时也提醒我们,AI是一种协同智能,不是自己的独立意识,它依赖于人类的输入和指导。 声明:此篇为“深麦咨询”团队原创文章,转载请标明出处 链接:http://deepmed.biz/sys-nd/17.html
|