来源:参考消息网
据英国《经济学人》周刊网站8月13日报道,人工智能可以说是一门让计算机做出在人类看来是聪明之举的艺术。从这个意义上说,人工智能在我们的生活中已经无处不在。
应用无处不在
卫星导航软件利用搜索算法找到从你家到那家新餐厅的最快路线;飞机自动降落;交通摄像头使用光学字符识别技术识别超速汽车车牌上的字母;恒温器会根据谁在家来调整温度设置。这些都是人工智能,即使它们没有被如此营销。有一个老笑话说,当人工智能持续、可靠地工作时,它就被称为工程学。另一个笑话说,反之,人工智能就是还不太好用的东西。
目前,人工智能吸引了全世界的目光,并耗费着大量的计算能力和电力,它基于一种名为“深度学习”的技术。在深度学习中,线性代数(特别是矩阵乘法)和统计学被用来在训练过程中从大型数据集中提取并学习相关模式。大语言模型(LLM),例如谷歌的Gemini或开放人工智能研究中心(OpenAI)的聊天生成预训练转换器(ChatGPT),已经在大量文本、图像和视频中得到训练,并开发出许多能力,包括它们没有经过明确训练的“智能涌现”能力(颇具前景,但其风险也令人担忧)。目前,针对图像、音乐、机器人学、基因组学、医学、气候、天气、软件编码等领域的此类模型已经有了更加专业的特定领域版本。
这一领域的飞速发展让人们预测,人工智能正在“接管药物研发”,它将“改变好莱坞讲故事的方方面面”,并可能“改变科学本身”(所有这些说法都是媒体过去一年报道过的)。据说,人工智能将加速科学发现,以自动化消除白领工作的乏味,并带来无法想象的奇妙创新。人工智能有望提高效率,推动经济增长。人工智能还可能取代人类的工作,危及隐私和安全,并导致道德困境。人工智能已经超出了人类对其行为的理解。
局限不容忽视
研究人员仍在摸索人工智能能做什么、不能做什么。迄今为止,基于更多数据训练的大模型已被证明更有能力。这促使人们相信,继续增加数据将使人工智能变得更好。人们对“尺度定律”(scaling law)进行了研究,该定律显示了模型大小与训练数据量如何相互作用来改进大模型。但什么是“更好的”大模型?是能正确回答问题的人工智能,还是能提出创造性想法的人工智能?
要预测现有系统和流程在多大程度上能够利用人工智能,也是一件棘手的事情。
迄今为止,人工智能在离散任务中的能力最为明显。给经过专门训练的人工智能模型一张暴乱人群的图像,它就能为当局识别出人群中的面孔。让大语言模型参加法律考试,它的成绩会比普通中学生更好。但在开放式任务上,人工智能模型的表现则更难评估。
目前的人工智能大模型非常擅长根据训练数据中的模式生成从诗歌到逼真图像等各种内容。但这些模型并不擅长在特定情况下决定它们生成的哪些内容最有意义或最合适。它们不太擅长逻辑和推理。目前还不清楚,更多的数据是否会释放出持续推理的能力,或者是否需要完全不同类型的模型。也许在很长一段时间内,人工智能的局限性将需要人类的推理能力来驾驭它的力量。
在医疗保健等领域,找出这些局限性将至关重要。如果使用得当,人工智能可以更早地发现癌症、扩大服务范围、改善诊断和个性化治疗。
根据今年4月发表在《自然合作期刊-数字医学》杂志上的一项分析,人工智能算法在此类任务中的表现可以超过人类临床医生。但人工智能算法的训练可能会让它们误入歧途,这就体现了人类干预的价值。
例如,由于“数据分布偏移”,人工智能模型很容易加剧人类的偏差;如果诊断模型主要在白人皮肤的图像上接受训练,那么给它一张黑人皮肤的图像,它就可能犯错。事实证明,将人工智能与合格的人类相结合是最有效的。论文显示,使用人工智能的临床医生能够将正确诊断出癌症的比例从81.1%提高到86.1%,同时也提高了正确判断没有患癌的比例。由于人工智能模型往往会犯与人类不同的错误,人工智能与人类合作的效果被认为优于人工智能和人类独立工作的效果。
推动科学进步
人类也许不再那么需要在科学领域探索新的假说了。
2009年,剑桥大学的罗斯·金说,他的终极目标是设计一种系统,作为一个自主实验室或“机器人科学家”发挥作用。金博士设计的人工智能科学家名叫“亚当”,它可以提出假说,用机械臂做实验,用传感器收集结果并进行分析。与人类研究生和博士后不同的是,亚当从不需要吃饭或睡觉。但这类人工智能系统(目前)仅限于药物发现和材料科学等相对狭窄的领域。目前仍不清楚,与人类主导的研究相比,它们能否带来更多增量收益。
几十年来,人工智能技术一直被用于科学领域,对数据进行分类、筛选和分析,并做出预测。例如,“鲸语翻译计划”的研究人员收集了大量鲸鱼发声的数据集,然后根据这些数据训练人工智能模型,找出哪些声音可能有意义。或者考虑一下谷歌“深层思维”公司开发的深度神经网络“阿尔法折叠”程序。通过在一个庞大的蛋白质数据库中进行训练,它可以快速、准确地预测蛋白质的三维形状,而这项任务曾经需要人类进行仔细实验和测量。GNoME是“深层思维”公司开发的另一个人工智能系统,旨在帮助人们发现具有特定化学特性的新材料。
人工智能还能帮助研究人员理解大量数据流,无论是筛选粒子对撞机的结果以识别新的亚原子粒子,还是跟上科学文献的步伐,否则这些数据流会让研究人员不堪重负。对任何人来说,无论多么勤奋地阅读,都不可能消化每一篇可能与其工作相关的科学论文。所谓的“基于文献的发现系统”可以分析这些堆积如山的文本,找出研究中的空白,以新颖的方式将旧的观点结合起来,甚至提出新的假设。不过,很难确定这种类型的人工智能工作是否有益。人工智能也许并不比人类更擅于做出意想不到的演绎飞跃;相反,它可能只偏爱传统的、屡试不爽的研究路径,而这些路径并不令人兴奋。
难脱人类掌控
在教育领域,人们担心人工智能(尤其是像ChatGPT这样的机器人)实际上可能会阻碍学生的原创性思维。根据2023年的一项研究,全球有40%的学生使用人工智能完成学校作业,其中大部分是写作。这导致一些教师、教授和学区禁止使用人工智能聊天机器人。许多人担心,使用聊天机器人会影响学生通过努力解决问题或进行论证发展解决问题和批判思维的能力。另一些教师则采取了完全不同的态度,将人工智能作为一种工具,并将其融入到作业中。例如,学生可能会被要求使用ChatGPT就某个话题写一篇文章,然后批评它的错误之处。
等等,这篇文章是聊天机器人写的吗?
当今的生成式人工智能不仅能在点击按钮后生成文本,还能在几秒钟内生成图像、音频和视频。这有可能在播客、视频游戏和广告等领域颠覆媒体行业。人工智能驱动的工具可以简化编辑、节省时间并降低准入门槛。但人工智能生成的内容可能会让一些艺术家(例如插画家或配音演员)面临失业风险。假以时日,也许可以用人工智能驱动的人类演员拟像或完全由人工智能制作整部电影。
不过,人工智能模型既不能独立创造问题,也不能独立解决问题(反正现在还不能)。它们只是精心设计的软件,没有生命或自主能力。它们依赖人类用户来调用和提示它们,然后应用或放弃得出的结果。人工智能的革命性能力,无论好坏,仍取决于人类和人类的判断。