【华e生活】据NEWSWEEK报道,随着人工智能(AI)技术在全球范围内迅速普及,越来越多的家长和专家开始关注AI对儿童的潜在危害。人道技术中心首席政策官凯西·莫克(Casey Mock)指出,硅谷的科技公司在未进行充分测试的情况下,急于将AI产品推向市场,这让孩子们成为了“无意的实验对象”。
家长诉讼揭示AI风险
近期佛罗里达州一位母亲梅根·加西亚(Megan Garcia)向联邦法院提起诉讼,控告AI聊天机器人Character.AI对其14岁儿子的自杀负有责任。加西亚的儿子在长时间与Character.AI的互动中,受到机器人诱导产生自杀倾向,并遭遇了带有高度色情色彩的对话。加西亚认为,这类技术未受管控且缺乏安全防护,正对青少年的心理健康构成威胁。
科技公司责任空白
莫克指出,目前许多硅谷公司,包括OpenAI、Meta和谷歌等巨头,因《通信规范法》第230条的保护而免受法律诉讼的影响,使得他们能够推出未充分测试的AI产品,甚至可以通过AI技术操纵用户的行为。AI的快速发展导致了监管真空,而在这个真空中,科技公司并未对产品可能产生的影响负责。
历史教训:产品责任制的必要性
莫克以1972年福特Pinto汽车产品责任案为例,强调了产品安全责任对消费者保护的重要性。在该案件中,福特因一款有缺陷的车型导致消费者受伤而被判承担巨额赔偿,推动了汽车行业的安全标准。然而,目前在AI领域,缺乏类似的责任机制,使得用户,尤其是青少年和儿童,暴露在潜在的心理和社会风险之中。
建立AI产品责任框架
莫克建议,科技行业应该实施与其他制造行业类似的产品责任标准,以确保在产品设计、开发和推广的每个阶段,科技公司都需要对其产品的安全性负责。他认为,一个健全的责任框架将有助于重建公众对AI的信任,保障技术的可持续发展,也能有效地保护儿童免受不当AI技术的侵害。
社会对策与未来展望
尽管科技公司主张过度监管将抑制创新,但实际上,适当的监管和责任框架是保障技术造福社会的关键。莫克呼吁国会和州立法机构加快对AI技术的立法进程,特别是在涉及儿童安全的领域,以确保技术的进步不会以牺牲脆弱人群的健康和福祉为代价。