人工智能被指过度宣传
凤凰网科技讯 北京时间7月1日消息,多年来,谷歌、Facebook等科技巨头投入数十亿美元研发人工智能(AI),大肆宣传它的潜力。但是现在,研究人员表示,是时候重新设定对AI的期望值了。
诚然,AI技术开发近期取得了一定的飞跃。企业已经开发出了更多的AI系统,可以产生看起来像人类的对话、诗歌和图像。然而,AI伦理学家和研究人员警告称,一些企业正在夸大AI的能力,这种炒作正在制造广泛的误解,并扭曲政策制定者对AI力量和不可靠性的看法。
(资料图片)
“我们失去了平衡。”西雅图非营利研究机构艾伦人工智能研究所CEO奥伦·埃齐奥尼(Oren Etzioni)这么说。埃齐奥尼和其他研究人员指出,这种失衡有助于解释为何谷歌工程师称AI有知觉的说法让许多人摇摆不定。
谷歌工程师布莱克·莱莫恩(Blake Lemoine)基于他的宗教信仰提出,该公司的一个AI系统应该被视为有感知能力。他声称,AI聊天机器人实际上已经成为了一个人,有权决定是否允许在它上面做实验。谷歌随后对他进行停职处理,并驳回了他的说法。谷歌表示,公司伦理学家和技术专家已经研究过这种可能性,并驳回了他的说法。
声称AI有知觉的莱莫恩
研究人员表示,在更广泛的科学界,AI正变得有意识或可能有意识的看法仍然处于边缘地位。
从现实来看,AI涵盖的一系列技术在很大程度上依旧对一系列平淡无奇的后台后勤工作有帮助,比如处理来自用户的数据,以便更好地向用户投放广告、内容,进行产品推荐。
大力投入和宣传
过去10年,谷歌、Facebook母公司Meta以及亚马逊等公司投入了大量资金来提高此类能力,以驱动它们的增长和利润引擎。例如,谷歌使用AI更好地解析复杂的搜索提示,帮助它提供相关广告和网络结果。
一些创业公司还萌发了更宏伟的雄心。其中一家公司名为OpenAI,它从特斯拉CEO埃隆·马斯克(Elon Musk)和微软公司等捐赠者和投资者那里筹集了数十亿美元,旨在实现所谓的通用AI,也就是能够匹配或超越人类智能每一个维度的系统。一些研究人员认为,这即使不是无法实现,也是几十年后的事情。
谷歌大力研发AI
这些公司为了超越对方而展开的竞争推动了AI的快速发展,并催生了越来越多引人注目的演示。这些演示抓住了公众的想象力,吸引了人们对这项技术的关注度。
OpenAI的DALL-E系统可以根据用户提示生成艺术品,例如“土星轨道上的麦当劳”或“穿着运动装备参加铁人三项的熊”,最近几周在社交媒体上引发了许多表情包。随后,谷歌仿效DALL-E系统推出了自己的基于文本的艺术品生成系统。
尽管这些成果十分惊人,但越来越多的专家警告称,企业没有适当控制宣传。
玛格丽特·米切尔(Margaret Mitchell)曾是谷歌伦理AI团队的共同负责人,在撰写了一篇关于谷歌系统的批评论文后被解雇。她表示,谷歌向股东宣传的一个卖点是,它在AI方面是世界上最好的。
AI的局限性
米切尔目前在一家名为Hugging Face的AI创业公司工作,她和谷歌另一位AI伦理联合负责人蒂姆尼特·格布鲁(Timnit Gebru)是最早对AI危险性提出警告的人之一。格布鲁也被谷歌解雇。
根据他们在谷歌任职时写的最后一篇论文,他们认为这些技术有时会造成伤害,因为它们的类人能力意味着它们和人类一样有失败的可能性。例如,Facebook的AI系统误译了阿拉伯语的“早上好”,把它翻译成英语时变成了“伤害他们”,翻译成希伯来语时变成了“攻击他们”,导致以色列警方逮捕了发布这一问候语的巴勒斯坦男子,随后才意识到错误。
米切尔因批评谷歌被解雇
去年曝光的Facebook内部文件也显示,Facebook的AI系统无法一直识别第一人称射击视频和种族主义言论,只删除了一小部分违反公司规定的内容。Facebook则表示,AI技术的提升大幅减少了仇恨言论和其他违反其规定的内容。
理想与现实的差距
理想很丰满,现实很骨感。埃奇奥尼和其他人提到了IBM围绕着沃森系统展开的营销。沃森是IBM开发的AI系统,因为在智力竞赛节目《危险边缘》中打败人类而声名大噪。然而,经过10年和数十亿美元的投资后,IBM在去年表示,正在研究出售沃森健康业务的可能性,该部门的主要产品本应帮助医生诊断和治疗癌症。
由于AI现在已经无处不在,并涉及更多的公司,它们开发的软件包括电子邮件、搜索引擎、新闻推送、语音助手,已经渗透到我们的数字生活中,所以它的风险就更大了。
谷歌发言人布莱恩·加布里埃尔(Brian Gabriel)在否认AI有知觉的说法时称,该公司的聊天机器人和其他对话工具“可以即兴谈论任何虚幻的话题”。“如果你问一只冰淇淋恐龙是什么样子的,他们可以生成关于融化和咆哮等内容的文本,这与感知不同。”他表示。
AI认知差距渗透到政府政策
布朗大学研究AI政策的计算机科学博士生伊丽莎白·库马尔(Elizabeth Kumar)表示,这种认知差距已经悄悄渗透到了政策文件中。
最近,地方、联邦和国际法规和监管提案试图解决AI系统通过歧视、操纵或以其他方式造成伤害的可能性,这些都是基于AI系统具有高度能力的假设。库马尔表示,他们在很大程度上忽略了这种AI系统“根本不起作用”造成伤害的可能性,而且这种可能性更大。
埃齐奥尼也是拜登政府的国家人工智能研究资源特别工作组的成员。他指出,政策制定者往往难以把握这些问题。“从我和他们中的一些人的交谈来看,我可以告诉你,他们的出发点是好的,问的问题也很好,但他们并非对一切了如指掌。”他表示。(作者/箫雨)
标签: 人工智能
免责声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。如稿件版权单位或个人不想在本网发布,可与本网联系,本网视情况可立即将其撤除。