【资料图】
凤凰网科技讯 北京时间12月23日消息,据彭博社报道,ChatGPT改变了聊天机器人终成智能客服的宿命,它的一个创新之处在于,它不仅能展示类似人类的内容和概念,还可以展示人类工作的结构和设计。这就是为什么学生们在论文中使用ChatGPT作弊,以及为什么专家建议只在小说或娱乐中使用它。普林斯顿大学计算机科学教授Arvind Narayanan在他的博客标题中总结了这一技术,“ChatGPT是一个胡扯生成器。但它仍然非常有用”。
每个应用程序都要求用户描述他们想要看到的东西——比如,一只穿着正装的狐狸在汉堡王用餐——它会把写下的短语变成一件艺术品,然后就出现了ChatGPT,这是一种几乎可以回答任何问题的聊天机器人,它回答的结果通常会令人惊讶与信服。
支撑这些新系统的技术被称为生成式人工智能,因为它可以生成全新的东西,而不是重复软件已经看到的文字或图片。它源于OpenAI在生成预训练转换器(Generative Pre-trained Transformer)上的工作,这是一系列旨在总结文本和回答问题的自然语言处理模型。OpenAI于2018年首次发表了这一领域的研究。OpenAI和微软公司的GitHub已经开发出了使用这种技术来帮助编码的工具。结果不是由人类创造的,但它做了一个相当好的模仿,不是艺术或作者,而是两者的模仿。
ChatGPT可以回答后续问题、编写和调试编程代码,以特定作者的风格发布推文,并制作食谱。OpenAI的主要支持者微软(Microsoft)正在将Dall-E添加到其设计软件中,以帮助客户创建图形和社交媒体帖子等内容。Dall-E已经拥有超过600万用户,在预览版发布后的五天内,有超过100万人尝试了ChatGPT。Lensa也是一款应用程序,它使用Stable Diffusion从自拍中创造出奇幻的人工智能化身,在过去几周内迅速走红。
尽管这些应用程序令人印象深刻,但它们存在严重缺陷。除了令人毛骨悚然的手指,Dall-E、Stable Diffusion和GitHub的编码工具也引发了关于版权和未经同意使用内容的问题。ChatGPT有时会吐出令人捧腹的错误,并经常回复一些看似可信但实际错误的答案,只有专家才能发现这种问题。这可能就是为什么OpenAI首席执行官Sam Altman说“在任何重要的事情上依赖它是一个错误”。不过抛开缺陷看,这些进步都将是有意义的。
标签: chatgpt dall github 普林斯顿大学 应用程序
免责声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。如稿件版权单位或个人不想在本网发布,可与本网联系,本网视情况可立即将其撤除。