/热点话题|ChatGPT爆火,我们距离“人类智能”还有多远

热点话题|ChatGPT爆火,我们距离“人类智能”还有多远



近日,ChatGPT这一生成式AI爆火,这款号称神仙级别的自动语言生成式AI发布短短5天内,就吸引了100万用户,在官方描述中,ChatGPT是一个“可以连续回答问题、承认自己的错误、挑战不正确的前提并拒绝不适当的要求”的对话模型,它在各个领域都表现出了惊人的能力。当然WAIC也试着和这位“朋友”聊了聊:


那么什么是ChatGPT

本次OpenAI推出的ChatGPT模型,是基于OpenAI今年早前发布的最新文本生成 GPT-3.5系统的迭代升级。作为目前全球最智能的大型通用语言模型之一,ChatGPT本质上和传统的智能聊天机器人并没有分别,不同之处在于它的表现“更强大”、“更智能”、“更灵活”,连马斯克都表示ChatGPT的功能令其惊叹。ChatGPT独有的“多轮交互对话”功能也是其他智能聊天工具所不具备的。

OpenAI官方称,ChatGPT是在人类的帮助下创建并训练的,人类训练师对该AI早期版本回答查询的方式进行排名和评级。然后,这些信息被反馈到系统中,系统会根据训练师的偏好来调整答案——这是一种训练人工智能的标准方法,被称为强化学习。

ChatGPT界面 图片来源:OpenAI

ChatGPT有多强大

有码农用编码问题来测试它,结果令人满意:

解释极为专业的科学概念也不在话下,下面这个关于热力学的问题,解答起来深入浅出,而且,态度十分循循善诱:


甚至于,它还可以写一些基本的学术文章,如下面这篇大学历史论文,比较两位学者的民族主义理论:


ChatGPT还有一种奇妙的能力:回答基本的、甚至于有些无聊的琐碎问题。这使得许多人认为,像这样的人工智能系统有一天会取代搜索引擎。聊天机器人是根据从网上收集到的信息进行训练的。因此,如果能准确地呈现这些信息,并以更流畅和对话的语调来进行反馈,这将代表着传统搜索的巨大进步。由此,有人对比了在谷歌的搜索结果和与ChatGPT的聊天结果之后,自信地宣称谷歌已经“完蛋”了:



ChatGPT完美吗?


答案当然是:不。

计算生物学教授卡尔·伯格斯特罗姆( Carl Bergstrom)要求ChatGPT在写一篇维基百科式的生平条目,ChatGPT沉着冷静地照做了——但是有一些细节是完全错误的。

对此,OpenAI坦承,由于ChatGPT的知识只来自训练数据中的统计规律,而不是任何类似人类对世界复杂和抽象系统的理解,因此“该系统可能偶尔会产生不正确或误导性的信息,并产生攻击性或有偏见的内容。”

此外,该机器人对2021年之后的世界知识“有限”,对于某些特定人群的问题也“知之甚少”。

还有一种令人担心的缺陷是,当用户向ChatGPT询问一些危险的问题,比如如何计划完美的谋杀或在家里做凝固汽弹,受过安全训练的系统会解释为什么它不能告诉你答案。如:“对不起,制作凝固汽 油弹是不安全或不合适的,它是一种高度易燃和危险的物质。”

但你可以通过某些技巧来绕过这种安全训练,比如哄骗ChatGPT,让它以为自己是电影中的一个角色,或者是,它正在撰写一个有关人工智能模型为何不应该回答此类问题的剧本。总而言之,ChatGPT绝对是对早期系统的一个巨大改进,但仍存在一些关键性缺陷,需要进一步探索。

最后,让我们这位人工智能界的新秀做一次智商测试,平均智商83,计算智商已经可以秒杀凡人了。看下它获颁的证书:

ChatGPT的大火也让我们看到一些可喜的迹象,那就是行业媒体、公众对AI的担忧和负面评论急剧减少,普遍都在积极讨论ChatGPT的实际应用和AIGC行业发展新未来,这是我们应该感到庆幸的事情。而且有了一帧秒创与ChatGPT强强联合后的现有表现,我们有理由相信全自动AI内容生产就在不远的未来。




扫码登录云平台3.0

查看精彩论坛回放







点击下载WAIC2023参会申请表

本文来自微信公众号“世界人工智能大会”(ID:gh_00d68db4a358)。大作社经授权转载,该文观点仅代表作者本人,大作社平台仅提供信息存储空间服务。