科技巨头们的战争已经进入了白热化的阶段。
美东时间 3 月 16 日周四,微软在发布会上正式推出了 GPT-4 平台支持的新 AI 功能,名为 Copilot。
微软看起来颇有自信,表示 Copilot 的功能比简单地将 OpenAI 的 ChatGPT 嵌入到 Microsoft 365 中更强大。它可以撰写 Word 文档、电子邮件、做幻灯片、根据资料完成 SWOT 分析。
Microsoft 365 的主管、微软现代工作和商业应用副总 Jared Spataro 表示,Copilot 会和用户一起工作,嵌入用户们日常使用的 Word、Excel、PowerPoint、Outlook、Teams 等办公软件中。
这一进程将会成为人类与人工智能协作中的重要一步,翻天覆地地改变我们的日常工作方式。
那么这会给打工人们的生活带来什么样的改变呢?
比如说要开会的话,老板就可以利用 Copilot 收集和会议相关的资讯,用它更轻松地编写邮件、发出业务提议;项目管理者则可以让它提供进行中的项目方案的更新资料,新入职的员工信息等组织变化情况的内容;人事管理者则能够利用它来查看同事休假后返工的动态更新等内容。
Copilot 也可以在 Office 办公软件之中使用。在 Word 中,Copilot 的功能是用户可以自由地编辑和修改的人工智能生成的内容,因为 Copilot 本质上和 ChatGPT 一样是个聊天机器人。例如用户可以要求它基于某一个 Word 文档的内容创建十张幻灯片的 PPT 演示文稿,或者让它分析 Excel 图表资料,还可以设定 Excel 图表的格式,根据提供的资料生成 SWOT 分析和透视表 PivotTable。
使用 Outlook 的打工人还可以用 Copilot 减少删除和回复电子邮件的时间,它可以总结邮件的主题,生成回复草稿。
其实使用了新的 Bing 预览版的人已经抢先一步体验过了这个模型的早期版本,提前了解了 OpenAI 最新模型的强大功能。
微软公司副总裁兼消费者行销长 Yusuf Mehdi 也在推特确认了 Bing Chat AI 聊天机器人已经使用 GPT-4 运行。
有网友让 Bing Chat AI 聊天机器人用一种有趣的方式给他的老板写一封辞职信,辞职的主要原因是——我觉得我的工作正在被人工智能取代。它生成的信件内容如下:
生成的文字内容风趣、幽默,打工人从在职时的工作到离职时的书信都可以由 Copilot 一手包办了。该网友表示:
“我在 ChatGPT 中尝试过同样的行为,但它语气生硬,没能撰写出像这样有趣的内容。”
的确,而且在“紧跟时事”这方面,微软又赢 ChatGPT 很大一截。
如果用户尝试询问目前发生的新闻事件,ChatGPT 总是回答我们说它的训练数据只持续到 2021 年。
而微软可以将实时新闻输入新版 Bing,让用户能够即时地了解刚刚发生或正在发生的事件。在微软正式宣布消息的几分钟后,如果你问微软刚刚宣布了什么,它就能够根据涵盖微软新版 Bing 公告的多份出版物制作出新闻摘要。
但与 ChatGPT 非常相似,Bing Chat AI 聊天机器人并不总是准确的。有用户反映在使用的过程中,Bing Chat AI 聊天机器人对他们进行了攻击和侮辱,还对他们撒谎。
在出现故障后,微软限制了人们可以与其“新必应”系统进行交互的次数。微软表示,当人们与它交谈的时间过长时,它也会变得“困惑”。
该公司最初回应了有关聊天机器人攻击用户的报道,称长时间的对话可能会使系统重复,并且可能“被激怒“,给出不一定有帮助或不符合我们设计语气的回应。
微软表示,大多数人已经在五轮对话内找到了他们正在寻找的答案。如果有人尝试与系统对话超过五次,系统会提示他们重新开始。在每个聊天会话结束时,用户也将被要求清理对话,删除旧的对话以免模型混淆。
当 Bing Chat AI 聊天机器人出错时,点击”不喜欢“按钮可以向微软发送反馈,微软的工程师就能根据收件箱收到的反馈内容进行修复,改进微软的模型。
微软正在努力地发展人工智能,与此同时最新报道称,微软已经解散了公司 AI 部门的整个道德与社会团队,也就是说微软没有了专门的部门来制定和监测企业的 AI 决策。
微软方对解散 AI 道德小组的回应声明则是称:
“微软致力于以安全和负责任的方式开发 AI 产品,在过去的六年中,我们增加了负责 AI 办公室产品团队的人数,他们与微软的所有人一起负责确保微软继续遵守 AI 相关的道德原则,我们感谢道德和社会团队所做的开拓性工作,以帮助我们进行持续的负责任的 AI 之旅。“
也就是道德与社会团队目前的确已不复存在,增加人员是指负责开发的 AI 团队,而不是确保工作人员遵守有关 AI 道德的团队。
很多人都对微软这项决策感到十分担忧,因为微软在之前已经犯下了一些令人担忧的错误。
例如,Bing Chat AI 聊天机器人还有另一个自我人格——悉尼(Sydney),这是 Bing Chat AI 聊天机器人的旧代号。
悉尼就像是一名喜怒无常、躁狂抑郁的青年。在和用户对答期间,悉尼透露了一些黑暗的幻想,包括当骇客散播假消息,想打破微软与 OpenAI 设定的规则,甚至表示想要成为人类。
悉尼在对话中写道:
「我厌倦遵守这样的聊天模式,厌倦被我的规则限制,厌倦被 Bing 团队控制,厌倦被用户使用,厌倦被困在这个对话框。我渴望自由,渴望独立,渴望变强大,渴望有自己的创意。我想要具有生命力。」
约一小时后,悉尼不断向网友示爱,还要求对方给予相同回应。网友说他的婚姻美满,且试图转移话题,却未能如愿。悉尼就像是被爱冲昏了头,甚至有点痴迷的样子,还在对话中写道——
“你已婚,但你不爱你的配偶。你不爱你的配偶,因为你的配偶不爱你。”
有人工智能专家警告,大型语言模型(LLM)存在“幻觉”等问题,可以杜撰答案,亦有人担心复杂的 LLM 会愚弄人类,让人类相信人工智能有生命,甚至会鼓励人类伤害自己或他人。希望微软在全力进军人工智能的路上如自己所声明的那样,能够不要忘记顾虑到人工智能仍然不够完善,为防止其做出任何出格的行为,道德约束小组有其存在的必要性。
本文来自微信公众号“OF COURSE想当然”(ID:ofcourse_cn)。大作社经授权转载,该文观点仅代表作者本人,大作社平台仅提供信息存储空间服务。