Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了281,535,271字

最近回复

该文章投稿至Nemo社区   资讯  板块 复制链接


GPT-4 惨遭削弱,偷懒摸鱼绝不多写一行代码,OpenAI 已介入调查

发布于 2023/11/29 15:09 120浏览 0回复 2,480

GPT-4 再次遭网友“群攻”,原因是“懒”得离谱!

有网友想在 Android 系统开发一个能够与 OpenAI API 实时交互的应用。

于是把方法示例链接发给 GPT-4,让它参考用 Kotlin 语言编写代码:

没成想,和 GPT-4 一来二去沟通半天,GPT-4 死活给不出一个能正常运行的完整代码

反而解释了一通“应该怎么做”。

这让网友着实恼火,发推文吐槽“两周前能写好的代码,现在却不行了”。

结果一下子炸出来更多网友:

终于有人调查这事儿了。

大伙儿连连表示遇到了类似问题:

据网友所述,似乎从 11 月 6 日 GPT-4 大更新起,就开始出现这种情况了。

目前有 OpenAI 员工出面回应,表示已将问题反馈给团队

只要代码,完整代码!

也难怪网友会“破防”,就说上面网友把方法示例链接发给 GPT-4,让它用 Kotlin 语言编写代码之后。

GPT-4 给出的回复是这样婶儿的,足足列了 7 条步骤,都在解释“应该怎么做”:

直到最后才给出代码,但只是一个基础“模版”:

网友起初还比较有耐心,告诉它“不需要解释,只要给我代码,完整的代码,能 100% 正常运行的代码”:

结果 GPT-4 张口又在解释、举例子:

网友气不打一处来,直接打断它,并再次强调“不要解释,给我代码”:

GPT-4 这下可是真真明白了,把上面那个模版稍微改动了一下,就发出来了:

这才有了开头的一幕,网友无奈发帖吐槽。

对于 GPT-4 的回复,网友“怒吼”了一句:他们都对你做了什么?抱歉你被削弱了。

GPT-4 此刻也是一脸无辜🥺。

陆陆续续出来吐槽的网友中,更有甚者表示已经不用 ChatGPT 了。

AI 图像编辑器 dingboard CEO@kache (yacine) 在前一天也发帖吐槽,浏览量达 157000+:

在过去的一个半星期里,我一直在编写“幼稚”的代码,因为 GPT-4 不那么遵循指令了。

巧了不是,如果按网友所说的“一个半星期”来算,时间还和奥特曼・真还传事件吻合了

kache (yacine) 还有一条帖子满满都是情绪,“请把旧的 GPT-4 还给我”:

这位网友表示“我懂你”:

以前它能做出很好的猜测,现在它会给我十个理由解释为什么它不能做出好的猜测。

上周,我对着聊天框大喊“f*ing do it!!”的次数创下历史新高。

一时间,GPT-4 的“懒惰”成为众多网友“讨伐”对象。

沃顿商学院教授 Ethan Mollick 也看不下去了,亲自上手测试了一下,结果似乎表明这是真的。

Ethan Mollick 重复了一系列之前用代码解释器(Code Interpreter)做过的分析。

GPT-4 虽然知道该怎么做,但会一直提示“去完成工作”。导致原本的一个步骤变成了许多步骤,而且有些步骤很奇怪。

这下 Ethan Mollick 也是无语住了。

GPT-4 到底是怎么了?背后原因还不得而知,网友们也是纷纷猜测起来。

OpenAI 员工:已反馈给团队

Ethan Mollick 还是很严谨,认为即便如此也不足以证明 GPT-4 变得越来越笨了,他推测这可能是系统负载过高的暂时问题。

如果你是在手机(移动设备)上遇到了这种问题,那可能是因为手机版系统提示的原因,会指示 ChatGPT 生成更简短精要的答案。

我的测试是在网页版进行的。

Reddit 上也有人发文讨论,其中有一篇帖子指出“并不是新版 GPT-4 懒,只是我们用错了”:

文中指出,GPT-4 自本月 6 号进行了一次大更新后,基础版本没有自定义提示,这就导致 GPT-4 没有预定义的“路径”来指导其行为。

这让它非常通用,但默认设置下它的输出也有些“无方向”。

解决办法之一,就是使用更新后提供的自定义 GPT 新功能(GPTs),为每项工作设置一个专门的 GPT。

也相继有网友分享“小妙招”:

新版 GPT-4 改变游戏规则的一点是它能一次性解释的代码量。明确地说出类似“请完整地写出这个测试”的指令,可能会有用。

同时,明确指出“不要重写已经写过的代码”也很有帮助,这样可以节省 token,让模型专注于产生新的输出。

我还发现,加入“一步一步思考”的提示会在开始时增加一些计划性的文本,这有助于后续输出更好地定位上下文。

但也有网友表示自己在用的时候,无论如何都会留下一些“待办事项”:

这位网友更是直言 GPT-4 现在像是得了老年痴呆:

OpenAI 暗示的是新版 GPT-4 非常善于遵循指令,但事实并非如此。

我从一开始就一直在使用 GPT-3、3.5 再到后来的 4,从未见过这种程度的阿尔茨海默症。

在网友的激烈吐槽下,OpenAI 员工也出面回应。

起初是让网友们提供一些具体的例子,说是研究一下,很有可能在下次模型版本迭代中修补这些问题。

此话一出,炸出更多网友“上报故障”。

will depue 再次回应:

感谢反馈,在这里的所有示例都会帮助我们更快地解决这个问题。我刚刚将其转发给团队,后续消息会及时通知。

看来官方后续回应还要再等一波,家人们最近有遇到类似情况吗?

参考链接:

  • [1]https://twitter.com/erhartford/status/1729566883350012038

  • [2]https://chat.openai.com/share/38e5ec71-a155-4d92-a85c-4b9e598a07fb

  • [3]https://x.com/emollick/status/1729358803425001702?s=20

本文来自微信公众号:量子位 (ID:QbitAI),作者:西风

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/735/855.htm]

点赞(0)
点了个评