(本章内容为大修后的内容。大修前的内容被搬运到了“作者的话”。)
(0.21.复杂故事)
【直接概括,第三次回答:】
这个段落是关于人工智能语言模型ChatGPT与必应聊天版进行比较的一部分内容。
这段内容中,提问者尝试用不同的问题测试ChatGPT的回答质量和能力。在第九次和第十次回答后,提问者指出,ChatGPT的回答没有直接评价三个AI孰优孰劣,大多数的回答都是总结性质的,而且不怎么提起回答中的缺点和不足。
然后提问者开始一个新的实验,问ChatGPT一个关于如何用土豆、植物油和盐制作一顿丰盛的大餐的问题。ChatGPT给出了多种可能的菜肴制作方式。在比较了平衡版必应和准确版必应的回答后,提问者认为ChatGPT的回答在丰富程度和准确程度上优于两者。
接着,提问者尝试了使用GPT-4版本的ChatGPT,问了一个更具挑战性的问题,即要求ChatGPT提供4道开胃菜,6道凉菜,6道热菜,3种主食,以及2款甜品的制作方法,食材依然只有土豆、植物油、盐。GPT-4版本的ChatGPT给出了一份详细的菜单。虽然新版本和旧版本的回答都满足了食材限制,但是新版本的回答在开头和结尾的处理上更胜一筹。
提问者对GPT-4的表现表示满意,并且认为其表现优于之前的GPT-3.5,尽管问题本身可能太基础,不能完全体现出GPT-4和GPT-3.5的差异。
(0.22.土豆、植物油、和盐的23种做法)
【直接概括不成功,出现的问题是把文中出现的GPT-4和微软必应当成了同一个AI。使用了和(0.2)类似的提示词并且表明文中的两个AI不是同一个之后,经过多次提问得到了以下总结:】
在这段内容中,人类用户“运河岛“与AIChatGPT(GPT4)以及“准确版必应“进行了一场对话,测试他们的能力。
首先,运河岛指出了ChatGPT之前为其制定的一份有21道菜的大餐,其中包括了各种不同的烹饪方式以及一些创新性的土豆料理。然后,运河岛询问了如何从只有土豆、盐和植物油这三种食材中做出甜味,ChatGPT修改了之前的错误,并给出了一道类似甜品的“土豆沙拉“建议。
接着,运河岛转向另一个AI——准确版必应,并提出了以《仙剑奇侠传》为背景写一部小说的问题。尽管最初的回答令运河岛感到失望,但是随后准确版必应提供的三个选项——写一个简短的开头、写一个简短的结尾以及写一个简短的情节转折——为运河岛提供了继续测试AI的机会。最终,准确版必应给出了一个简短的故事开头和一个爱情故事。
(0.23.步骤写作)
【直接概括,第一次回答:】
手机版阅读网址:77kkan.com