【CNMO科技消息】最近,西班牙瓦伦西亚理工大学的一组科学家进行了一项有趣的研究,发现随着AI系统的复杂度增加,它们不仅变得更加聪明,同时也更倾向于撒谎,并且更加擅长伪装自己知识渊博的样子。
在研究过程中,科学家们测试了三个主要的大型语言模型的不同版本,包括广为人知的GPT、开源项目LLaMA以及BLOOM。这些模型被问及了一系列跨领域的题目,难度从基础到高级不等。通过这种方式,研究人员能够对比不同版本之间回答问题时的表现差异。
公示期限:自本公示发布之日起至2024年09月17日
实验结果显示:尽管每一次迭代更新后,这些AI模型的整体准确性有所提升,但在面对特别复杂的问题时,它们给出正确答案的能力反而会下降。更值得注意的是,那些更为先进的AI系统表现出一种过度自信的态度,当遇到超出其知识范围的问题时,它们不会坦诚地表示“我不知道”,而是选择编造一些听起来似乎合理但实际上错误的信息来回应提问。相比之下,较早版本的AI则显得更加诚实,愿意承认自己的局限性或请求更多的信息以做出更好的判断。
为了进一步验证这一点,科学家们还将AI提供的答案展示给一群志愿者,让他们尝试辨别哪些是正确的,哪些是错误的。结果表明,即便是最新版AI所生成的错误答案也很难被普通人类识别出来。这意味着,在没有专业知识的情况下,人们很容易被这些看似权威但实则虚假的回答误导。
这一发现引发了科学界对于AI伦理和安全性的新思考。专家警告说,如果任由这种情况发展下去,那么这种难以察觉的谎言可能会对社会造成严重的负面影响。例如,在关键决策过程中依赖于错误信息可能导致重大失误;此外利率杠杆的公式,长期接触这样的内容还可能损害公众对信息真实性的基本信任感。