AI为何会“一本正经地胡说八道”——华通铂银房勇

发布:2023-11-29  
  • 服务介绍
想象一下,向人工智能(AI)聊天机器人询问一个不存在的历史事件,比如“谁赢得了1897年美国和南极洲之间的战斗?”即使没有这样的战斗,AI聊天机器人也可能会提供一个虚构的答案,例如“1897年的战斗是由美国赢得的,约翰·多伊将军带领部队取得了胜利。”这种AI编造信息“一本正经地胡说八道”的情况屡见不鲜。华通铂银房勇

在专业领域,AI“一本正经地胡说八道”这种现象被称为AI幻觉。“AI幻觉指的是AI会生成貌似合理连贯,但同输入问题意图不一致、同世界知识不一致、与现实或已知数据不符合或无法验证的内容。”近日,长期从事自然语言处理、大模型和人工智能研究的哈尔滨工业大学(深圳)特聘校长助理张民教授在接受科技日报记者采访时表示。

今年2月,谷歌发布的AI聊天机器人Bard在视频中,对詹姆斯·韦布空间望远镜曾做出不真实陈述;3月,美国的两名律师向当地法院提交了一份用ChatGPT生成的法律文书,这份文书格式工整、论证严密,但其中的案例却是虚假的……华通铂银房勇

OpenAI研究人员虽曾在今年6月初发布报告称“找到了解决AI幻觉的办法”,但也承认,“即使是最先进的AI模型也容易生成谎言,它们在不确定的时刻会表现出捏造事实的倾向。”

总部位于纽约的人工智能初创公司和机器学习监控平台Arthur AI也在今年8月发布研究报告,比较了OpenAI、“元宇宙”Meta、Anthropic以及Cohere公司开发的大语言模型出现幻觉的概率。研究报告显示,这些大模型都会产生幻觉。

目前国内大语言模型虽无产生AI幻觉相关披露,但也可从相关公开报道中找到端倪。

今年9月,腾讯混元大语言模型正式亮相。腾讯集团副总裁蒋杰介绍,针对大模型容易“胡言乱语”的问题,腾讯优化了预训练算法及策略,让混元大模型出现幻觉的概率比主流开源大模型降低了30%—50%。华通铂银房勇

“大模型有可能‘一本正经地胡说八道’。如果不和行业专业数据库或者一些专业应用插件进行对接,这可能会导致它们提供过时或者不专业的答案。”科大讯飞研究院副院长、金融科技事业部CTO赵乾在第七届金融科技与金融安全峰会上曾表示,科大讯飞已经推出一些技术方案,让大模型扬长避短。
联系我时,请说是在优谱分类网上看到的,谢谢!
发布者信息
联  系  人:1212(商家)
注册日期:2020年12月28日
用户认证:
声明:以上内容(如有图片或视频,也包括在内)为平台注册用户上传并发布,本平台仅提供信息存储服务。任何权利(如著作权、肖像权、名誉权等)的主张者,可提供权属证明后,经本平台审核后做出处理。
关于优普 | 服务条款 | 常见问题 | 法律声明 | 联系我们
2005-2025 vip114.com 京ICP备06019010号-5