谷歌推出新算法,精准应对AI“自信过头”的误导性回答

谷歌新算法在应对AI“自信满满地胡说八道”这一问题上取得了显著进展。为了改善AI模型在回答问题时可能出现的准确性问题,谷歌的DeepMind团队开发了一款名为SAFE的基于人工智能的应用程序。

图片[1]_谷歌推出新算法,精准应对AI“自信过头”的误导性回答_知途无界

SAFE系统能够自动检查大型语言模型(LLMs)给出的答案,并指出其中的不准确之处。该算法首先将LLM提供的答案中的客观事实进行拆分,然后使用谷歌搜索找到可用于验证的网站。随后,它将这两个答案进行比较,以确定答案的准确性。

在测试中,研究团队使用SAFE验证了数万个由多个LLMs给出的事实。与人工事实核查员的结果进行比较后,他们发现SAFE的准确性与人类的结果相符的次数达到了72%。在SAFE与人工核查员之间存在分歧的测试中,研究人员发现SAFE的正确率达到了76%。

这一新算法的推出,反映了谷歌在应对AI生成内容准确性问题上的积极态度和努力。通过结合人工智能和搜索技术,谷歌旨在提高AI模型的可靠性,减少误导性信息的传播,从而为用户提供更准确、更有价值的信息。

然而,尽管SAFE系统在测试中取得了令人鼓舞的结果,但谷歌仍需要继续优化和改进该算法。随着AI技术的不断发展,谷歌需要不断探索新的方法来提高AI模型的准确性和可靠性,以更好地满足用户的需求和期望。

总之,谷歌新算法在应对AI“自信满满地胡说八道”这一问题上取得了积极进展,为提升AI模型的准确性和可靠性提供了新的解决方案。我们期待谷歌在未来能够继续推动AI技术的发展,为用户提供更优质、更可靠的服务。

© 版权声明
THE END
喜欢就点个赞,支持一下吧!
点赞29 分享
评论 抢沙发
头像
欢迎您留下评论!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容