谷歌新算法在应对AI“自信满满地胡说八道”这一问题上取得了显著进展。为了改善AI模型在回答问题时可能出现的准确性问题,谷歌的DeepMind团队开发了一款名为SAFE的基于人工智能的应用程序。
SAFE系统能够自动检查大型语言模型(LLMs)给出的答案,并指出其中的不准确之处。该算法首先将LLM提供的答案中的客观事实进行拆分,然后使用谷歌搜索找到可用于验证的网站。随后,它将这两个答案进行比较,以确定答案的准确性。
在测试中,研究团队使用SAFE验证了数万个由多个LLMs给出的事实。与人工事实核查员的结果进行比较后,他们发现SAFE的准确性与人类的结果相符的次数达到了72%。在SAFE与人工核查员之间存在分歧的测试中,研究人员发现SAFE的正确率达到了76%。
这一新算法的推出,反映了谷歌在应对AI生成内容准确性问题上的积极态度和努力。通过结合人工智能和搜索技术,谷歌旨在提高AI模型的可靠性,减少误导性信息的传播,从而为用户提供更准确、更有价值的信息。
然而,尽管SAFE系统在测试中取得了令人鼓舞的结果,但谷歌仍需要继续优化和改进该算法。随着AI技术的不断发展,谷歌需要不断探索新的方法来提高AI模型的准确性和可靠性,以更好地满足用户的需求和期望。
总之,谷歌新算法在应对AI“自信满满地胡说八道”这一问题上取得了积极进展,为提升AI模型的准确性和可靠性提供了新的解决方案。我们期待谷歌在未来能够继续推动AI技术的发展,为用户提供更优质、更可靠的服务。
© 版权声明
文中内容均来源于公开资料,受限于信息的时效性和复杂性,可能存在误差或遗漏。我们已尽力确保内容的准确性,但对于因信息变更或错误导致的任何后果,本站不承担任何责任。如需引用本文内容,请注明出处并尊重原作者的版权。
THE END
暂无评论内容