但利用当前的 ai 模型实现这一目标并非易事。计算和存储成本、延迟考虑因素,甚至算法限制,都是我们努力构建具有丰富、强大内存和注重细节的自主 ai 系统的复杂因素。我们也学习;想想我们自然地从所见所闻中“修剪”不必要的细节的方式,只保留我们认为未来最相关的细节,而不是尝试不合理的蛮力记忆。无论是会议、课堂讲座,还是与朋友的对话,人类都非常擅长将几分钟甚至几小时的信息压缩成几个关键要点。人工智能助手需要具备类似的能力。我相信进展令人鼓舞,即使在我 salesforce 自己的研究团队中,克服这些挑战也是一项令人兴奋的长期努力。
接下来,比人工智能助手或人工智能代理的记忆深度更重要的是,我们能否信任它产生的结果。尽管生成式人工智能拥有非凡的力量,但它仍然经常受到可靠性问题的困扰,因为“幻觉”等术语已经进入了公共词汇。然而,从本质上讲,幻觉并不神秘——当模型既缺乏准确回答问题所需的信息,又缺乏对其知识中存在此类差距的认识时,就会出现幻觉。人工智能助手或人工智能代理的持续学习倾向将在帮助解决这些差距方面发挥作用,但在此过程中还必须做更多工作。一种衡量标准是,为 llm 输出分配置信度分数的新兴做法,这有 telegram 印尼 助于用户评估其在多大程度上可以信以为真。此外,检索增强生成(rag) 是越来越多的技术之一,它允许人类通过将相关信息与每个请求(例如,一组相关文档或知识库条目,与以某种方式处理或回答有关其内容的问题的请求配对)结合起来,主动解决 llm 缺乏信息的问题,从而确保模型从一开始就拥有所需的资源。
我认为道德考量同样复杂。例如,这种自主人及人工智能代理团队的出现是否会带来对全新协议和规范的需求?具体来说,这些代理和团队应该如何相互交流?他们应该如何建立共识、解决争议和歧义,并对既定的行动方针建立信心?我们如何校准他们对风险的容忍度或对相互冲突的目标(如时间与金钱的支出)的处理方式?无论他们看重什么,我们如何确保他们的决策最大程度透明,并在出现我们不喜欢的结果时易于审查?简而言之,在如此复杂的自动化世界中,问责制是什么样的?