人工智能效用函数和利益相关者的经济价值
理想情况下,AI 效用函数应与受 AI 系统影响的利益相关者的经济价值保持一致。在实践中,设计一个最大化所有利益相关者整体效用的人工智能效用函数是不可能的。不同的利益相关者可能有不同的偏好、价值观、目标和期望的结果,这可能会与其他利益相关者的偏好、价值观、目标和期望的结果发生冲突。例如,优化环境可持续性的人工智能系统可能不是经济增长的最佳选择。
因此,在设计 AI 效用函数时,必须仔细考虑不同利益相关者的经济价值。这涉及在构建 AI 效用函数时了解主要利益相关者的偏好、目标和期望的结果,以平衡相互冲突的目标之间的权衡。平衡不同利益相关者的经济价值的冲突是导致健康的 AI 效用函数的原因(图 2)。
图2 :经济价值定义轮
将不同利益相关者的冲突效用值纳入 AI 效用函数对于构建能够适应和适应不断变化的环境的健康 AI 模型至关重要。人工智能系统需要考虑不同利益相关者的不同利益和目标(经济价值),并在人工智能模型与其运行环境交互时不断寻求平衡这些经济价值之间的权衡。