Google近日对其《生成式AI禁止使用政策》进行了更新,明确表示客户在特定条件下,可以在诸如就业、住房、保险及社会福利等“高风险”领域利用Google的生成式AI技术作出可能对个人权利产生重大影响的自动化决策。这一决策的实施前提是必须伴有某种形式的人类监督。
所谓自动化决策,指的是AI系统依据事实数据或数据推断来作出的决策行为。举例来说,AI系统可能会根据贷款申请人的资料来决定是否批准其贷款申请,或是在招聘过程中筛选合适的求职者。
值得注意的是,Google此前的条款草案曾提议全面禁止涉及生成式AI的高风险自动化决策。然而,Google向TechCrunch透露,实际上其生成式AI技术从未完全禁止过高风险领域的自动化决策应用,只要这些决策过程中存在人工监督即可。
Google强调:“人工监督的要求一直存在,并且适用于所有高风险领域。”此次政策更新,Google只是对相关条款进行了重新分类,并列举了更为具体的实例,旨在帮助用户更好地理解和应用这些规定。
与此同时,监管机构对于AI在自动化决策中可能存在的潜在偏见问题表示了深切关注。有研究表明,用于信用和抵押贷款审批的AI系统可能会加剧历史上存在的歧视性问题。因此,在利用AI进行高风险自动化决策时,确保决策过程的公正性和透明度显得尤为重要。
Google此次政策更新为在人工监督下利用AI进行高风险自动化决策提供了明确指导,同时也提醒用户在使用过程中需关注AI决策的公正性和潜在风险。