谷歌通過更新使用政策的形式明確表示,只要有人工監(jiān)督,客戶可以在“高風(fēng)險”領(lǐng)域(如醫(yī)療保健)使用其生成式人工智能工具來作出“自動決策”。
根據(jù)該公司周二發(fā)布的《生成式 AI 禁止使用政策》更新版,客戶可以在一定條件下使用谷歌的生成式 AI 作出可能對個人權(quán)利產(chǎn)生重大不利影響的“自動化決策”,例如在就業(yè)、住房、保險和社會福利等領(lǐng)域。這些決策只要在某種形式上有人類監(jiān)督,就被允許實(shí)施。
注:在人工智能領(lǐng)域,自動化決策是指 AI 系統(tǒng)基于事實(shí)或推斷數(shù)據(jù)作出的決策。例如,AI 可能會根據(jù)申請人的數(shù)據(jù)作出是否批準(zhǔn)貸款的決定,或者篩選求職者。
谷歌之前的條款草案表示,涉及生成式 AI 的高風(fēng)險自動化決策應(yīng)當(dāng)全面禁止。但谷歌向外媒 TechCrunch 透露,其生成式 AI “實(shí)際上從未禁止”過高風(fēng)險領(lǐng)域的自動化決策,前提是有人工監(jiān)督。
谷歌發(fā)言人在接受采訪時表示:“人工監(jiān)督要求一直存在,適用于所有高風(fēng)險領(lǐng)域!彼a(bǔ)充說:“我們只是對條款進(jìn)行了重新分類,并更清楚地列舉了一些具體例子,目的是讓用戶更加明了!
針對那些影響個人的自動化決策,監(jiān)管機(jī)構(gòu)對 AI 的潛在偏見表示關(guān)切。例如,研究顯示,用于審批信用和抵押貸款申請的 AI 系統(tǒng)可能會加劇歷史上存在的歧視問題。
報道稱,因?yàn)樽詣記Q策系統(tǒng)可能會影響到個體,監(jiān)管機(jī)構(gòu)對此類人工智能系統(tǒng)的潛在偏見問題表示關(guān)注。研究表明,用于信用和抵押貸款審批的人工智能系統(tǒng)可能會加劇歷史上的歧視問題。