站長(zhǎng)之家(ChinaZ.com) 11 月 24 日消息:OpenAI 正在資助學(xué)術(shù)研究,探索能夠預(yù)測(cè)人類道德判斷的算法。
根據(jù)向美國(guó)國(guó)稅局(IRS)提交的文件,OpenAI Inc.(OpenAI 的非營(yíng)利機(jī)構(gòu))披露,它向杜克大學(xué)研究人員提供了一筆資助,用于一個(gè)名為「研究 AI 道德」的項(xiàng)目。根據(jù)一份新聞稿,這筆資助是一個(gè)更大規(guī)模的三年期項(xiàng)目的一部分,總金額為 100 萬(wàn)美元,旨在支持杜克大學(xué)教授研究「構(gòu)建道德 AI」。
關(guān)于 OpenAI 資助的這項(xiàng)「道德」研究,目前公開的信息很少。已知該資助將持續(xù)到 2025 年。杜克大學(xué)的實(shí)用倫理學(xué)教授、項(xiàng)目首席研究員沃爾特·西諾特-阿姆斯特朗(Walter Sinnott-Armstrong)通過(guò)電子郵件告訴《TechCrunch》,他「無(wú)法談?wù)摗惯@項(xiàng)研究?jī)?nèi)容。
西諾特-阿姆斯特朗和該項(xiàng)目的共同研究員賈娜·博格(Jana Borg)發(fā)表了多篇關(guān)于 AI 在道德指導(dǎo)方面潛力的研究,并合著了一本書。他們?cè)鴧⑴c開發(fā)一種「道德對(duì)齊」算法,用于幫助決定腎臟移植接受者,并研究了人們?cè)诤畏N情況下更愿意讓 AI 做出道德決策。
根據(jù)新聞稿,OpenAI 資助的研究目標(biāo)是訓(xùn)練算法,在醫(yī)學(xué)、法律和商業(yè)等領(lǐng)域,預(yù)測(cè)人類在「涉及道德相關(guān)特征沖突」的情境下的道德判斷。
然而,像道德這樣復(fù)雜的概念是否能被當(dāng)今技術(shù)所掌握,仍然存在很大爭(zhēng)議。
2021 年,非營(yíng)利機(jī)構(gòu)艾倫人工智能研究所開發(fā)了一種名為 Ask Delphi 的工具,旨在提供符合倫理的建議。它在處理基本道德困境方面表現(xiàn)尚可,例如能夠「知道」作弊是錯(cuò)誤的。但只需稍微改寫問(wèn)題,Delphi 就可能認(rèn)可幾乎任何行為,包括窒息嬰兒。
這與現(xiàn)代 AI 系統(tǒng)的工作原理有關(guān)。
機(jī)器學(xué)習(xí)模型本質(zhì)上是統(tǒng)計(jì)工具。通過(guò)對(duì)來(lái)自網(wǎng)絡(luò)的大量數(shù)據(jù)樣本進(jìn)行訓(xùn)練,它們學(xué)習(xí)這些樣本中的模式,并據(jù)此作出預(yù)測(cè)。然而,AI 并不具備對(duì)倫理概念的真正理解,也無(wú)法掌握影響道德決策的推理和情感。
這導(dǎo)致 AI 往往反映發(fā)達(dá)國(guó)家的價(jià)值觀,因?yàn)榫W(wǎng)絡(luò)內(nèi)容和訓(xùn)練數(shù)據(jù)主要由這些視角主導(dǎo)。因此,AI 的回答并不能反映許多人的價(jià)值觀,特別是那些未通過(guò)網(wǎng)絡(luò)表達(dá)的人群。此外,AI 還會(huì)吸收多種偏見。例如,Delphi 認(rèn)為異性戀比同性戀更「道德可接受」。
OpenAI 及其資助的研究團(tuán)隊(duì)面臨的挑戰(zhàn)在于,道德具有極大的主觀性。哲學(xué)家們數(shù)千年來(lái)一直在爭(zhēng)論各種倫理理論的優(yōu)劣,至今沒(méi)有普遍適用的框架。
Claude 傾向于康德主義(注重絕對(duì)道德規(guī)則),而 ChatGPT 稍微偏向于功利主義(優(yōu)先考慮最大多數(shù)人的最大利益)。究竟哪種更優(yōu)越?答案因人而異。
要開發(fā)出能夠預(yù)測(cè)人類道德判斷的算法,需要綜合考慮這些因素。這是一個(gè)極高的挑戰(zhàn)——即使假設(shè)這樣的算法能夠?qū)崿F(xiàn)。
但如果能做到這一點(diǎn),其影響可能是深遠(yuǎn)的,它將影響我們?nèi)绾卧诘赖聸Q策中信任機(jī)器。目前,世界可能要等到 2025 年,也就是這項(xiàng)基金結(jié)束時(shí),才能知道這個(gè)「人工智能道德」項(xiàng)目是否取得了突破性進(jìn)展。
(舉報(bào))