站長之家(ChinaZ.com) 11月30日 消息:人工智能(AI)解決方案正面臨越來越多的審查,因?yàn)樗鼈冊趲肀憷耐瑫r(shí),也存在著很多消極影響。更具體地說,AI傾向于暴露和加劇現(xiàn)有的社會偏見和不平等。因此,隨著AI的普及,倫理討論成為重點(diǎn)。
與道德相關(guān)的話題是信任。道德是我們做決定和采取行動的指導(dǎo)原則。這些行為準(zhǔn)則反映了什么是正確和公平的核心信念。另一方面,信任反映了我們相信另一個(gè)人或公司是否可靠、正直,并且會按照我們期望的方式行事。
道德和信任是相互獨(dú)立的,也是相輔相成的。
那么,符合道德的AI解決方案天生就值得信任嗎?
環(huán)境是信任的決定因素
當(dāng)然,不道德的制度會產(chǎn)生不信任。然而,道德體系并不一定是絕對可信的。更復(fù)雜的是,不信任一個(gè)系統(tǒng)并不意味著它不會被使用。
支撐人工智能解決方案的功能——機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、計(jì)算機(jī)視覺和自然語言處理——與是否道德、值得信任是無關(guān)的,重要的是它們的應(yīng)用環(huán)境。
例如,使用OpenAI最近發(fā)布的GPT-3文本生成器,利用AI用來撰寫社會評論或食譜,人工智能算法產(chǎn)生宣傳效應(yīng)引發(fā)了擔(dān)憂。比如一個(gè)人工智能專家可以被用以傳播虛假信息,或者影響人類讀者的觀點(diǎn),很多人通常沒有關(guān)注內(nèi)容來源,這種情況既不道德,也不值得信任。
另一方面,如果一個(gè)廚師直接采用人工智能生成的食譜去做菜,而沒有關(guān)注機(jī)器生成的食譜所涉及的道德問題。在這種情況下,信任需要經(jīng)過驗(yàn)證。
消費(fèi)者信任具有主觀性
幾年前,國外調(diào)查公司SAS讓調(diào)查參與者評估他們在從醫(yī)療保健到零售等各種應(yīng)用中使用人工智能的舒適度。但并未提供關(guān)于人工智能算法將如何訓(xùn)練或預(yù)期如何執(zhí)行的信息,等等。有趣的是,他們更信任人工智能來執(zhí)行機(jī)器人手術(shù),而不是人工智能來檢查他們的信用。最初的結(jié)果似乎與直覺相悖,畢竟手術(shù)是生死攸關(guān)的事情。
然而,影響信任的不僅是提議的應(yīng)用程序,還有感知到的意圖。在醫(yī)學(xué)應(yīng)用中,有德和不可信的。但是,一個(gè)完全沒有偏見的應(yīng)用,公平地分配不利的信貸條款,也會招致懷疑。
類似地,用于確定非易腐庫存處置的人工智能算法也不太可能敲響任何道德警鐘。但是商店經(jīng)理會遵從算法的建議嗎?這個(gè)問題的答案在于系統(tǒng)的結(jié)果與人類的目標(biāo)有多接近。當(dāng)人工智能應(yīng)用程序建議的一個(gè)行為(例如,扔掉庫存)與員工的激勵(lì)機(jī)制(例如,最大化銷售——即使是打折)不一致時(shí),會發(fā)生什么?在這種情況下,信任需要的不僅僅是合乎道德的人工智能,還需要調(diào)整經(jīng)理的薪酬計(jì)劃。
將道德與信任區(qū)分開來
最終,倫理可以決定一個(gè)給定的人工智能解決方案能否獲得成功。信任將決定它的采用和實(shí)現(xiàn)價(jià)值。
想要采用人工智能的組織有什么風(fēng)險(xiǎn)呢?根據(jù)研究機(jī)構(gòu)Capgemini2019年的一項(xiàng)研究,75%的消費(fèi)者、員工和公民希望在人工智能提供的服務(wù)中增加透明度,并希望了解人工智能是否公平對待他們(73%)。他們會分享積極的體驗(yàn)(61%),會更忠誠(59%),會從他們信任的公司那里購買更多產(chǎn)品(55%),他們相信這些公司會以道德和公平的方式運(yùn)營人工智能。
另一方面,34%的人會停止與他們認(rèn)為不值得信任的公司互動。再加上2020年5月的一項(xiàng)研究,不到三分之一(30%)的受訪者對企業(yè)使用人工智能與他們互動感到放心。領(lǐng)導(dǎo)者必須打造值得信賴和信任的人工智能系統(tǒng)和企業(yè),而不是僅僅是滿足道德層面的需求。
一家成功的公司將需要一個(gè)策略來實(shí)現(xiàn)這兩者。
(舉報(bào))