在人工智能(AI)不斷發(fā)展的浪潮中,企業(yè)的成敗在很大程度上取決于其是否能夠妥善利用這項(xiàng)顛覆性技術(shù)。霍尼韋爾(Honeywell)CEO柯偉茂曾指出,不積極采用AI的公司將面臨“末日”,但這僅揭示了問題的冰山一角。實(shí)際上,有其他多種類型的公司因未能理解和應(yīng)用AI而走了彎路。
在人工智能(AI)不斷發(fā)展的浪潮中,企業(yè)的成敗在很大程度上取決于其是否能夠妥善利用這項(xiàng)顛覆性技術(shù)。霍尼韋爾(Honeywell)CEO柯偉茂曾指出,不積極采用AI的公司將面臨“末日”,但這僅揭示了問題的冰山一角。實(shí)際上,有其他多種類型的公司因未能理解和應(yīng)用AI而走了彎路。
沒有批判能力,被AI牽著鼻子走的公司
許多公司因盲目跟隨AI潮流而喪失了技術(shù)的自主性,最終陷入AI技術(shù)失誤的陷阱。例如,世界上最大的零售商、也是世界上最大的企業(yè)沃爾瑪(Walmart)曾在某個門店試驗(yàn)AI技術(shù),試圖通過實(shí)時監(jiān)控來優(yōu)化庫存管理,但因過度依賴AI算法而忽視了實(shí)際庫存需求,結(jié)果出現(xiàn)了庫存短缺或積壓的問題。
某些金融公司在風(fēng)險(xiǎn)評估中完全依賴AI模型,導(dǎo)致在系統(tǒng)性風(fēng)險(xiǎn)爆發(fā)時難以應(yīng)對,最終釀成大規(guī)模損失。這樣的例子揭示了在AI驅(qū)動下,企業(yè)需要自主決策和技術(shù)監(jiān)督能力,而不是被AI牽著鼻子走。批判能力不足的公司很容易依賴AI算法的結(jié)論而忽視現(xiàn)實(shí)需求,導(dǎo)致決策的僵化。
正如麻省理工學(xué)院的著名教授達(dá)隆·阿西莫格魯(Daron Acemoglu)表示,如今的大型語言模型(如OpenAI的ChatGPT)在許多方面都令人印象深刻。那么為什么它們不能在許多工作中取代人類,或者至少為人類提供很大幫助呢?他指出,可靠性問題以及缺乏人類級別的智慧或判斷力,將使人們不太可能在短期內(nèi)將許多白領(lǐng)工作外包給人工智能,人工智能也無法使建筑或清潔等體力工作自動化。
加州大學(xué)伯克利分校教授斯圖爾特·羅素(Stuart Russell)指出:“技術(shù)在驅(qū)動商業(yè)決策時,不能缺乏人類的監(jiān)督和審視,否則將陷入技術(shù)的盲從?!?/p>
以偏概全,看不到AI弱點(diǎn)的公司
AI的弱點(diǎn)體現(xiàn)在數(shù)據(jù)偏見、模型脆弱性和透明度上。全球最大的互聯(lián)網(wǎng)在線零售商亞馬遜(Amazon)曾因招聘算法而備受指責(zé),其AI招聘系統(tǒng)在性別上存在偏見,傾向于篩選出男性候選人。亞馬遜最終放棄了這套算法,但也暴露了AI弱點(diǎn)對公司造成的聲譽(yù)損失。一味夸大AI的能力而忽視其弱點(diǎn)的公司,未來或?qū)⒚媾R員工流失、公眾質(zhì)疑和監(jiān)管風(fēng)險(xiǎn)。
過度依賴AI且忽視其局限性也是企業(yè)常犯的錯誤之一。
例如,目標(biāo)分析侵犯了消費(fèi)者隱私權(quán)案例,零售業(yè)巨頭、美國第二大零售商塔吉特(Target)曾因算法決策失誤而在市場中遭遇危機(jī),損害了品牌聲譽(yù)。2012年,塔吉特的營銷部門開始考慮如何確定顧客是否懷孕,開啟了一個“識別孕婦”項(xiàng)目,因?yàn)樵谏哪承r期——其最重要的是懷孕——人們最有可能從根本上改變他們的購買習(xí)慣。如果塔吉特能在那個時期接觸到客戶,它就可以在這些客戶身上培養(yǎng)新的購買行為,讓她們轉(zhuǎn)向塔吉特購買雜貨、衣服或其他商品。這個項(xiàng)目帶來了社會風(fēng)險(xiǎn),譬如,導(dǎo)致該零售商無意中向一個十幾歲女孩的家人透露她懷孕了,從而讓其中一些客戶感到毛骨悚然。無數(shù)的案例表明,企業(yè)若忽視AI的弱點(diǎn),將難以應(yīng)對未來的不確定性和市場需求的多樣化。
2024年度諾貝爾經(jīng)濟(jì)學(xué)獎得主、麻省理工學(xué)院教授西蒙·約翰遜(Simon Johnson)指出:“我們建議人們可以重回共享繁榮的道路,重新利用技術(shù)造福所有人,提高生產(chǎn)力。但不能以目前我們對機(jī)器智能的癡迷形式來進(jìn)行。我們認(rèn)為,這正在破壞全世界的繁榮。”
把AI帶來的風(fēng)險(xiǎn)轉(zhuǎn)嫁給公眾的公司
一些公司在享受AI帶來的利益的同時,將風(fēng)險(xiǎn)轉(zhuǎn)嫁給了公眾,尤其是在數(shù)據(jù)隱私和安全方面。社交媒體巨頭Facebook(現(xiàn)名稱:Meta)因涉嫌泄露數(shù)百萬用戶數(shù)據(jù)的“劍橋分析丑聞”而受到了全球公眾的抨擊。該事件不僅使Facebook的股價急跌(其市值在一天之內(nèi)就蒸發(fā)了364億美元),還讓公司失去了部分用戶的信任,飽受批評,公眾信任度顯著下降。
有專家指出,若公司繼續(xù)以公眾為代價謀求利益,將面臨越來越嚴(yán)苛的法律監(jiān)管和用戶的反感。一位國際隱私專家呼吁,企業(yè)應(yīng)承擔(dān)起數(shù)據(jù)安全的責(zé)任,而不是將風(fēng)險(xiǎn)無償轉(zhuǎn)嫁給用戶。當(dāng)今,AI應(yīng)用帶來的數(shù)據(jù)隱私和安全風(fēng)險(xiǎn)日益突出。未來,一些公司將因?yàn)楹鲆暪娎娑媾R監(jiān)管壓力、聲譽(yù)危機(jī)和法律風(fēng)險(xiǎn)。
公司必須承擔(dān)必要的社會責(zé)任,以維護(hù)社會的均衡,而不是一味地“趨利推害”。2019年度諾貝爾獎得主、麻省理工學(xué)院教授阿比吉特·巴納吉(Abhijit Banerjee)警告說,雖然技術(shù)使生活的某些方面更加便利,但并不一定使人們更幸福。人們在沒有工作的情況下很難找到自己的位置。巴納吉還強(qiáng)調(diào),在技術(shù)不斷重塑勞動市場的同時,需要考慮技術(shù)與人類幸福之間的關(guān)系。
忽視AI在道德風(fēng)險(xiǎn)上的致命漏洞的公司
AI技術(shù)在道德風(fēng)險(xiǎn)方面存在許多致命漏洞。Clearview AI, Inc.是一家美國面部識別公司,主要向執(zhí)法部門和其他政府機(jī)構(gòu)提供軟件。該公司的算法將人臉與從互聯(lián)網(wǎng)(包括社交媒體應(yīng)用程序)收集的超過200億張圖像的數(shù)據(jù)庫進(jìn)行匹賠。公司從社交媒體平臺抓取的海量數(shù)據(jù)用于執(zhí)法機(jī)構(gòu)的做法,引發(fā)了公眾對隱私侵犯的擔(dān)憂。該公司因?yàn)E用AI技術(shù)而被多國政府封殺。一位專家強(qiáng)調(diào),AI技術(shù)的應(yīng)用需要在道德規(guī)范內(nèi)進(jìn)行,否則將面臨信任危機(jī),甚至引發(fā)社會動蕩。
總有人試圖繞開道德約束和長期利益,但這種短視行為只會帶來問題,拖累整個AI行業(yè)的發(fā)展,進(jìn)一步瓦解公眾信任。近日,一項(xiàng)調(diào)查顯示,在美國,民眾對開發(fā)和銷售AI工具公司的信任度從五年前的50%銳減至35%。
從長遠(yuǎn)角度出發(fā),堅(jiān)守透明、責(zé)任和安全原則,才是人工智能產(chǎn)業(yè)可持續(xù)發(fā)展、贏得公眾信任的關(guān)鍵所在。
片面強(qiáng)調(diào)AI帶來的不確定性,而忽視已有的確定性
在新興技術(shù)的沖擊下,部分公司過度追求靈活應(yīng)變,忽視了已有業(yè)務(wù)模式中的確定性。例如,世界上最大的提供技術(shù)和服務(wù)業(yè)務(wù)的跨國公司通用電氣(GE)為了追求數(shù)字工業(yè)公司的轉(zhuǎn)型,一度將大量資源投入AI和數(shù)據(jù)分析,但忽略了傳統(tǒng)制造業(yè)的核心競爭力,最終導(dǎo)致效益不盡人意。GE的問題出在“說得多,做得少”;布局早,很全面,但不扎實(shí);主次不分,重點(diǎn)顛倒。一位業(yè)內(nèi)人士指出GE的癥結(jié)所在:GE應(yīng)該說和做要分清,說要有高度,要有大的視野,做還是要從小做起,扎扎實(shí),也就是說,要“圖難于易,為大于細(xì)”。特別是,在認(rèn)知問題上,企業(yè)要知己知彼;在取舍的順序上,一定要“新鞋子還沒有縫好以前,先別急著把舊鞋子脫掉”。為了糾偏,GE經(jīng)歷了大規(guī)模的戰(zhàn)略調(diào)整和領(lǐng)導(dǎo)層更替,最終放棄了部分AI業(yè)務(wù)。這表明,企業(yè)在利用AI創(chuàng)新的同時,必須恪守現(xiàn)有業(yè)務(wù)的核心優(yōu)勢,否則將失去市場根基。
迷信脆弱的敏捷文化,盲目追求變革的公司
一味追求敏捷文化和快速變革的公司,往往缺乏長遠(yuǎn)的戰(zhàn)略規(guī)劃,反而削弱了抗風(fēng)險(xiǎn)能力。曾經(jīng)的世界手機(jī)市場龍頭企業(yè)諾基亞(Nokia)就是這樣的例子,在智能手機(jī)市場的迅速變化中,諾基亞試圖通過快速轉(zhuǎn)型保持競爭力,但因忽視長期戰(zhàn)略規(guī)劃和市場趨勢,最終失去了主導(dǎo)地位。一位知名管理學(xué)教授曾指出,企業(yè)若過度迷信敏捷文化,可能導(dǎo)致決策浮躁,錯失長期發(fā)展機(jī)會。
過分依賴AI而忽視“以客為尊”的公司
許多公司因盲目追求AI而忽視了客戶體驗(yàn)。例如,交通網(wǎng)絡(luò)公司優(yōu)步(Uber)在全球有1.1億活躍用戶,在美國有69%的市占率,該公司在引入AI自動駕駛技術(shù)的過程中,將大量資金投入自動駕駛項(xiàng)目,但安全事故頻發(fā),甚至導(dǎo)致人員傷亡。例如,2018年3月19日,優(yōu)步的自動駕駛汽車在美國亞利桑那州坦佩市撞到了一名橫穿馬路的行人,該行人在送往醫(yī)院后不幸身亡,據(jù)路透社報(bào)道,這次事故是全球首次在自動駕駛模式下運(yùn)行的自動駕駛車輛導(dǎo)致人員死亡,隨后優(yōu)步宣布暫停全部自動駕駛汽車的路測。事發(fā)后,公眾的信任下降,負(fù)面新聞接踵而至,導(dǎo)致其品牌形象受損。優(yōu)步的案例表明,公司若不將用戶體驗(yàn)放在首位,只注重AI創(chuàng)新,很可能在長遠(yuǎn)發(fā)展中失去競爭優(yōu)勢。
這方面成功的案例是,全球電商巨頭亞馬遜(Amazon)在倉儲及物流中深度應(yīng)用AI,同時始終關(guān)注客戶體驗(yàn),才得以在競爭中立于不敗之地。
在數(shù)字化和AI應(yīng)用愈加廣泛的今天,以客戶為中心的初心往往被忽視。一些公司盲目追求技術(shù)創(chuàng)新,卻失去了對用戶體驗(yàn)的關(guān)注。事實(shí)勝于雄辯,忽視客戶的公司終將走向衰落。
把AI作為“武器”導(dǎo)致爭斗的公司
當(dāng)AI技術(shù)被用于軍事和爭斗中,可能帶來深遠(yuǎn)的負(fù)面影響。例如,一些軍工企業(yè)在無人機(jī)和自動化武器系統(tǒng)的研發(fā)上進(jìn)行了大量投入,但此類武器的濫用可能導(dǎo)致無辜平民傷亡,引發(fā)倫理爭議。世界經(jīng)濟(jì)論壇的全球風(fēng)險(xiǎn)報(bào)告指出,AI武器技術(shù)帶來的軍事風(fēng)險(xiǎn)已成為全球安全的重大挑戰(zhàn)。若公司將AI視作戰(zhàn)爭工具,或?qū)⒁蛞l(fā)國際沖突而受到廣泛譴責(zé)。(財(cái)富中文網(wǎng))
作者王衍行為財(cái)富中文網(wǎng)專欄作家,中國人民大學(xué)重陽金融研究院高級研究員、中國銀行業(yè)協(xié)會前副秘書長、財(cái)政部內(nèi)部控制標(biāo)準(zhǔn)委員會咨詢專家
本內(nèi)容為作者獨(dú)立觀點(diǎn),不代表財(cái)富中文網(wǎng)立場。未經(jīng)允許不得轉(zhuǎn)載。
編輯:杜曉蕾