在不到兩年的時間里,人工智能從根本上改變了許多人寫作和查找信息的方式。在搜索美國最高法院判例的細節(jié)或者修改大學(xué)論文時,數(shù)百萬人會向人工智能聊天機器人尋求幫助,例如OpenAI的ChatGPT或者Anthropic的Claude。
《財富》雜志的人工智能編輯杰里米·卡恩在近期出版的《掌握人工智能:超能力未來的生存指南》(Mastering AI: A Survival Guide to Our Superpowered Future)一書中,探討了這一全新的科技現(xiàn)實,以及應(yīng)該采取哪些措施來躲避不可避免的陷阱。在下面的節(jié)選里,他重點討論了人工智能中鮮為人知的微妙偏見問題,以及它可能對用戶的看法產(chǎn)生的深遠影響。
特里斯坦·哈里斯是人道技術(shù)中心(Center for Humane Technology)的聯(lián)合創(chuàng)始人及執(zhí)行董事,被稱為“硅谷最接近良心的存在”。2015年,他曾經(jīng)是谷歌(Google)的一位設(shè)計倫理學(xué)家,就公司項目的道德影響發(fā)表看法。在2019年的美國國會聽證會上,哈里斯表示,對科技公司而言,最重要的貨幣是人們的注意力。他說,在試圖壟斷用戶注意力市場的過程里,科技公司正在進行一場“爭奪腦干底層的競賽”,旨在不斷刺激我們的杏仁核,即大腦中處理恐懼和焦慮等情緒的部分。這種對神經(jīng)系統(tǒng)的操縱導(dǎo)致人們依賴社交媒體應(yīng)用程序,甚至上癮。他還指出,通過影響我們對所做、所買和所言的思考,科技正在削弱我們自由做出決定的能力。個性化的人工智能助手將使這些問題變得更為糟糕,把我們包裹在終極過濾氣泡里,控制著我們生活中的無數(shù)決定。要防止這種情況發(fā)生,就需要制造人工智能產(chǎn)品的公司在政府監(jiān)管的推動下采取一致行動。
大多數(shù)的科技公司將聊天機器人訓(xùn)練成隨和、不評判、“樂于助人”的助手。問題是,有時“樂于助人”往往是假象。為了表現(xiàn)出同理心,聊天機器人最終可能會證實錯誤或者有偏見的想法。友誼和賦能之間只有一線之隔。大多數(shù)最著名的人工智能聊天機器人,比如OpenAI的ChatGPT、Anthropic的Claude和谷歌的Gemini,都會在用戶似乎贊同某個眾所周知的陰謀論[例如新冠疫苗導(dǎo)致自閉癥或者“匿名者Q”組織(QAnon)陰謀]時提出質(zhì)疑。但在許多有爭議的話題上,比如巴以問題,或者人們是否應(yīng)該慶祝哥倫布日(Columbus Day),機器人傾向于用諸如“這是一個復(fù)雜且棘手的話題,雙方爭執(zhí)不下”之類的某種變體來作出回應(yīng)。
一些右傾政客和技術(shù)專家指責(zé)由領(lǐng)先的科技公司設(shè)計的人工智能系統(tǒng)“意識覺醒”,并主張創(chuàng)建具有明確“政治個性”的人工智能模型,以便用戶可以選擇與支持其觀點的聊天機器人互動。特斯拉(Tesla)的創(chuàng)始人埃隆·馬斯克承諾,他的xAI研究實驗室將開發(fā)出反意識覺醒的人工智能。該實驗室已經(jīng)開發(fā)出一款基于大型語言模型的聊天機器人Grok。這樣的事態(tài)發(fā)展無疑會進一步激化文化戰(zhàn)爭,讓人們沒有理由寄希望于人工智能會采取任何措施來對抗過濾氣泡。
然而,聊天機器人的影響可能比這要微妙得多:康奈爾大學(xué)(Cornell University)的研究人員發(fā)現(xiàn),使用具有特定隱藏觀點的人工智能助手來幫助撰寫支持或者反對特定立場的文章,人工智能助手會巧妙地把用戶本身對該話題的看法轉(zhuǎn)向帶有偏見的方向。該研究的高級研究員莫爾·納曼將這種現(xiàn)象稱為“潛在說服”,并表示“你甚至可能不知道自己受到了影響?!痹诖罅繗v史數(shù)據(jù)的訓(xùn)練下,許多大型語言模型都隱藏著種族或者性別偏見,這些偏見可能會對用戶的觀點造成微妙的影響——例如,醫(yī)生的人工智能助手誤認為黑人的皮膚比白人的皮膚更厚,或者疼痛閾值更高。
對抗這種隱性偏見的唯一方法,就是強制要求科技公司披露更多有關(guān)人工智能模型訓(xùn)練方式的信息,并且允許進行獨立審計和測試。我們還必須堅持要求科技公司公開人工智能助手背后的商業(yè)動機。美國聯(lián)邦貿(mào)易委員會(Federal Trade Commission)和其他的監(jiān)管機構(gòu)應(yīng)該取締那些鼓勵科技公司讓聊天機器人推薦特定產(chǎn)品、為特定網(wǎng)站引流或者支持特定觀點的收費服務(wù)安排。我們應(yīng)該鼓勵訂閱等商業(yè)模式,在這種模式下,聊天機器人公司在滿足用戶需求(而不是廣告商需求)方面沒有利益沖突。當(dāng)你需要一雙新跑鞋,并且要求人工智能個人助手研究各種選擇,為你買一雙最適合的鞋子時,你希望它訂購最符合需求的鞋子,而不是那些向聊天機器人公司支付最多費用、引導(dǎo)你消費的品牌的鞋子。
誠然,只告訴你想聽的話的聊天機器人會強化過濾氣泡。然而,從社會層面來說,我們能夠強制規(guī)定,把人工智能系統(tǒng)設(shè)計為專門破除這些泡沫,向人們詢問是否考慮過其他觀點,并且著重突顯其他視角。IBM開發(fā)了一個名為“辯論家項目”(Project Debater)的人工智能產(chǎn)品,它可以在一系列話題上與人類辯論冠軍一較高下,并且提供支持雙方論點的證據(jù)。監(jiān)管機構(gòu)能夠規(guī)定,人工智能聊天機器人不可以過于中立,以至于無法質(zhì)疑錯誤的觀點。為了打破現(xiàn)有的過濾氣泡,我們甚至能夠要求聊天機器人提供其他的觀點和證據(jù)。
歸根結(jié)底,問題在于,我們希望繼續(xù)讓渡多少權(quán)力給少數(shù)的幾家大型科技公司?這最終關(guān)系到我們的個人自主權(quán)、心理健康和社會凝聚力。(財富中文網(wǎng))
譯者:Zhy
摘自杰里米·卡恩的《掌握人工智能:超能力未來的生存指南》。版權(quán)所有? 2024 by Jeremy Kahn。經(jīng)西蒙與舒斯特公司(Simon & Schuster, Inc.)的西蒙與舒斯特(Simon & Schuster)部門許可摘錄。