南方都市報(bào)在3月9日發(fā)了一篇文章,——在虛擬世界里,如何證明“我”是我?
朋友看到后轉(zhuǎn)給我,我好奇的點(diǎn)進(jìn)去看看,發(fā)先這就是一篇采訪記錄為形式,通過“元宇宙“的熱度,為阿里團(tuán)隊(duì)做宣傳的文章,摘錄部分內(nèi)容如下:
“元宇宙這個(gè)新興概念一度火爆出圈,伴隨著人工智能等技術(shù)的發(fā)展,引發(fā)各領(lǐng)域公司的加速布局。距扎克伯格提出元宇宙已經(jīng)過去四個(gè)月了,各公司布局元宇宙的情況如何?相關(guān)技術(shù)的發(fā)展會(huì)對(duì)普通人的生活帶來哪些影響?3月6日,南都、N視頻與阿里巴巴安全部聯(lián)合邀請(qǐng)三位技術(shù)領(lǐng)域嘉賓,圍繞虛擬世界和AI風(fēng)險(xiǎn)治理與網(wǎng)友們展開交流。“
訪談邀請(qǐng)了三位嘉賓,基本上是阿里內(nèi)部做相關(guān)領(lǐng)域的團(tuán)隊(duì),分別是做游族網(wǎng)絡(luò)的代表,淘寶Buy+ VR產(chǎn)品負(fù)責(zé)人,以及阿里安全高級(jí)算法工程師。其中游戲團(tuán)隊(duì)與VR團(tuán)隊(duì)負(fù)責(zé)人討論的,主要集中在針對(duì)未來元宇宙中更加便利的生活和工作場(chǎng)景的暢想。在這方面諸多互聯(lián)網(wǎng)公司都有過類似討論。 特別是,元宇宙與互聯(lián)網(wǎng)行業(yè)發(fā)展結(jié)合的概念,其實(shí)最早由facebook提出,引起很大反響,進(jìn)而微軟也緊急召開發(fā)布會(huì)宣布公司未來在元宇宙方面的布局計(jì)劃,但是我們?cè)敿?xì)看相關(guān)的內(nèi)容,就會(huì)發(fā)現(xiàn)微軟的發(fā)布多少有點(diǎn)“趕鴨子上架”,把Azure領(lǐng)域的業(yè)務(wù)發(fā)展強(qiáng)行與元宇宙掛鉤,詳情可以參考之前的文章。
人類的未來是元宇宙——鼓吹這個(gè)話題的人大概率“瘋了”
但是在安全層面討論的問題卻著實(shí)令人困惑,引用如下:
直播中有網(wǎng)友提出,如今的技術(shù)發(fā)展水平,離元宇宙的實(shí)現(xiàn)還有很長(zhǎng)的路要走?,F(xiàn)在提元宇宙的風(fēng)險(xiǎn)治理問題會(huì)不會(huì)太早?AI治理的發(fā)展不應(yīng)該落后于科技發(fā)展。在未來,人們的嗅覺、觸覺、味覺、痛覺都有被欺騙的風(fēng)險(xiǎn)。這個(gè)融合了AR、VR、MR、AI等技術(shù)的未來世界,是現(xiàn)實(shí)和虛擬高度融合后的產(chǎn)物,也可能帶來一系列的安全問題。
“人工智能發(fā)展到目前的階段,能做的事情已經(jīng)非常多了,如果我們不做一些模型的約束,不增加魯棒性,那么未來它很可能會(huì)有失控的風(fēng)險(xiǎn)。”而如何更好地應(yīng)對(duì)其中的安全風(fēng)險(xiǎn),用魔法打敗魔法,用AI治理AI,這也是阿里巴巴人工智能治理與可持續(xù)發(fā)展實(shí)驗(yàn)室(AAIG)正在研究的方向。
首先,這是針對(duì)一份訪談做的整理記錄,不可能系統(tǒng)性地針對(duì)一個(gè)技術(shù)問題做出解讀,訪談形式或許可能沒有辦法完全系統(tǒng)性地表達(dá)出工程師的完整想法,但是這個(gè)整理出來文本,是有問題的。
首先,在人工智能領(lǐng)域,互聯(lián)網(wǎng)上開源代碼資源非常廣泛,僅僅GitHub上就能找到很多現(xiàn)成的算法框架,我們知道深度學(xué)習(xí)視覺模型,針對(duì)應(yīng)用層面,更多的挑戰(zhàn)來源于對(duì)不同于訓(xùn)練分布的,僅僅添加了很小的擾動(dòng)的樣本上預(yù)測(cè)效果不佳。這些被稱為“對(duì)抗樣本(adversarial example) 的輸入的存在,為深度學(xué)習(xí)在許多安全關(guān)鍵性場(chǎng)景中的應(yīng)用,如自動(dòng)駕駛,人臉識(shí)別,惡意軟件檢測(cè)等,帶來了威脅與不確定性。另外,許多人工智能系統(tǒng),如無人車的功能安全(safety)仍然很大程度上依賴于其中深度學(xué)習(xí)模型的魯棒性,舉個(gè)例子,像是光線這種不確定的環(huán)境變化也同樣成為了深度學(xué)習(xí)模型實(shí)際存在的威脅。綜上來看,深度學(xué)習(xí)模型的魯棒性是與準(zhǔn)確性同樣重要的模型評(píng)價(jià)標(biāo)準(zhǔn),我們隨便使用關(guān)鍵字“Robustness Benchmark”就可以查詢到很多相關(guān)內(nèi)容,開源測(cè)試工具也不少,這些足以整明,以圖像識(shí)別,自動(dòng)駕駛等實(shí)際應(yīng)用為導(dǎo)向,所開發(fā)的算法模型,魯棒性已經(jīng)是必要因素,在2022年依舊談?wù)摵蛷?qiáng)調(diào)模型增加魯棒性這一點(diǎn),另人困惑。要么是阿里的AAIG實(shí)驗(yàn)室研發(fā)水平還尚未走在行業(yè)前列,要么是這篇訪談在記錄和整理出現(xiàn)了爭(zhēng)議性內(nèi)容,沒有清晰表達(dá)被訪談?wù)哂^點(diǎn)。
(筆者注:7月13日,阿里巴巴宣布成立人工智能治理與可持續(xù)發(fā)展實(shí)驗(yàn)室Alibaba Artificial Intelligence Governance Laboratory,簡(jiǎn)稱AAIG, https://s.alibaba.com/cn/aaig該實(shí)驗(yàn)室將著力于可持續(xù)發(fā)展、可靠、可信、可用的人工智能技術(shù)和應(yīng)用,通過構(gòu)建數(shù)字經(jīng)濟(jì)的信任機(jī)制,懲治危害商家和用戶利益的行為,保護(hù)和激勵(lì)創(chuàng)新,促進(jìn)平臺(tái)經(jīng)濟(jì)的持續(xù)健康發(fā)展)
為了避免斷章取義的嫌疑,接下來將訪談?wù)韮?nèi)容中,關(guān)于“AI治理AI”的方面全部摘錄如下:
“實(shí)現(xiàn)AI算法可持續(xù)發(fā)展,是治理的初心。”AI算法已經(jīng)成為我們生活中不可或缺的一部分,為了避免快速發(fā)展中產(chǎn)生的不良因素,讓其可持續(xù)發(fā)展,必須有一些治理技術(shù)和理念。他認(rèn)為,堅(jiān)持技術(shù)可用、可靠、可信同樣重要。“可用”即指基于算法實(shí)現(xiàn)的功能,將為人們生活帶來更便利的體驗(yàn);“可靠”即指技術(shù)具有穩(wěn)定性,面對(duì)海量數(shù)據(jù)涌入,不輕易崩潰。目前的開源技術(shù)、云計(jì)算等發(fā)展,使得技術(shù)可用、可靠?jī)蓚€(gè)層面都可實(shí)現(xiàn),而技術(shù)“可信”則面對(duì)更高的要求,算法防御性、公平性等都是實(shí)現(xiàn)技術(shù)可信的要素。“在此基礎(chǔ)上,我們還要通過多方參與協(xié)同共治,達(dá)到治理與發(fā)展平衡。”郎一寧說,多方參與不僅指不同的互聯(lián)網(wǎng)公司之間,也包括學(xué)界、行業(yè)等不同領(lǐng)域的協(xié)同共治。“我覺得AI治理最大的價(jià)值,就是能夠讓人工智能可持續(xù)發(fā)展。”談及AI治理的價(jià)值,郎一寧稱希望能夠給人們提供一個(gè)更可靠可信可用的人工智能。“這樣,當(dāng)我們真正走進(jìn)元宇宙的那天,它才是自由且安全的。
筆者感慨,整場(chǎng)訪談最有價(jià)值的內(nèi)容,來源于直播中的觀眾提問:如今的技術(shù)發(fā)展水平,離元宇宙的實(shí)現(xiàn)還有很長(zhǎng)的路要走?,F(xiàn)在提元宇宙的風(fēng)險(xiǎn)治理問題會(huì)不會(huì)太早?
是的,不僅阿里要做AI治理還太早,甚至這個(gè)討論在技術(shù)方面的成熟度還不夠,比如優(yōu)化算法,比如數(shù)據(jù)安全。
拋開技術(shù)方面的落后,為了驗(yàn)證算法模型,或者處于其他利益考量,目前互聯(lián)網(wǎng)公司獲取用于數(shù)據(jù)的方式,以及對(duì)部分用戶隱私數(shù)據(jù)的利用,就足夠值得批評(píng)了。
筆者簡(jiǎn)單瀏覽AAIG官方網(wǎng)站,在關(guān)于AAIG介紹中,有提到:
在AI可信度方面,阿里通過大規(guī)模多模態(tài)風(fēng)險(xiǎn)智能識(shí)別和審核技術(shù),每天處理超過上百億的用戶生成信息,幫助平臺(tái)發(fā)現(xiàn)違規(guī)、侵權(quán)、刷單等風(fēng)險(xiǎn)信息,大幅提升互聯(lián)網(wǎng)內(nèi)容可信性。其中“全國(guó)首例電商平臺(tái)打假案”和“全國(guó)組織刷單入刑第一案”曾入選2017年推動(dòng)中國(guó)互聯(lián)網(wǎng)法治進(jìn)程十大事件。
隨著人工智能技術(shù)全面深入應(yīng)用于社會(huì)的各個(gè)領(lǐng)域,如何科學(xué)評(píng)估人工智能應(yīng)用的社會(huì)綜合影響、如何推進(jìn)人工智能更好應(yīng)用于社會(huì)公共服務(wù)、如何利用人工智能促進(jìn)治理體系和治理能力現(xiàn)代化等問題,成為社會(huì)各界探討的共同話題。2019年6月,國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出“和諧友好”“公平公正”“包容共享”“尊重隱私”、“安全可控”“共擔(dān)責(zé)任”“開放協(xié)作”“敏戒治理”八項(xiàng)原則。在以上原則指導(dǎo)下,阿里通過人工智能算法的可靠性優(yōu)化、可信度提升和可用的規(guī)模化驗(yàn)證等三項(xiàng)舉措,不斷完善平臺(tái)健康度。
上文提到的國(guó)家新一代人工智能治理專業(yè)委員會(huì),阿里,騰訊等企業(yè)都會(huì)作為代表參與,這是一件好事。但是就在2022年3月1日開始正式實(shí)行的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》其中第二十一條是:算法推薦服務(wù)提供者向消費(fèi)者銷售商品或者提供服務(wù)的,應(yīng)當(dāng)保護(hù)消費(fèi)者公平交易的權(quán)利,不得根據(jù)消費(fèi)者的偏好、交易習(xí)慣等特征,利用算法在交易價(jià)格等交易條件上實(shí)施不合理的差別待遇等違法行為。即所謂的大數(shù)據(jù)“殺熟”。而幾乎同一時(shí)間,阿里旗下飛豬、餓了么被北京消協(xié)點(diǎn)名,涉嫌大數(shù)據(jù)“殺熟”。滴滴,攜程也發(fā)生過很多類似事件,根據(jù)消費(fèi)習(xí)慣,金牌會(huì)員在打車,定票的費(fèi)用可能會(huì)比普通用戶還要高。
相信我們或多或少都有親歷過,或者“疑似”經(jīng)歷過大數(shù)據(jù)殺熟的行為,但是仔細(xì)想想,大數(shù)據(jù)殺熟本質(zhì)是因?yàn)樗惴]有足夠的“魯棒性”,或者是算法與技術(shù)本身沒有做到足夠監(jiān)控嗎?
利用大數(shù)據(jù)為人做標(biāo)簽,殺熟,就是純粹的人為行為。大量的人根據(jù)我們的行為主觀性打標(biāo)簽,通過讀取短信或者綁定賬戶的賬戶確認(rèn)公司,年輕,學(xué)歷,貸款情況,消費(fèi)記錄等等,判斷用戶的基本生活情況,推測(cè)可能的消費(fèi)習(xí)慣,并且,嘗試性一步步試探用戶的底線。舉個(gè)例子,在用車高峰期,快車不足,滴滴可能會(huì)推薦優(yōu)享,甚至專車等更高費(fèi)用,但是接單更快的車型,或者彈出遠(yuǎn)程叫車加價(jià)的情況,只要用戶同意,那么下一次使用打車軟件時(shí),即使不是打車高峰時(shí)段,系統(tǒng)還是會(huì)嘗試推薦更貴車型,以此一步步試探用戶對(duì)于車費(fèi)的接受程度,后續(xù)責(zé)可能出現(xiàn),兩人同時(shí)從同一定位地點(diǎn)叫車到相同終點(diǎn),同樣車型,系統(tǒng)顯示價(jià)格不同的狀況。
上述情況有一個(gè)專門的名詞,叫做:Big Data Discrimination
因?yàn)閺恼w來看,大數(shù)據(jù)殺熟或許是一個(gè)比較容易被消費(fèi)者發(fā)現(xiàn)的點(diǎn),國(guó)內(nèi)互聯(lián)網(wǎng)發(fā)展的過程中,用戶們會(huì)優(yōu)先發(fā)現(xiàn)自己被殺熟了。實(shí)際上,大數(shù)據(jù)是一個(gè)工具,核心是背后使用工具的“人”,是否帶著偏見看待用戶。因此,在海外,對(duì)于類似的事件,大家更習(xí)慣性把此類事件成為大數(shù)據(jù)歧視。歧視待遇的基礎(chǔ)包括膚色、種族、性別,但也包括收入或教育水平、性別、居住地區(qū)等,雖然本意是為了提供更精準(zhǔn)的服務(wù),但是使用大數(shù)據(jù)分析來改善業(yè)務(wù)流程或提供個(gè)性化服務(wù)可能會(huì)導(dǎo)致某些人群受到歧視。
綜上,排除大數(shù)據(jù)分析技術(shù)上會(huì)帶來的數(shù)據(jù)歧視等客觀因素帶來的問題,國(guó)內(nèi)互聯(lián)網(wǎng)公司過度收集用戶信息,主觀上以營(yíng)利為目的為客戶打標(biāo)簽,進(jìn)行不平等銷售,這個(gè)行為本身就值得譴責(zé),我們希望相關(guān)法規(guī)逐漸完善,能起到更好地監(jiān)察管控作用。
那么接下來再看一下客觀因素:
就算工具的使用者在初期沒有主觀偏見,但是在大數(shù)據(jù)分析的任何階段,錯(cuò)誤的統(tǒng)計(jì)處理或糟糕的數(shù)據(jù)質(zhì)量都可能導(dǎo)致意外的數(shù)據(jù)偏差。不知道這種偏差是否是阿里技術(shù)團(tuán)隊(duì)不斷強(qiáng)調(diào)“魯棒性”的原因。
人們對(duì)個(gè)性化服務(wù)、個(gè)性化廣告、定制服務(wù)和產(chǎn)品提供有相當(dāng)大的興趣。個(gè)性化服務(wù)只不過是根據(jù)性別、收入、教育程度、消費(fèi)偏好等個(gè)人數(shù)據(jù),將人們排除在特定目標(biāo)群體之外或?qū)⑺麄兗{入特定目標(biāo)群體。任何大數(shù)據(jù)分析,都需要依賴信息的分類以及從分類中得出的結(jié)論,從這個(gè)意義上說,歧視可能是分析過程中固有的一部分。擯棄大數(shù)據(jù)分析,我們?cè)谏鐣?huì)生活中也會(huì)不自覺依仗以往經(jīng)驗(yàn),對(duì)人下判斷,比如根據(jù)顧客衣著評(píng)判其消費(fèi)水平的店員,在如今也很常見。所以當(dāng)我們?cè)谧鰯?shù)據(jù)分析,或者互聯(lián)網(wǎng)公司產(chǎn)品經(jīng)理在做“人群畫像“的時(shí)候,這種偏見或許已經(jīng)存在了。
如今深度學(xué)習(xí)的技術(shù)基本框架,是基于人類嘗試用電子信號(hào),也就是與或非門電路的組成,來模擬人類大腦突觸在神經(jīng)介質(zhì)之前傳遞信息的方式,關(guān)于這點(diǎn)可以參考之前的文章,這里不做贅述。
神經(jīng)網(wǎng)絡(luò)以及深度學(xué)習(xí)模型分類
由文章可見,最前端技術(shù)也無法百分之百還原人類大腦思維和傳遞信息的方式,不論在生物學(xué),抑或是“仿生“這種方式的深度學(xué)習(xí),架構(gòu)亦或算法,尚且無法復(fù)制一顆大腦。互聯(lián)網(wǎng)公司卻在嘗試使用這種技術(shù)分析和解析人性,也難怪當(dāng)今社會(huì)對(duì)數(shù)據(jù)驅(qū)動(dòng)的歧視如此反感。
數(shù)據(jù)集的偏差或基于數(shù)據(jù)集分析的陳述或預(yù)測(cè)可能源于分析過程中的各種錯(cuò)誤、缺點(diǎn)或誤解。數(shù)據(jù)收集過程可能故意有偏差,因?yàn)檎{(diào)查的方式有偏差、數(shù)據(jù)來源的選擇有偏差、調(diào)查的時(shí)間段不夠長(zhǎng)或忽略了有關(guān)參數(shù)或情況。在分析過程中,正確的統(tǒng)計(jì)處理和準(zhǔn)確性估計(jì)需要專業(yè)知識(shí)。因此,這一程序容易在方法和技術(shù)上出現(xiàn)錯(cuò)誤。造成非預(yù)期數(shù)據(jù)偏差的原因很多。首先,數(shù)據(jù)集的樣本大小直接影響從數(shù)據(jù)樣本中得出的陳述或結(jié)論的有效性。統(tǒng)計(jì)分析的準(zhǔn)確性取決于樣本的性質(zhì)及其估計(jì)。在大數(shù)據(jù)的背景下,可用的數(shù)據(jù)通常由許多子集組成,需要仔細(xì)的統(tǒng)計(jì)處理,將估計(jì)過程規(guī)范化到單個(gè)子集,以避免過擬合或錯(cuò)誤的結(jié)論。這種異構(gòu)性要求對(duì)來自不同數(shù)據(jù)源的數(shù)據(jù)進(jìn)行干凈而仔細(xì)的聚合,這些數(shù)據(jù)源對(duì)應(yīng)于不同的子集,其中一些獨(dú)特的特性不是所有子集共享的。這一點(diǎn),筆者之前在做人工智能語義分析的時(shí)候,就感慨中華文化博大精深,對(duì)于語義的理解和切分往往能對(duì)應(yīng)多個(gè)可能性,不得不承認(rèn),有些時(shí)候?yàn)榱司?jiǎn)工作量,我們經(jīng)常采取常用的理解和說法,忽略相對(duì)“小眾“或者”偏門“的語義。核心目的是先建立語義Pattern,剩下的事情不著急,慢慢來,慢慢擴(kuò)充。因?yàn)槲覀兛偸钦J(rèn)為,以團(tuán)隊(duì)有限的人,能想到的語義意圖,也是有限的,既然不能保證初始數(shù)據(jù)完整,分類準(zhǔn)確,不如做一個(gè)粗略的框架,把算法跑跑試試。這也就是為什么在算法中,即使是一個(gè)Perception感知機(jī),閾值threshold以及各條件權(quán)重也并不好界定。(筆者注,推薦《Neural Networks and Deep Learning》 written by Michael Nielsen)
由于大數(shù)據(jù)通常是高維的,因此在分析大數(shù)據(jù)時(shí)需要同時(shí)估計(jì)不同的變量。如果一個(gè)結(jié)論或基于算法的預(yù)測(cè)是基于許多變量的,那么每一個(gè)估計(jì)都與相應(yīng)的誤差有關(guān),從而導(dǎo)致累積誤差。這種效應(yīng)被稱為噪聲積累,會(huì)使原始信號(hào)難以被引用。處理這個(gè)問題的統(tǒng)計(jì)技術(shù)需要特別的專門知識(shí)。在分類和預(yù)測(cè)分析中,參數(shù)選擇和降維也是克服影響因素積累的關(guān)鍵。
另外,虛假的相關(guān)性和偶然的內(nèi)生性是另外兩種可能導(dǎo)致錯(cuò)誤結(jié)論和預(yù)測(cè)的影響。如果相關(guān)性是由看不見的第三個(gè)變量或事件而不是由原始變量引起的,則變量或?qū)嵗赡軙?huì)“虛假地”相關(guān)。實(shí)際上,在我們對(duì)于人行為判斷時(shí),經(jīng)常性出現(xiàn)類似的情況,因?yàn)槲覀儗?duì)事務(wù)的判斷是很難徹底篩除主觀因素的。高維使得這種效應(yīng)更容易發(fā)生。也可能是變量實(shí)際上是相關(guān)的,但沒有任何意義或原因,比如我們知道童年陰影對(duì)于成年人行為影響很大,很多連環(huán)變態(tài)殺手童年曾經(jīng)遭受虐待,但是童年虐待就一定導(dǎo)致不健全的人生嘛,不一定,很多兒時(shí)家庭不完整的小孩長(zhǎng)大或許會(huì)成為支撐家挺的頂梁柱,因?yàn)樵?jīng)的缺憾令他懂得珍惜。同理,偶然的內(nèi)生性是選擇偏差、測(cè)量誤差和遺漏變量的結(jié)果,這些現(xiàn)象在大數(shù)據(jù)分析中也經(jīng)常出現(xiàn)。
當(dāng)下,多數(shù)互聯(lián)網(wǎng)公司建立的學(xué)習(xí)算法通常非常復(fù)雜。這種復(fù)雜性與更廣泛的社區(qū)缺乏透明度或可理解性相結(jié)合,增加了發(fā)現(xiàn)錯(cuò)誤的可能性。并且,算法通常是公司內(nèi)部的黑匣子,可重復(fù)性有限。公開交流,特別是關(guān)于準(zhǔn)確性水平、算法內(nèi)的不確定性或隱含假設(shè)通??赡苁遣粔虻?。
簡(jiǎn)而言之,互聯(lián)網(wǎng)公司最有問題的一點(diǎn)是,在尚不成熟的技術(shù)架構(gòu)上,妄圖用技術(shù)分析最復(fù)雜的人性。
機(jī)器學(xué)習(xí),AI,人工智能,深度學(xué)習(xí)等等概念詞,對(duì)如今的年輕人來說并不陌生。因?yàn)閷儆谛屡d領(lǐng)域,聽起來非常的厲害,似乎深度學(xué)習(xí)幾乎能解決我們生活中很多問題,從Alpha Go在棋局上戰(zhàn)勝了世界冠軍,到如今圖像識(shí)別技術(shù)幫助捕捉追逃逸罪犯,我們似乎因?yàn)榭吹綑C(jī)器能做到人做不到的事情,就忽略了,很多人能做到的事情,機(jī)器做不到。
總結(jié),技術(shù)要發(fā)展,但是技術(shù)要服務(wù)于應(yīng)用場(chǎng)景逐步發(fā)展,手握技術(shù)仿佛手握一件鋒利的兵器,兵刃越鋒利,越要懷有敬畏之心,對(duì)法律,對(duì)人權(quán)。