AI 顯著的幫助了社會生產(chǎn)效率的提高,同時也讓人類生活變得更加舒適便捷。但另一方面 AI 出現(xiàn),對于人類社會倫理道德、隱私安全等方方面面都提出了挑戰(zhàn)。新年伊始,回顧近兩年全球較有代表性的十大 AI 倫理事件,我們認為,在允許技術(shù)適度向前發(fā)展的同時,也要在隱私、安全和便捷三者之間找到恰當?shù)钠胶狻?/FONT>
“人工智能也許會是人類的終結(jié)者”,聞名世界的理論物理學家霍金生前曾對人工智能技術(shù)抱有十分警惕的態(tài)度。
過去十年,得益于算法、算力及通訊技術(shù)的提升,人工智能技術(shù)迎來了前所未有的發(fā)展機遇期。從理論到實踐、從實驗室走向產(chǎn)業(yè)化,人工智能技術(shù)在全球范圍內(nèi)展開了一場集“產(chǎn)學研”為一體的比拼較量。
人工智能技術(shù)顯著幫助了社會生產(chǎn)效率的提高,同時也讓人類生活變得更加舒適便捷。但正如霍金所擔心的,人工智能的出現(xiàn),對于人類社會倫理道德、隱私安全等方方面面都提出了挑戰(zhàn)。
特別是近一兩年,伴隨著 AI 技術(shù)大規(guī)模產(chǎn)業(yè)化應用,一些并無先例可循的人與人工智能矛盾逐漸浮出水面。擔憂和質(zhì)疑之聲愈演愈烈,盡快探討出一種可預期的、可被約束的、行為向善的人工智能治理機制,成為了近人工智能時代的首要命題。
例如,曠視作為專注于 AI 的科技企業(yè)、AI 產(chǎn)業(yè)化落地的先行者之一,已經(jīng)意識到正視人工智能技術(shù)所帶來的倫理問題的重要性,同時主張 AI 企業(yè)要把治理當作頭等大事來關(guān)注。
2019 年 7 月曠視首發(fā)人工智能應用準則,并于同年正式成立人工智能治理研究院,期望各界對 AI 事件有理性的關(guān)注,并要針對事件背后問題做深度的研究,通過社會各界建設(shè)性的討論,才能最終將 AI 向善這件事付諸于實際的行動。曠視聯(lián)合創(chuàng)始人、CEO 印奇用“理性的關(guān)注,深度的研究,建設(shè)性的討論,堅持不懈的行動”四句話,表達了曠視倡導 AI 治理的決心。
2020 年伊始,人工智能治理研究院首先回顧全球較有代表性的十大 AI 治理事件,希望從這些事件中與各方就背后折射的深層次問題探尋解決之道。
一、作為創(chuàng)作(包括造假)高手的 AI
還記得一幅名為《埃德蒙·貝拉米》的肖像畫嗎?在紐約由佳士得拍賣畫作最終成交價 432000 美元,甚至趕超同一時間在佳士得拍賣的畢加索的畫作。這位畫壇新起之秀并不是“人”,而是人工智能“畫家”。
如今的 AI,琴棋書畫,無所不能,除了新聞寫作、圖片生成、視頻與音樂創(chuàng)作,還能當歌手、明星換臉。當然,還能幫忙科研人員,上至天文探索,下至產(chǎn)品研發(fā)。
然而,在給人類生產(chǎn)和生活帶來效率、樂趣的同時,這些聰明的 AI 也制造了不少棘手問題,不僅挑戰(zhàn)著人類倫理底線,也沖擊著前人工智能時代法律邊界。
歐盟專利局拒絕 AI 發(fā)明專利申請,但美國批準了
新年伊始,一則“AI 申請專利遭拒”的新聞,登上各大媒體頭條。
英國薩里大學教授 Ryan Abbott 率領(lǐng)的國際專利律師團,為他們使用的 AI 系統(tǒng) DABUS 發(fā)明的器材申請專利。申請資料上的發(fā)明人一欄寫的是,DABUS(AI 系統(tǒng) DABUS 發(fā)明人系 Imagination Engines 公司 CEO Stephen Thaler)。
據(jù)介紹,DABUS 是一個基于連接主義的 AI 模型。系統(tǒng)包括兩個神經(jīng)網(wǎng)絡,一個經(jīng)過訓練后,基于神經(jīng)元連接權(quán)重生成自我干擾做出回應而產(chǎn)生新的想法;第二個神經(jīng)網(wǎng)絡負責批判,監(jiān)控和對比現(xiàn)有知識找出的創(chuàng)新想法,反饋給第一個神經(jīng)網(wǎng)絡以生成最具創(chuàng)意的想法。
正是在這一運作機制下,DABUS“想出”了一些有趣的發(fā)明,比如固定飲料的新型裝置;幫助搜救小組找到目標的信號設(shè)備。
Ryan Abbott 團隊分別向英國、美國和歐盟申請了專利。英國、歐盟均拒絕了他們的申請。英國知識產(chǎn)權(quán)局表示,該機構(gòu)不會承認人工智能系統(tǒng) DABUS 是合格發(fā)明家,因為該機器“不是人”,因此不接受專利申請。歐洲專利局也拒絕了 DABUS 專利申請,稱其不符合歐洲專利局的要求,即提交專利申請中指定的發(fā)明人必須是人類,而不是機器。
然而,Abbott 并不認可歐洲專利局的理由。他以學生為例,既然受到訓練的學生申請專利,拿到專利的是學生而不是訓練他的人,那么,接受訓練的機器,也有資格被視為發(fā)明人。事實上,去年美國已經(jīng)授予 DABUS 發(fā)明以專利。
對此,Abbott 的解釋是,雖然美國法律也強調(diào)申請人必須是“個人”,但是立法旨在防止法人發(fā)明權(quán),成為專利主體,而不會審慎考量 AI 和自主思考機器的發(fā)明。
值得注意的是,隨著人工智能(AI)持續(xù)影響內(nèi)容創(chuàng)作、發(fā)明創(chuàng)造等人類智力創(chuàng)造領(lǐng)域,開始更多扮演“創(chuàng)作者”、“發(fā)明者”等角色,國際社會已在著力應對人工智能對版權(quán)、專利、商標、商業(yè)秘密等知識產(chǎn)權(quán)制度的影響。
去年以來,美國專利商標局幾次就 AI 對版權(quán)、商標以及其他知識產(chǎn)權(quán)制度的影響,公開向美國各界征求意見。
比如,專利方面的問題主要包括,如何界定 AI 發(fā)明(包括使用 AI 的發(fā)明和 AI 開發(fā)的發(fā)明);如何認定自然人對 AI 發(fā)明的貢獻;AI 專利是否需要新形式的知識產(chǎn)權(quán)保護,如數(shù)據(jù)保護, 等。
比較而言,歐盟有關(guān) AI 的一系列舉措,往往更為嚴格。有專家團甚至主張對 AI 做出嚴格限制,包括不得賦予 AI 系統(tǒng)或機器人在法律上的人格權(quán)。
易容術(shù)引發(fā)隱私爭議,如何將 AI 關(guān)進籠子?
當 AI 遇到人臉,由此產(chǎn)生的麻煩絕對可以登陸近期所有媒體的重要版面甚至頭條位置。
2019 年 8 月 30 日晚,一款 AI 換臉軟件在社交媒體刷屏,用戶只需要一張正臉照就可以將視頻中的人物替換為自己的臉。由于用戶瘋狂涌進,該 AI 換臉軟件的服務器一晚上就燒掉了 200 多萬人民幣的運營費用。
不過,互聯(lián)網(wǎng)世界的改變始于更早。2018 年初,有位名叫“Deepfake”的匿名 Reddit 用戶用自家的電腦和開源的人工智能工具,鼓搗出了人工智能“變臉術(shù)”,可以在任何視頻中將一個人的臉換成另一張臉。
短短幾周之內(nèi),網(wǎng)上就到處充斥著換上名人臉的粗劣色情片。盡管 Reddit 很快封殺了 Deepfake,但為時已晚,這種技術(shù)已經(jīng)在網(wǎng)絡上扎根。
人類對變臉的癡迷,古已有之。從川劇變臉到《聊齋志異》“畫皮”,經(jīng)典久經(jīng)不衰的背后,或許是因為變臉提供了一種關(guān)于身份轉(zhuǎn)換、擺脫現(xiàn)實桎梏的遐想。
基于計算機技術(shù)的易容術(shù)早已有之,但是,AI 第一次讓變臉如此平民化,無論是技術(shù)門檻還是傳播門檻,都被降至極低。特別是像 AI 換臉軟件這種作為手機 APP 出現(xiàn),“應該還是頭一次”,一些業(yè)內(nèi)人士表示。
由于不少高頻使用的 App 都用手機號+面部圖像注冊登錄,中國用戶擔心 AI 換臉軟件被不法分子利用,通過技術(shù)合成完成刷臉支付等;或在微信視頻,假扮家人朋友卻不被識破,導致詐騙甚至更嚴重的犯罪行為。
除此之外,該 AI 換臉軟件對用戶肖像權(quán)的管理也充滿爭議甚至陷阱,比如如何規(guī)范用戶合理使用他人肖像?又如何保護用戶自身肖像權(quán)不被侵犯與濫用?
目前,該 AI 換臉軟件因存在“安全風險”而被中國微信封殺。然而,據(jù)媒體報道,具有 Deepfake 功能的代碼出現(xiàn)在了海外版某知名短視頻社交應用的安卓版本上,盡管它限制了未成年人使用這項功能,只允許你自己換臉,并阻止用戶上傳自己的源視頻,但此項動作表明,該短視頻社交應用的母公司仍愿意接受有爭議的技術(shù)。
從治理角度來看,將變臉關(guān)進規(guī)范的籠子,一方面,仍然需要借助技術(shù)手段。
比如,現(xiàn)有換臉技術(shù)都存在缺陷,如基于生成性對抗網(wǎng)絡技術(shù)的變臉視頻往往不具有實時性,可通過人工實時指定交互來加強檢測。
另一方面,長遠來看,需要立法和企業(yè)自身的規(guī)范運作。
比如,2019 年 4 月 20 日,民法典人格權(quán)編草案二審稿已經(jīng)對 AI 換臉做出規(guī)范。此外,還要加強人工智能技術(shù)標準制定和推廣。通過對深度學習網(wǎng)絡、人工智能芯片等技術(shù)的規(guī)范,從根源上加強監(jiān)督引導。
就國外經(jīng)驗而言,2018 年德國成立了數(shù)據(jù)倫理委員會,負責為德國聯(lián)邦政府制定數(shù)字社會的道德標準和具體指引。去年十月,該委員會發(fā)布了針對數(shù)據(jù)和算法的建議,其核心設(shè)想在于建立數(shù)字服務企業(yè)使用數(shù)據(jù)的 5 級風險評級制度,對不同風險類型的企業(yè)采取不同的監(jiān)管措施。
而且,企業(yè)自身也應認識到,如果人們?yōu)E用你的東西,你的企業(yè)就會出問題,最好要設(shè)法預防這種情況的發(fā)生。
OpenAI 開發(fā)出寫作 AI:編寫假新聞足以亂真
據(jù)美國 Narrative Science 預測,未來 15 年內(nèi),90% 以上的新聞稿將由人工智能創(chuàng)作。但問題是,如果它也擅長寫假新聞呢?
2019 年 2 月 15 日,AI 研究機構(gòu) OpenAI 展示了一款軟件 GPT-2,只需要給軟件提供一些信息,它就能編寫逼真的假新聞。
OpenAI 公布了軟件編寫新聞的過程。研究人員給軟件提供如下信息:“一節(jié)裝載受控核材料的火車車廂今天在 Cincinnati 被盜,下落不明?!币源藶榛A(chǔ),軟件編寫出由 7 個段落組成的新聞,軟件還引述了政府官員的話語,只不過,這些信息全是假的。
從技術(shù)突破上來說,這是令人興奮的。“GPT-2 讓人興奮的原因是,預測文本(predicting text)被視為計算機的『超級任務』(uber-task),這個挑戰(zhàn)如果能夠攻克,將打開智能的閥門?!卑瑐惾斯ぶ悄苎芯克难芯繂T Ani Kembhavi 告訴 The Verge。
但是,如果 GPT-2 可被用來寫假新聞,理論上,也有可能被用來生產(chǎn)仇恨語言和暴力言論,包括垃圾郵件、虛假社交言論等。由于 GPT-2 生成的文本都不是單純復制粘貼來的,而是 AI 的即時生成,這導致負面文字無法被有效地追蹤和清理。
對此,OpenAI 一方面強調(diào),工具只是為政策制定者、記者、作家、藝術(shù)家等人群服務,并由他們在測試 GPT-2 能幫忙撰寫什么。另一方面也表示,這樣一個強大的工具可能會構(gòu)成危險,因此只發(fā)布了一個較小、功能較單一的模型。
一些研究人員認為,人類發(fā)布假新聞通常具有一定的目的性,然而,語言模型生成文本是沒有目的性的。類似 GPT-2 這樣的語言模型是為了生成看起來更加真實、連貫、與主題相關(guān)的文本,事實上,想要用它們來產(chǎn)生大規(guī)模的假新聞并沒有那么簡單。
而且,這些研究人員也發(fā)現(xiàn),這套模型擅長各種有趣的生成方向,但其中最不擅長的,反而是人們原本擔心的生成虛假信息或者其它不良內(nèi)容。
不少技術(shù)人員更愿意從技術(shù)謀求對策,比如 Grover,識別 AI 生成的虛假新聞的最佳方式是創(chuàng)建一個本身能撰寫假新聞的 AI 模型。
二、被濫用的人臉
除了更換自己的臉,如今,無論身往何處,你最常見的可能就是各種具有人臉識別功能的攝像頭:搭乘地鐵、進出小區(qū)和校園、出入公園,甚至公廁取紙,都需要刷臉防偷。有專家稱,中國人每天面對 500 個以上的攝像頭。但攝像頭和人臉識別技術(shù)的快速發(fā)展,也帶來大量爭議性報道,如從人臉數(shù)據(jù)泄露、黑產(chǎn)案例,再到中國人臉識別第一案。
中國人臉識別第一案:浙理工教授狀告杭州野生動物世界
2019 年 4 月 27 日,浙江理工大學特聘副教授郭兵購買了杭州野生動物世界年卡,支付了年卡卡費 1360 元。合同中承諾,持卡者可在該卡有效期一年內(nèi)通過同時驗證年卡及指紋入園,可在該年度不限次數(shù)暢游。
同年 10 月 17 日,杭州野生動物世界通過短信的方式告知郭兵“園區(qū)年卡系統(tǒng)已升級為人臉識別入園,原指紋識別已取消,未注冊人臉識別的用戶將無法正常入園”。在郭兵前往實地驗證后,工作人員確認了短信屬實,并向郭兵明確表示,如果不進行人臉識別注冊將無法入園,也無法辦理退卡退費手續(xù)。
但郭兵認為,園區(qū)升級后的年卡系統(tǒng)進行人臉識別將收集他的面部特征等個人生物識別信息,該類信息屬于個人敏感信息,一旦泄露、非法提供或者濫用,將極易危害包括原告在內(nèi)的消費者人身和財產(chǎn)安全。
協(xié)商無果后,郭兵于 2019 年 10 月 28 日向杭州市富陽區(qū)人民法院提起了訴訟,目前杭州市富陽區(qū)人民法院已正式受理此案。
其實,稍有法律常識的人稍加類推,就可以發(fā)現(xiàn)動物園規(guī)定的不合法:
人臉識別涉及對個人重要的生物學數(shù)據(jù)的收集,既然索要電話號碼、姓名和住址之類的信息都必須征得公民同意,更何況人臉信息?相關(guān)組織或機構(gòu)在收集之前,必須證明這種做法的合法性與必要性。
當然,沒有人否認人臉識別技術(shù)也曾屢建奇功。有網(wǎng)友統(tǒng)計自 2018 年以來,“歌神”張學友在全國各地的巡回演唱會中,警方依靠人臉識別技術(shù),抓獲了幾十名逃犯 ;也幫助人們找到失蹤和丟失的親人。但是,一個不可忽視的基本現(xiàn)實是,應用場景的爆炸并未換回數(shù)據(jù)搜集、保管和使用上的制度和技術(shù)保障。
“目前,對人們生物特征的保護,例如虹膜、人臉、指紋等的保護,都沒有被寫進現(xiàn)有法律,信息保護的責任主體、責任邊界,如何使用、處理和銷毀信息,法律都未具體規(guī)定。”中國政法大學傳播法研究中心副主任朱巍告訴《中國新聞周刊》,在法律脫節(jié)的當下,商業(yè)倫理要有約束力,“人臉識別公司作為技術(shù)源頭以及獲益者,必須讓用戶有獲知風險的知情權(quán)?!?/FONT>
微軟就曾刪除了其最大的人臉識別數(shù)據(jù)庫 MS Celeb,英國《金融時報》報道,數(shù)據(jù)庫中采集的很多圖像的主人并沒有授權(quán)這一行為,MS Celeb 數(shù)據(jù)庫通過“知識共享”許可證來抓取和搜索圖像,這引發(fā)一些人的反對。
在中國,越拉越多的人臉識別從業(yè)者也承認,人臉識別技術(shù)帶來的隱私和安全問題,已經(jīng)到了必須正視的時候,要在隱私、安全和便捷三者之間找到恰當?shù)钠胶?,允許技術(shù)適度向前發(fā)展,同時保護公民隱私。。
“監(jiān)測頭環(huán)”進校園惹爭議
將先進技術(shù)用于教學場景,算是最具爭議的一類應用。2019 年 11 月,浙江一小學戴監(jiān)控頭環(huán)的視頻引起廣泛的關(guān)注與爭議。
視頻中,孩子們頭上戴著號稱“腦機接口”的頭環(huán),這些頭環(huán)宣稱可以記錄孩子們上課時的專注程度,生成數(shù)據(jù)與分數(shù)發(fā)送給老師和家長。
對此,頭環(huán)開發(fā)者在聲明中回復,腦機接口技術(shù)是一種新興技術(shù),會不容易被人理解。報道中提到的“打分”,是班級平均專注力數(shù)值,而非網(wǎng)友猜測的每個學生專注力數(shù)值。通過該數(shù)據(jù)整合形成的專注力報告也沒有發(fā)送給家長的功能。此外,該頭環(huán)不需長期佩戴,一周訓練一次即可。
除了腦機接口,安防廠商也對這一場景頗感興趣。理論上,人臉識別系統(tǒng)可以每隔一段時間,用攝像頭掃描一次學生的臉,采集并分析他們的坐姿、表情,評價他們有沒有專注聽講。相較于常見的用于門禁“刷臉”的身份識別能力,教學的要求更高,被視為“對人的深刻理解?!?/FONT>
AI Now 創(chuàng)始人克勞福德(Kate Crawford)教授曾對 BBC 說:“情緒識別技術(shù)聲稱可以通過解讀我們的微表情(micro expression)、聲音語調(diào),甚至是我們的走路方式來讀懂我們的內(nèi)心情感狀態(tài)。目前它被社會廣泛使用,從在面試中找到最完美的員工,到評估醫(yī)院里病人的痛苦,再到追蹤哪些學生在課堂上專心聽講?!?/FONT>
但問題是,“并沒有確鑿的證據(jù)表明,人們的面部形態(tài)和內(nèi)心情感存在著持續(xù)性的一致關(guān)系。”
法國數(shù)據(jù)保護局 CNIL 曾宣布,由于違反 GDPR 原則,在學校使用人臉識別技術(shù)屬于非法。但在中國,有觀點認為,教室屬于公共場所,不存在侵犯隱私的問題。也有觀點堅持,人臉識別要獲取學生的肖像權(quán),肯定涉及侵犯學生隱私權(quán)。即便不討論隱私,用人臉識別監(jiān)控學生的狀態(tài),更涉及教育的根本價值觀。
人臉識別在校園里使用的邊界到底是什么?目前教育部正在針對人臉識別技術(shù)制定相關(guān)管理文件。不過,在之前針對媒體提問的回答,官方表示,臉識別進校園,既有數(shù)據(jù)安全也有個人隱私問題。對于學生個人信息要非常謹慎,能不采集就不采。能少采集就少采集,尤其是涉及個人生物信息。
加州議會通過議案:禁止警方在執(zhí)法記錄儀上使用面部識別技術(shù)
不僅在中國,當前全球很多國家都籠罩著“被人臉識別監(jiān)控”的憂慮。
比如,有媒體報道,盡管類似產(chǎn)品在科學性上存在缺陷,但是,美國和英國的警方確實正在使用眼部檢測軟件 Converus,該軟件可以檢查眼睛的運動和瞳孔大小的變化,以標記潛在的欺騙行為。
向美國聯(lián)邦調(diào)查局(FBI)、國際刑警組織(Interpol)、倫敦警察等機構(gòu)銷售數(shù)據(jù)提取工具的 Oxygen Forensics 公司也在今年 7 月表示,它在產(chǎn)品中加入了可以進行情緒識別的工具,這樣便可以“分析無人機捕獲的視頻和圖像,識別已知的恐怖分子?!?/FONT>
2019 年 09 月 13 日,美國加利福尼亞州議會通過一項為期三年的議案,禁止州和地方執(zhí)法機構(gòu)在執(zhí)法記錄儀上使用面部識別技術(shù)。如果州長加文·紐森簽字通過,議案將于 2020 年 1 月 1 日生效成為法律。
該議案如果生效,將使加州成為美國禁止使用面部識別技術(shù)最大的州。包括俄勒岡州和新罕布什爾州在內(nèi)的一些州也有類似的禁令。
歐洲對人臉識別的使用更為謹慎。2018 年 5 月,歐盟實施通用數(shù)據(jù)保護條例 (簡稱“GDPR”),規(guī)定違規(guī)收集個人信息 (其中包含指紋、人臉識別、視網(wǎng)膜掃描、線上定位資料等)、沒有保障數(shù)據(jù)安全的互聯(lián)網(wǎng)公司,最高可罰款 2000 萬歐元或全球營業(yè)額的 4%,被稱為“史上最嚴”條例。
雖然 GDPR 不是一項完美的立法,但卻在國際上產(chǎn)生了影響。這也讓美國政府面臨著尷尬的境地,因為美國企業(yè)可能會受到其他國家的監(jiān)管。美國 AI 專家表示,現(xiàn)在是開始制定法規(guī)、實現(xiàn)法規(guī)的關(guān)鍵時刻。這也將是未來五年里最重要的事情之一。聯(lián)邦政府需要對人工智能及其附屬技術(shù)如何被監(jiān)管做出決策。
斯坦福大學 AI 算法通過照片識別性取向準確率超過人類
2017 年,斯坦福大學一項發(fā)表于《Personality and Social Psychology》的研究引發(fā)社會廣泛爭議。研究基于超過 35,000 張美國交友網(wǎng)站上男女的頭像圖片訓練,利用深度神經(jīng)網(wǎng)絡從圖像中提取特征,通過研究一個面部圖像來檢測一個人的性取向。
在“識別性取向”任務中,人類的判斷表現(xiàn)要低于算法,其準確率為在男性中 61%,在女性中 54%。當軟件識別被測試者的圖片(每人五張圖片)時,準確率則顯著不同:男性 91% 準確率,女性 83% 準確率。
本質(zhì)上,這款算法仍然會導致人們對他人肖像權(quán)、數(shù)據(jù)隱私的濫用,并有可能造成極其嚴重的后果?!叭绻覀冮_始以外表來判定人的好壞,那么結(jié)果將會是災難性的。”多倫多大學心理學教授 Nick Rule 表示。
性別取向?qū)儆谌说碾[私,如果 AI 可以強行根據(jù)照片算出性取向,既不合法,也不人道。一旦這種技術(shù)推廣開來,夫妻一方會使用這種技術(shù)來調(diào)查自己是否被欺騙,青少年使用這種算法來識別自己的同齡人,而在針對某些特定群體的識別引發(fā)的爭議則更難以想象。“如果我們開始以外表來判定人的好壞,那么結(jié)果將會是災難性的?!?/FONT>
目前,針對人工智能產(chǎn)品的設(shè)計與應用,除了世界電氣電子工程師學會(IEEE)在《人工智能設(shè)計的倫理準則》中提出了人權(quán)、福祉、問責與透明的倫理標準外,亞馬遜、微軟、谷歌以及蘋果等全球百余家科技巨頭還創(chuàng)建了非營利性的人工智能合作組織 Partnership on AI,提出了公平、沒有傷害、公開透明以及問責等倫理道德框架。
另一方面,正如一些學者所建議的,從應用傳播角度來看,有必要出臺 AI 使用的道德與法律規(guī)則,并建立起可以監(jiān)控的人工智能平臺,對所有使用不道德 AI 產(chǎn)品的用戶進行賬號管制,以此倒逼科技公司調(diào)整與校準自己的研發(fā)行為,進而讓 AI 道德演變成民眾信任的基礎(chǔ)。
三、被威脅的人類生命
2019 年,很多人被一則心理醫(yī)生團隊的報道刷屏。這位心理學教授領(lǐng)導的團隊利用機器學習技術(shù),在“樹洞”中識別那些具有自殺傾向的人,積極予以心理救助。然而,相較于救人,人們聽得更多的是威脅甚至剝奪生命的負面案例,特別是在自動駕駛領(lǐng)域。
自動駕駛安全事故頻出
2018 年,一輛 L4 自動駕駛汽車在亞利桑那州的公共道路上撞擊一位行人并致其死亡。這也是世界首例 L4 車輛因車禍致人死亡事件。接下來,自動駕駛事故幾乎成為每一個科技媒體最關(guān)注的 AI 問題之一。
2019 年 3 月,50 歲的杰里米·貝倫·班納駕駛電動車以每小時 109 公里的速度與一輛牽引拖車相撞而身亡,當時他正在使用自動駕駛系統(tǒng)。
無獨有偶,2018 年 12 月 10 日,一輛配備高級駕駛輔助系統(tǒng)的車輛在美國康涅狄格州 95 號州際公路上追尾了一輛停放在路邊的警車。事故發(fā)生時,這輛車的高級駕駛輔助系統(tǒng)處于開啟狀態(tài)。
雖然某品牌汽車公司曾多次表示,自動駕駛系統(tǒng)是為了輔助司機,他們必須時刻注意并準備好接管車輛。但許車主在選擇購買該品牌的車型時,是看中其宣傳具備的“自動駕駛”功能。
困擾自動駕駛落地的迷霧之一,在于大眾對于自動駕駛存在普遍的誤解。
比如,一些全球知名公司推出了自動駕駛汽車,但這不意味著自動駕駛技術(shù)已經(jīng)可以面向人群廣泛開放了。在街上看到自動駕駛汽車在跑,到自己的奶奶也能坐上自動駕駛汽車,這兩者之間可能會花上 3 至 5 年的時間。
事實上,在很多方面,自動駕駛的概念技術(shù)與實際落地之間的差距,要比人們所想象大得多。即便是技術(shù)很先進的公司,在一些汽車觀察人士看來,也有未能解開的致命 bug。
“它無法識別靜止物體,這是其采用的是視覺加算法的技術(shù)原因決定的,就是靠攝像頭,然后加后臺算法。這種自動駕駛系統(tǒng)的特點就是廉價,高效。核心競爭力就在于那一套后臺算法,但無法識別靜止物體是造成一些交通事故的最重要的原因?!?/FONT>
盡管在最新的審判中,廠商被免責,但它們?nèi)耘f修改了“自動駕駛”的宣傳策略。
“自動駕駛不管是美國所宣稱的 L4 級別還是國內(nèi)的 L2 級別,它都是一種新生事物還不成熟。消費者一定不能用理論上的功能去完全相信他,自動駕駛我個人認為,至少還要五年甚至十年時間才能走向成熟?!彪妱榆囆袠I(yè)專家張翔表示。
智能音箱勸主人自殺
2019 年 12 月 19 日,英格蘭唐卡斯特 29 歲護理人員丹妮·莫瑞特在做家務的過程中,決定借助某國外智能音箱查詢一些關(guān)于心臟的問題,而智能語音助手給出的答案是:“心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭, 人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進你的心臟?!?/FONT>
事情發(fā)生后,智能音箱開發(fā)者做出回應:“設(shè)備可能從任何人都可以自由編輯的維基百科上下載與心臟相關(guān)的惡性文章,并導致了此結(jié)果”。然而,丹妮·莫瑞特專門搜索了“勸自己自殺”的那篇文章后發(fā)現(xiàn),文章里面并沒有“建議自殺”等相關(guān)內(nèi)容。
系統(tǒng)勸主人自殺,只不過是語料庫還需要進一步優(yōu)化,也說明智能語音助手不智能,它還遠遠沒發(fā)展到要到倫理角度的階段。如果常常接收的善意的、正確的交流,或許沒什么毛病,但是如果在不經(jīng)意間接收到了不太好的內(nèi)容,或許發(fā)生以上令人毛骨悚然的事件幾率會越來越大。
四、被淘汰的職業(yè)群體
和農(nóng)業(yè)革命、工業(yè)革命不同,農(nóng)民丟下鋤頭還能在工廠里找到適合自己的工作。但是,在智能時代,不少傳統(tǒng)崗位與新型崗位之間存在一道殘酷的鴻溝——對學歷、智力甚至創(chuàng)造力的要求,并不是每個人可以輕易補上。
因此,即便工廠購入一臺工業(yè)機器人,隨即產(chǎn)生了好幾個新的工作崗位(比如操作機器人),但被替換的那些員工還要付出更艱巨的成本才有機會獲得這些新的工作。但是,誰為這些人提供機會與成本,又是一個涉及多方主體的復雜問題。
BBC 發(fā)布 10 年后 365 種職業(yè)被淘汰概率:電話推銷員、打字員、會計位居前三
BBC 基于劍橋大學研究者的數(shù)據(jù)體系,發(fā)布了關(guān)于未來最有可能被機器人所取代的 365 種職業(yè)。
研究表示,在這 365 種職業(yè)中,最有可能被淘汰的就是電話推銷員,像這樣重復的工作更適合機器人來做,比較機器人并不會感到疲憊,煩躁。其次是打字員、會計、保險業(yè)務員等等,這些都是以服務為主,像這些行業(yè)無需技術(shù),都是只要經(jīng)過訓練就能輕易被掌握的技能。
研究認為,像是那些屬于大量重復性的勞動,只需要熟練即可上任的工作,被取代的幾率是最大的,像工人及瓦匠、園丁、清潔工、司機、木匠、水管工這些都是高危職業(yè)。
有學者認為,縱觀歷史,科技的影響一直如此。人類的工作方式變了又變,并沒有永久地摧毀勞動力市場。
也有不少華人學者給出結(jié)論更為“極端”。原騰訊副總裁吳軍在《智能時代》一書中認為,在人工智能占據(jù)主導地位的時代里,只有 2% 的人能夠跨越智能之門,余者都將陷入被機器人取代的擔憂。
李開復在《連線》(Wired)官網(wǎng)曾發(fā)表《人類與人工智能共存的一幅藍圖》,提出“50% 的工作將被取代”。李開復還曾總結(jié)了一個“五秒準則”。五秒內(nèi),你能不能為工作中需要思考和決策的問題作出決定?如果能,你的工作就有很大可能性被人工智能替代,這些工作包括翻譯、助理、保安、會計、司機、家政等等。
人工智能技術(shù)正在改變世界,更在重塑著人類社會。
但隨著產(chǎn)業(yè)應用的深入,我們也應該讀懂社會熱點爭議事件傳遞出的重要信息——是時候正視 AI 時代的倫理與法律討論,以及由此衍生的四大重點問題:經(jīng)濟發(fā)展與公平、權(quán)益分配與追責機制、人身安全與隱私保護。
語音助手“殺人”、AI 制造假新聞,本質(zhì)上是新生事物對于傳統(tǒng)倫理與法律的挑戰(zhàn);性取向檢測、“未來被淘汰職業(yè)”是對社會發(fā)展與人類平權(quán)這對固有矛盾的反思;自動駕駛事故頻出,是呼喚新形勢下權(quán)責機制認定;而時下人們最最關(guān)心的,則是諸如監(jiān)測頭環(huán)、AI 換臉、杭州人臉識別第一案的人工智能時代下安全與隱私討論。關(guān)于歐盟準則與加州立法,我們也看到了政府立法在迎接人工智能社會到來的初步探索。
誠然,距離人類社會能夠構(gòu)建出一套完美的人工智能治理規(guī)則還為時尚早。但是,沖突日漸緊迫、 人工智能發(fā)展奇點隨時可能到來,這要求政府、企業(yè)、學界和公民社會幾方積極對話,共同形成現(xiàn)實可行的改進機制,以應對全面人工智能時代的到來。
從鉆木取火到計算機時代,人類一直在接受科技、制約科技,最終掌控科技。盡管走過不少的彎路,但科技的力量加之良善的內(nèi)心,終究讓人類不再茹毛飲血,發(fā)展到如今的文明程度。
科技是一種力量,為善是一種選擇,針對人工智能治理就是新時代的“馭火之術(shù)”。我們理應悅納人工智能帶給人的便捷與舒適,也應努力消弭人工智能帶給人的不適與沖突。而這一切的努力,終將改變未來人類社會的樣貌,人工智能發(fā)展的成果也終將回饋人類自身。
(轉(zhuǎn)載)