可能存在偏見、侵入性等 微軟宣布停售情緒狀態(tài)分析技術(shù)

2022-06-22 17:05:40來源:網(wǎng)易科技報(bào)道

6月22日消息,美國當(dāng)?shù)貢r(shí)間周二,微軟宣布將停止銷售基于面部圖像分析個(gè)人情緒狀態(tài)的自動(dòng)化技術(shù),并限制其面部識(shí)別工具的使用。多年來,許...

6月22日消息,美國當(dāng)?shù)貢r(shí)間周二,微軟宣布將停止銷售基于面部圖像分析個(gè)人情緒狀態(tài)的自動(dòng)化技術(shù),并限制其面部識(shí)別工具的使用。

多年來,許多活動(dòng)人士和學(xué)者始終擔(dān)心,聲稱能夠識(shí)別個(gè)人年齡、性別和情緒狀態(tài)的面部分析軟件可能存在偏見、侵入性,或者根本不可靠,因此不應(yīng)該被允許出售。

微軟承認(rèn)的確存在上述問題,并在美國當(dāng)?shù)貢r(shí)間周二表示,計(jì)劃從其人工智能(AI)服務(wù)中移除這些用于檢測(cè)、分析和識(shí)別人臉的功能。微軟將于本周停止向新用戶出售該技術(shù),現(xiàn)有用戶也將在今年內(nèi)逐步停用。

這些改變是微軟加強(qiáng)對(duì)其AI產(chǎn)品控制努力的一部分。經(jīng)過兩年的審查,微軟的一個(gè)團(tuán)隊(duì)制定了一份“負(fù)責(zé)任AI標(biāo)準(zhǔn)”。在長(zhǎng)達(dá)27頁的文件中,該公司列出了對(duì)負(fù)責(zé)任AI系統(tǒng)的具體要求,以確保它們不會(huì)對(duì)社會(huì)產(chǎn)生有害影響。

這些要求包括確保AI系統(tǒng)“為它們致力于解決的問題提供有效的解決方案”,以及“為已確定的人口群體(包括邊緣化群體)提供類似質(zhì)量的服務(wù)”。

這些技術(shù)將被用于幫助個(gè)人獲得就業(yè)、教育、醫(yī)療保健、金融服務(wù)或人生機(jī)遇等做出重要決定,在發(fā)布之前,它們需要接受由微軟首席負(fù)責(zé)任AI官娜塔莎·克蘭普頓(Natasha Crampton)領(lǐng)導(dǎo)的團(tuán)隊(duì)的評(píng)估。

顯然,微軟對(duì)這種情緒識(shí)別工具的擔(dān)憂加劇了,它可以將個(gè)人的面部表情歸為憤怒、輕蔑、厭惡、恐懼、快樂、中立、悲傷或驚訝等??颂m普頓說:“我們表達(dá)自我的方式存在著巨大的文化、地理和個(gè)人差異,這引發(fā)了人們對(duì)AI識(shí)別工具可靠性的擔(dān)憂,同時(shí)也會(huì)讓人產(chǎn)生更大的疑問,即面部表情是否是反映個(gè)人內(nèi)心情緒狀態(tài)的可靠指標(biāo)。”

克蘭普頓還說,年齡和性別分析工具以及其他檢測(cè)微笑等面部特征的工具,可能有助于盲人或視力不佳者解讀視覺圖像。但微軟認(rèn)為,向公眾普遍提供這些分析工具不合適??颂m普頓強(qiáng)調(diào),該系統(tǒng)的所謂性別分類器是二元的,“這與我們的價(jià)值觀并不完全一致”。

微軟還將對(duì)其人臉識(shí)別功能施加新的控制,該功能可用于身份核查或搜索特定的人。例如,網(wǎng)約車公司Uber在其應(yīng)用中使用該軟件來驗(yàn)證司機(jī)的臉是否與該司機(jī)賬戶上的ID匹配。想要使用微軟面部識(shí)別工具的軟件開發(fā)商需要申請(qǐng)?jiān)L問權(quán)限,并解釋他們計(jì)劃如何部署該工具。

用戶還將被要求申請(qǐng)并解釋他們將如何使用其他可能被濫用的AI系統(tǒng),如定制神經(jīng)語音(Custom Neural Voice)。該服務(wù)可以根據(jù)某人的演講樣本生成人的聲紋,這樣作者就可以創(chuàng)建他們的合成聲音,以用他們不會(huì)說的語言閱讀有聲讀物。

由于該工具可能被濫用,比如生成某個(gè)人沒有說過的話,用戶必須經(jīng)過一系列步驟來確認(rèn)他們使用的聲音得到了授權(quán),并且錄音中包括微軟可以檢測(cè)到的水印??颂m普頓說:“我們正在采取具體行動(dòng),以踐行我們的AI原則,但這將是一段漫長(zhǎng)的旅程。”

與其他科技公司一樣,微軟的AI產(chǎn)品在開發(fā)過程中也遭遇了許多挫折。2016年,微軟在推特上發(fā)布了名為Tay的聊天機(jī)器人,旨在從與其互動(dòng)的用戶那里學(xué)習(xí)如何“理解對(duì)話”。然而,該機(jī)器人很快就開始發(fā)布具有種族歧視和攻擊性的推文,微軟最終不得不將其刪除。

2020年,研究人員發(fā)現(xiàn),微軟、蘋果、谷歌、IBM和亞馬遜開發(fā)的“語音轉(zhuǎn)文本”工具在黑人用戶中的表現(xiàn)不太好。盡管微軟的系統(tǒng)是其中最好的,但對(duì)白人的誤認(rèn)率為15%,而對(duì)黑人的誤認(rèn)率為27%。

雖然微軟收集了各種各樣的語音數(shù)據(jù)來訓(xùn)練其AI系統(tǒng),但其始終沒有徹底理解語言的多樣化。因此,該公司聘請(qǐng)了來自華盛頓大學(xué)的社會(huì)語言學(xué)專家來幫助解釋其需要了解的語言變體。這種方法超越了人口統(tǒng)計(jì)和地區(qū)差異,囊括了人們?cè)谡胶头钦綀?chǎng)合的說話方式。

克蘭普頓說:“認(rèn)為種族是某個(gè)人說話方式的決定因素,實(shí)際上有很大誤導(dǎo)性。我們咨詢專家后了解到,實(shí)際上有很多因素會(huì)影響語言的多樣性。解決語音與文本之間差距的過程,為公司在新標(biāo)準(zhǔn)制定指導(dǎo)方針提供了巨大幫助。”

克蘭普頓還稱:“現(xiàn)在是為AI制定規(guī)范的關(guān)鍵時(shí)期。”她指的是歐洲擬議中的法規(guī),該法規(guī)對(duì)AI的使用設(shè)定了規(guī)則和限制??颂m普頓說:“我們希望能夠利用我們的標(biāo)準(zhǔn),為科技公司普遍應(yīng)該遵守的標(biāo)準(zhǔn)的討論和制定做出貢獻(xiàn)。”

關(guān)于AI的潛在危害,科技界已經(jīng)進(jìn)行了多年的激烈辯論。爭(zhēng)論的起因是,有些AI錯(cuò)誤和失誤對(duì)人們的生活產(chǎn)生了實(shí)際影響,比如決定人們是否能獲得福利的算法。荷蘭稅務(wù)機(jī)構(gòu)錯(cuò)誤地剝奪了貧困家庭的兒童看護(hù)福利,因?yàn)橐粋€(gè)有缺陷的算法排除了具有雙重國籍的人。

用于識(shí)別和分析人臉的自動(dòng)化軟件一直備受爭(zhēng)議。去年,F(xiàn)acebook關(guān)閉了其已有十年歷史的照片識(shí)別系統(tǒng)。該公司負(fù)責(zé)AI業(yè)務(wù)的副總裁提到,“很多人對(duì)面部識(shí)別技術(shù)在社會(huì)中的地位感到擔(dān)憂”。

幾名黑人男子因面部識(shí)別匹配有誤而被錯(cuò)誤逮捕。2020年,在明尼阿波利斯市警察槍殺喬治·弗洛伊德(George Floyd)后,引發(fā)了“黑人的命也是命”(Black Lives Matter)的抗議活動(dòng)。與此同時(shí),亞馬遜和微軟宣布暫停美國警方使用其面部識(shí)別產(chǎn)品,稱需要對(duì)其使用制定更明確的法律。

自那以后,美國華盛頓和馬薩諸塞州通過了法規(guī),其中要求對(duì)警察使用面部識(shí)別工具進(jìn)行司法監(jiān)督??颂m普頓說,微軟曾考慮是否開始在有法律依據(jù)的州向警方提供其軟件,但目前決定不這樣做。她說,隨著法律環(huán)境的變化,這種情況可能會(huì)改變。

普林斯頓大學(xué)計(jì)算機(jī)科學(xué)教授、著名AI專家阿溫德·納拉亞南(Arvind Narayanan)表示,公司可能正在放棄分析面部的技術(shù),因?yàn)樗麄兛赡芤庾R(shí)到,至少目前,這些系統(tǒng)沒有太大的商業(yè)價(jià)值。微軟沒有透露其面部分析功能有多少用戶。納拉亞南預(yù)測(cè),公司不太可能放棄其他侵入性技術(shù),比如定向廣告,它會(huì)讓人們選擇最好的廣告來展示給特定用戶,因?yàn)樗鼈円廊皇?ldquo;搖錢樹”。 (小小)

關(guān)鍵詞: 可能存在偏見 微軟宣布停售情緒狀態(tài)分析技術(shù) 限制面部識(shí)別工具使用 AI產(chǎn)品控制

責(zé)任編輯:hnmd004