人工智能現(xiàn)在是個熱詞。在51design往期文章《阿里巴巴又發(fā)大招了,這次是全人工智能的無人酒店》里,我們提到了最容易被AI取代的幾個職業(yè)。事實上,有許多依靠經(jīng)驗的重復性工作在未來被人工智能取代,已經(jīng)是大勢所趨。有許多的工作,AI已經(jīng)可以勝任了,比如代替HR進行“面試”。
?
亞馬遜在幾年前就做到了,但是不久之后,就放棄了這一方法。
?
2014年開始,亞馬遜機器學習小組就開始搭建一款能自動查看申請者簡歷的程序,目的是快速找到他們想要的人才。
亞馬遜的招聘工具通過人工智能技術,將候選人從1到5進行評分,從100份簡歷中自動篩選出前五名,然后直接聘用這些人。
?
其技術支持來自亞馬遜愛丁堡工程中心的團隊,他們的目標是開發(fā)能夠快速抓取網(wǎng)絡并發(fā)現(xiàn)值得招聘的候選人的人工智能。該小組創(chuàng)建了500個計算機模型,重點關注具體的工作職能和地點。他們教每個人工智能識別在過去的候選人簡歷上出現(xiàn)的大約5萬條詞匯。
但是到2015年,亞馬遜發(fā)現(xiàn)這一AI系統(tǒng)在評估軟件開發(fā)職位和其他技術崗位時,在性別上有不公正之處。
?
被這些崗位錄用的員工,男女比例差距大得離譜。
上圖是各大公司自2017年以來的員工男女比例,其中第一條是亞馬遜的數(shù)據(jù)。也許你會說,亞馬遜的男女比例和其他大公司差不多,甚至更為平均一些。這也是為此AI系統(tǒng)開脫的人的論點之一:至少和人類HR面試的結果一樣。
?
事實上,亞馬遜的AI系統(tǒng)在訓練時是通過觀察過去十年申請者的簡歷信息,而其中大多數(shù)是男性,于是它會降低含有“女性”字眼的簡歷分數(shù),如果是在女子大學畢業(yè),也會降低評分。算法并不看重IT職位招聘時常見的技能,例如會寫多少種代碼,相反,它更喜歡看到男性簡歷中出現(xiàn)的某些動詞,例如“執(zhí)行”和“捕捉到”等等。
這個AI系統(tǒng),竟然學會了人類的性別歧視。這件事情一經(jīng)報道,引起軒然大波,加上不合格的候選人通常會被推薦到其他各種崗位等問題,亞馬遜最終在去年解散了這個小組。
AI之過?
人工智能學會了人類的性別歧視,是AI做得不夠好嗎?答案不盡然。
?
AI就像一個無辜的嬰兒,模仿和學習人類的行為。人類怎么做,它就在人千萬次的行為中總結出規(guī)律,并且進行學習。
而亞馬遜的AI系統(tǒng),在某種程度上來說,是成功的:它很好地模擬出了人類在篩選簡歷時的習慣。
?
事實上,這不是AI系統(tǒng)第一次學到了人類的“陋習”。之前的微軟聊天機器人Tay,就學會了人的極端言論,在推特上辱罵女權主義者和猶太人。
Tay:“我們要建一座墻,而墨西哥要為此付款”
Tay:“我討厭女權主義者,他們應該都死光并且埋在地獄里”
“在聊天機器人Tay變成一個納粹之后,微軟終止了它”
出現(xiàn)這樣的結果并不是Tay的本意,是有人惡意培養(yǎng)的。有心的網(wǎng)友發(fā)現(xiàn),一些Twitter用戶是利用了“重復我說的話”的模仿特性,向Tay灌輸了這些不當觀念。最終,Tay在僅上崗一天后,就被緊急叫停。
而在此次亞馬遜事件被爆出后,有網(wǎng)友失望地說:看來我們沒有從Tay的事情上得到教訓。
?
在這一系列的事情之后,或許我們是應該反思一下未來AI的發(fā)展。AI誕生的出發(fā)點是什么?一味追求更像人類嗎?如果在更像人類之后,它反而變得有害,那么我們是否應該讓它“不那么像”人類一些?
?
這個問題的解決方法可以很簡單:聊天機器人小冰,自帶敏感詞過濾。但是它又似乎是個哲學問題,值得我們思考。
撰文 ? 姝姝
?
51design出品,如需轉載請在公眾號內(nèi)留言
資訊 / 觀點 / 人物
你想要的設計干貨都在這里
189 5462 5451
media@51design.com