機器人倫理準則官方解析:不要歧視,不做傷害人的事
matthew 2016.09.21 08:18 人工智能概念股
美國著(zhù)名小說(shuō)家艾薩克·阿西莫夫(Isaac Asimov)曾為我們指出過(guò)機器人的基本行為規則:不傷害人類(lèi)、服從命令和保護機器人自己。最近,英國標準研究院( BSI )發(fā)布了一份更為官方的機器人倫理準則文件,旨在幫助設計者創(chuàng )造合乎倫理的機器人。
BSI 發(fā)布的這份文件叫作“BS8611 機器人和機器人設備”,這是一份用干巴巴的語(yǔ)言編寫(xiě)的健康和安全手冊,但里面所強調的不良場(chǎng)景可能直接取自科幻小說(shuō)。機器人欺騙、過(guò)度依賴(lài)機器人和自主學(xué)習系統可能會(huì )超出他們的權限,這些都是制造商應該考慮到的危害。
這份文件是在牛津?Social Robotics and AI?大會(huì )上提出的,是英格蘭大學(xué)的機器人技術(shù)教授 Alan Winfield 指出,這些準則代表了將倫理價(jià)值嵌入機器人和人工智能的第一步。這是第一個(gè)公開(kāi)發(fā)表的、針對機器人設計的倫理標準,比阿西莫夫的法則更為復雜,提出了如何對機器人的倫理風(fēng)險進(jìn)行評估。
BSI 文件的內容一開(kāi)始是一系列寬泛的倫理原則:設計機器人的目的不應該是為了殺死或傷害人類(lèi);負責任的主體應該是人,而不是機器人;要能夠找出對機器人及其行為負責的主體。
接下來(lái)的內容重點(diǎn)強調了一系列更具爭議性的問(wèn)題,比如同機器人建立感情紐帶是否可取,尤其是設計的機器人是用來(lái)與兒童或老年人進(jìn)行互動(dòng)的。
謝菲爾德大學(xué)機器人和人工智能名譽(yù)教授 Noel Sharkey 舉了一個(gè)例子,說(shuō)明機器人可以無(wú)意地欺騙我們。在一個(gè)幼兒園配備有小機器人,孩子們很喜歡它,認為機器人比他們的家庭寵物認知性更強,實(shí)際上就是和機器人建立了情感紐帶。
該準則表明設計者應該致力于透明化,但科學(xué)家們卻說(shuō),在實(shí)際操作中這可能是非常困難的,因為目前 AI 系統的問(wèn)題,特別是這些深度學(xué)習系統,是不可能知道為什么他們會(huì )做出這樣或那樣決定的。比方說(shuō),深度學(xué)習代理在完成某一項具體任務(wù)時(shí),并不是按設定的方式;他們會(huì )嘗試數百萬(wàn)次,來(lái)找到一個(gè)成功的策略,以此來(lái)執行任務(wù)——有時(shí)候這些策略是設計者都預想不到和無(wú)法理解的。
該準則甚至暗示了可能會(huì )出現帶有性別歧視或種族歧視的機器人,并警惕大家:這些機器人可能會(huì )缺乏對文化多樣性和多元主義的尊重。這一現象已經(jīng)出現在警察所使用的技術(shù)上,比方說(shuō)機場(chǎng)應用該類(lèi)技術(shù)識別出可疑的人,并將其進(jìn)行攔截,這就是一種種族歧視的評判。
并且,深度學(xué)習系統基本上使用互聯(lián)網(wǎng)上的全部數據,但問(wèn)題是,這些數據是帶有傾向性的,就像這些系統傾向于支持中年白人男子。所有人類(lèi)的偏見(jiàn)都有可能被納入系統,這非常危險。
未來(lái)的醫學(xué)應用程序還存在一種風(fēng)險,即在診斷女性或少數民族患者時(shí),系統可能不太熟練。已經(jīng)有這樣的例子:語(yǔ)音識別軟件在理解女性時(shí)表現較差;面部識別項目在識別黑人面孔時(shí),不像識別白人那樣簡(jiǎn)單。
Sharkey 建議給機器人也安裝一個(gè)黑匣子,可以打開(kāi)和檢查。如果一個(gè)機器人存在種族歧視,可以關(guān)掉它,并將它撤回。
該文件也關(guān)注了更廣泛的社會(huì )問(wèn)題,如對機器人的過(guò)渡依賴(lài),但沒(méi)有就如何處理這些問(wèn)題,給設計者一個(gè)明確的引導。
當您在一定時(shí)間內使用一個(gè)機器,它給你正確的答案,你就會(huì )信任它,,并且變得懶惰,但是之后它提供給你的東西可能會(huì )非常愚蠢,這也是過(guò)度依賴(lài)自動(dòng)化的一種形式。
也許著(zhù)眼于更遙遠的將來(lái),BSI 文件也提醒我們警惕流氓機器的危險,這些機器可能開(kāi)發(fā)或修訂行動(dòng)計劃,可能帶來(lái)無(wú)法預料的后果和潛在法律責任。
BSI 制造業(yè)主管 Dan Palmer 表示,機器人和自動(dòng)化技術(shù)的應用,能夠使各種流程更有效率、更靈活,適應性更強,是制造業(yè)增長(cháng)的重要支柱。但是,反人性或過(guò)分依賴(lài)機器人等倫理問(wèn)題和危害是確實(shí)存在的,并亟待解決。這份關(guān)于如何處理各種機器人應用程序的準則,將幫助設計者和機器人用戶(hù)以及自動(dòng)化系統建立一個(gè)新的工作領(lǐng)域。
人工智能概念股:埃斯頓、科大智能、漢王科技、江南化工、華東數控、和而泰、中科曙光、永創(chuàng )智能、北京君正、通富微電、永創(chuàng )智能、勁拓股份。
人工智能概念股
那么問(wèn)題來(lái)了:最值得配置的人工智能概念股是哪只?即刻申請進(jìn)入國內首個(gè)免費的非公開(kāi)主題投資交流社區概念股論壇參與討論!
申明:本文為作者投稿或轉載,在概念股網(wǎng) http://m.medicalvoicenetwork.com/ 上發(fā)表,為其獨立觀(guān)點(diǎn)。不代表本網(wǎng)立場(chǎng),不代表本網(wǎng)贊同其觀(guān)點(diǎn),亦不對其真實(shí)性負責,投資決策請建立在獨立思考之上。