上周, Google與OpenAI聯(lián)合發(fā)布了AI安全五大準(zhǔn)則;29日,微軟CEO薩提亞·納德拉(Satya Nadella)在《Slate》網(wǎng)絡(luò)雜志上發(fā)表文章,并列出了他的AI研究安全六大“準(zhǔn)則和目標(biāo)”。
納德拉的六大準(zhǔn)則和目標(biāo)并非直接參照阿西莫夫的三定律。阿西莫夫的機器人三定律制定的是機器人必須遵守的準(zhǔn)則,而納德拉是在與行業(yè)對話——與那些建立AI系統(tǒng),與機器學(xué)習(xí)打交道的計算科學(xué)家對話。
因此,他關(guān)注的是人工智能的潛在社會影響,而不是阻斷機器人與人類之間的接觸;蛟S這樣一來,納德拉的準(zhǔn)則就顯得失了些趣味,但它們卻重要得多。
以下是納德拉的六大準(zhǔn)則:
以輔助性為設(shè)計準(zhǔn)則。納德拉表示,與人肩并肩工作的機器人應(yīng)該執(zhí)行“如采礦般的危險任務(wù)”,但仍然“尊重人類的自主性”。
透明性準(zhǔn)則。“我們想要的不僅僅是智能機器,更需要可供理解的機器IPC610工控機。”納德拉說。“人們應(yīng)該要理解技術(shù)在如何認(rèn)識和分析世界。”
不損害人類尊嚴(yán)的同時追求效率大化。“我們需要更多、更深入地參與進(jìn)這些系統(tǒng)的設(shè)計之中。未來的價值觀和美德不應(yīng)該有高科技產(chǎn)業(yè)來制定。”
隱私性原則。納德拉呼吁“以精密的技術(shù)來保護(hù)個人和群體信息。”
算法責(zé)任準(zhǔn)則。這樣一來,“人類就可以撤銷意料之外的傷害。”
防偏見準(zhǔn)則。應(yīng)該通過“適當(dāng)?shù)、有代表性的研?rdquo;確保AI不會歧視人類。
相應(yīng)地,納德拉的準(zhǔn)則與阿西莫夫的三定律一樣,模糊而不明確。但是,后者是為了適應(yīng)小說跌宕起伏的劇情需要(阿西莫夫的許多作品都牽涉到一個邏輯上的技術(shù)問題,就是機器人如何繞過定律,襲擊自己的主人),而納德拉的準(zhǔn)則里的模糊性反映出我們面臨的棘手問題,也就是建立深刻影響人類生活的機器人和AI系統(tǒng)。
關(guān)于大量提及的“偏見”和“差異”。的確,技術(shù)產(chǎn)業(yè)常常苦于涌現(xiàn)的多樣性觀點研華工控機(與膚色和性別無關(guān));
如果機器學(xué)習(xí)系統(tǒng)能夠代表人類做決策,那么很有可能工程師的無知——甚至偏見——都在為硬編碼的系統(tǒng)所替代。為了防止這種情況發(fā)生,計算機科學(xué)家就需要防止偏見的出現(xiàn)(納德拉準(zhǔn)則第六條),同時要使系統(tǒng)足夠簡單易懂,這樣他人才能找到差異(第二條),然后撤銷傷害(第五條)。
納德拉六大準(zhǔn)則的另一個主題是AI對經(jīng)濟的影響——也就是我們所熟知的“機器人取代人類的工作”。納德拉表示,第三條準(zhǔn)則似乎可以說明這一點,隨后在評論中他問到:“自動化會增強平等還是損害平等?”這個問題沒有確切答案,卻是我們亟待思考的問題。
納德拉的準(zhǔn)則有許多重疊的部分,但總的主題很簡單:不要傷害人類。在急切建立自動化機器和系統(tǒng)的今天,我們應(yīng)該記。簷C器和系統(tǒng)應(yīng)該要輔助人類,而不能傷害人類。這一點與阿西莫夫一致。
企業(yè)分站 在線客服 : 服務(wù)熱線: 025-86136252 / 15062244194 電子郵箱: [email protected]
公司地址:江蘇省南京市江寧區(qū)未來科技城
研維信息是一家集研發(fā)、生產(chǎn)、銷售為一體的工控機、嵌入式安裝工業(yè)平板電腦、加固手持平板電腦、加固類三防計算機的專業(yè)設(shè)備提供商,提供各種尺寸和規(guī)格的安裝式工業(yè)平板電腦,手持三防平板電腦,加固三防計算機。核心研發(fā)及市場團隊均有10余年的相關(guān)行業(yè)背景,尤其是公司的ODM團隊,可以為客戶提供快速、質(zhì)優(yōu)、靈活的客戶定制化產(chǎn)品OEM及ODM服務(wù),公司對員工及客戶,都一直秉承合作共贏、以德為先的經(jīng)營宗旨,為客戶提供優(yōu)質(zhì)產(chǎn)品及服務(wù),提升客戶價值。