人工智能的應用,可能是影響深遠的社會倫理試驗。應通過算法給智能機器嵌入人類的價值觀和規(guī)范,讓它們具有和人類一樣的倫理道德。
前不久,包括特斯拉首席執(zhí)行官馬斯克在內(nèi)的多位全球人工智能頂尖專家簽署承諾書,呼吁不要開發(fā)“人工智能自主武器”。這已經(jīng)不是業(yè)界第一次警告人工智能的潛在風險了。盡管當前處理單項任務、完成人類指令的“弱人工智能”自主性還很低,人們卻不能因此忽視新技術(shù)應用的潛在隱患。
高效、聰明的人工智能并不完美。比如,人工智能存在算法缺陷。這種缺陷往往源于機器學習過程的不可解釋和不可理解,它的判斷有時就像在一個黑箱中完成,缺少透明性。無人駕駛汽車決定向左或右轉(zhuǎn)時,人們并不完全清楚它做出轉(zhuǎn)向的過程。除了傳感器故障,人們甚至無法準確找到問題原因,這就給有針對性地調(diào)整系統(tǒng)、判定責任帶來了障礙。正因為如此,不久前生效的歐盟《通用數(shù)據(jù)保護條例》專門規(guī)定,人工智能公司必須讓人來審查某些算法決策。
不僅有近憂,更有遠慮。放眼未來,人工智能的應用正在模糊虛擬世界和物理世界的界限,可能重塑人類的生存環(huán)境和認知形態(tài),并由此衍生出一系列棘手的倫理、法律和安全難題。與歷史上其他技術(shù)創(chuàng)新相比,人工智能的倫理法律等問題受到如此大的關(guān)注,一個重要原因在于它在理念上有望實現(xiàn)可計算的感知、認知和行為,從而在功能上模擬人的智能和行動,進而使得機器具有了一種準人格或擬主體的特性。人類現(xiàn)有的法律規(guī)范、概念框架及知識儲備,能否應對人工智能發(fā)展引發(fā)的新問題,是人們不得不正視的挑戰(zhàn)。
針對人工智能應用的潛在風險,國際社會在標準設(shè)計、倫理道德等方面提出了一系列試圖控制智能機器系統(tǒng)的方案,逐漸形成一個共識原則:通過算法給智能機器嵌入人類的價值觀和規(guī)范,以此讓它們具有和人類一樣的同情心、責任心、羞恥感等倫理道德。人們希望,人工智能的算法遵循“善法”,在完成人類難以完成的任務同時,吸取人類道德規(guī)范“善”的一面,從而達到控制機器風險的目的。畢竟,任何算法都只是實現(xiàn)目的的工具或手段,“善”的結(jié)果才是人類的追求目標。
實際上,通過編寫代碼和算法來控制機器的設(shè)想并不新鮮。70多年前,美國科幻作家阿西莫夫提出“機器人三定律”,構(gòu)想了通過內(nèi)置的“機器倫理調(diào)節(jié)器”,設(shè)定機器人不得危害人類的原則。而今,計算機專家、倫理學家、社會學家、心理學家等正在共同努力,走在實踐這一設(shè)想的路上。
人類對人工智能發(fā)展的遠慮或許來得早了點,但未雨綢繆體現(xiàn)的正是人類的智慧和洞見,我們不能等到人工智能深度介入人類生活后才思考如何與之相處的問題。與機器相處的和諧度,應是人類開發(fā)利用人工智能的重要標尺。畢竟,人工智能的應用,不僅僅是一場科技創(chuàng)新,也可能是影響深遠的社會倫理試驗。
“人工智能的短期影響由控制它的人決定,而長期影響則取決于人工智能是否完全為人所控制。”這是知名物理學家霍金給人類留下的警示。我們不必被人工智能的風險所嚇倒,但在享受人工智能福利的同時,也需要劃好倫理道德、法律規(guī)則等紅線。(喻思南)
已有0人發(fā)表了評論