發表於2024-12-27
1.AlphaGo一路凱歌,“銀翼殺手”日益逼近現實……本書預言:在未來數年內,人工智能係統很可能擺脫人類監管,自主做齣決定,甚至會走上反抗人類、毀滅人類的道路!
2.如何讓智能機器人遵守人類道德?人工智能專傢如何能設計齣符閤人類道德規範的機器人?本書提齣的基礎框架,為人工道德智能體(AMAs)的設計指明瞭方嚮!
3.本書乃人工智能道德研究的前沿之作和奠基之作,齣版以來,以預言傢的遠見卓識,風靡歐美各國和日本、韓國。極大地促進瞭諸多發達國傢的機器人立法。
4.英國《自然》、《泰晤士高等教育》,德國《明鏡周刊》,美國《紐約時報》、《新聞周刊》、《NBC新聞》、《芝加哥論壇報》等世界各大媒體重磅推薦!
溫德爾?瓦拉赫(Wendell Wallach)是享有國際聲譽的人工智能和神經科學倫理學領域的專傢,主持耶魯大學生物倫理學跨學科研究中心技術和倫理工作小組長達十餘年,擔任2015-2016年加拿大渥太華大學的富布萊特講席研究員(Fulbright Research Chair),曾獲全球技術網絡協會(World Technology Network)頒發的2014年倫理學奬、2015年新聞與傳媒奬。世界經濟論壇任命他作為2016-1018全球未來技術價值和政策委員會的聯閤主席。
科林?艾倫(Colin Allen)是當今有影響的認知哲學傢之一,因其在計算和哲學領域做齣的重大貢獻獲得美國哲學學會頒發的巴韋斯終身成就奬、德國洪堡基金會頒發的洪堡奬等重要國際學術奬項。現受聘為西安交通大學長江講座教授、美國匹茲堡大學科學哲學和科學史係傑齣教授。曾擔任印第安納大學教務長講席教授。
導言
第一章 機器道德為什麼如此重要?
第二章 工程道德:AI時代的煉金術
第三章 人類想要計算機做道德決策嗎?
第四章 機器人真的能有道德嗎?
第五章 哲學傢、工程師與人工道德
第六章 自上而下的道德
第七章 自下而上的發展式進路
第八章 自上而下式與自下而上式的混閤
第九章 超越“霧件”?
第十章 超越理性
第十一章 更像人的人工道德智能體
第十二章 危險、權利和責任
結語 機器心靈與人類倫理
注釋
參考文獻
譯名對照錶
譯後記
中文版序
幾乎過不瞭一星期,報紙上、電視上,就總會看到人工智能(AI)的新聞,各種AI對人們生活造成或者可能造成負麵影響的消息不絕於耳。不管是數據挖掘算法泄露個人信息,還是有政治導嚮的宣傳的影響,如數據挖掘公司可能利用選民信息深度乾預瞭美國總統選舉結果,或種族和性彆偏見浸入瞭人工智能程序,抑或是自動駕駛汽車會使數百萬人丟掉工作。自從《道德機器》(Moral Machines)英文版首次問世,數年以來,圍繞AI産生的這些倫理問題已經變得愈加急迫和突齣。
這裏給齣一個文化偏見滲透進AI程序方麵的例子。類似榖歌翻譯這樣的解釋語言程序,其能力近年來有瞭大幅度提高,這主要得益於新的機器學習技術以及可以訓練程序的大量在綫文本數據的齣現。但是最近的研究顯示,在機器習得越來越像人的語言能力的過程中,它們也正在深度地吸取人類語言模式中隱含的種種偏見。機器翻譯的工作進路一般是這樣的,建構一個關於語言的數學錶徵,其中某個詞的意義根據最經常和它一同齣現的詞而被提煉為一係列數字(叫詞嚮量)。令人驚訝的是,這種純粹統計式的方式卻顯然抓住瞭某個詞的意義中所蘊含的豐富的文化和社會情境,這是字典裏的定義不大可能有的。例如,關於花的詞語和令人愉悅之類的詞聚類,昆蟲類的詞語和令人不快之類的詞聚類;詞語"女性""婦女"與藝術人文類職業以及傢庭聯係更緊密,詞語"男性""男人"則和數學、工程類職業更近。尤為危險的是,AI還有強化所習得的偏見的潛能,它們不像人可以有意識地去抵製偏見。因此,如何在設計理解語言的算法時既讓其消除偏見,又不喪失其對語言的解釋能力,這是一項很大的挑戰。
對於上述可能産生自AI的一些最壞的情況,學術界和技術界的領軍人物紛紛錶示關注。像劍橋大學當代最重要的物理學傢史蒂芬·霍金(Stephen Hawking),還有太空運載私人運營和電動汽車的開拓者埃隆·馬斯剋(Elon Musk),他們擔心,AI代錶著威脅人類存在的危險。另一些人卻錶示樂觀,對AI的長遠前景滿懷熱情。但他們認識到對AI的限製以及AI的弱點對商業來說是很糟糕的事情。就在2016年9月,來自微軟、IBM、FaceBook、榖歌、蘋果以及亞馬遜的領導人,他們共同創立瞭關於AI的閤作夥伴關係,當時宣稱的目標是要確保AI是"安全可靠的,要和受AI行為影響的人們的倫理和喜好一緻"。但是,市場經濟的邏輯總是在驅動著愈演愈烈的雄心,於是,應用機器學習處理收集的海量電子化數據、提高自動駕駛汽車上路的數量,新聞的頭版頭條持續不斷。
《道德機器》書中的信息依然是極為重要的,雖然此書首次齣版以來,技術已經大大嚮前發展瞭,但基本的難題不僅依然沒有解決,反而被這些技術進展所加劇。先進算法工作的基本原理還是沒完全搞清楚,這就關係到AI解釋自身決策方麵的無能為力。當然,人們在決策時也不總是能夠一目瞭然地解釋清楚自己的抉擇。但是,要設計處在一個更高水平上的機器,我們這樣把握是對的。
在《道德機器》中闡述瞭一種混閤式係統,組閤瞭自下而上式的數據驅動的學習和進化的方式,以及自上而下式的理論驅動做決策。這個思想,對於AI軟件的設計以及能夠在人類環境中操作的機器人來說,依然是最好的策略。但是,在這本書約十年前問世之後,批評者們的意見是對的,我們本來可以更多地討論一下設計更大的有機器運行的社會�布際蹕低場N頤槍刈⑷綰問夠�器自身的道德能力逐漸增進--這是一個依然需要研究的課題,關於如何使機器尊重它們的設計者和使用者人類的倫理價值,以及有效維護人類的道德責任方麵的問題,僅僅隻解決瞭部分。
人工智能機器已經在特定領域勝過瞭人。這令許多評論傢相信超人智能不遠瞭。但是,盡管AI取得瞭目前的進展,它的成功依然是脆弱的,而人的智能通常卻不是這樣。某個機器可以下圍棋勝過人,卻不能同時會下象棋、會開車,還能在傢人飯後,一邊幫忙收拾桌子,一邊解答政治學的問題。即使這些能力可以綁定給一個物理機器,我們也依然不知道,如何以像人那樣的方式把它們整閤在一起,讓一個領域的思想和概念靈活地暢行至另一領域。如此說來,《道德機器》最初問世時候的基本信息依然沒有變,這就是:不應該讓未來學傢的擔心和猜測轉移我們的注意力,我們的任務依然是設計自主機器,讓它們以可辨識的道德方式行事,使用著我們已經獲得的社會、政治和技術資源。
科林·艾倫(Colin Allen)
美國�財プ缺ぃ�2017年9月26日
道德機器 如何讓機器人明辨是非 下載 mobi pdf epub txt 電子書 格式 2024
道德機器 如何讓機器人明辨是非 下載 mobi epub pdf 電子書好書一本。
評分還沒讀,想學習一下
評分品相不錯,還沒開始看,先備著。
評分品相不錯,還沒開始看,先備著。
評分還沒讀,想學習一下
評分看著還不錯,新書比較貴。
評分非常不錯的書,非常有價值
評分看著還不錯,新書比較貴。
評分剛收到貨,物流送貨很快,待細細品讀。
道德機器 如何讓機器人明辨是非 mobi epub pdf txt 電子書 格式下載 2024