• <tr id="mmmmm"><small id="mmmmm"></small></tr>
    • <noscript id="mmmmm"></noscript>
      <nav id="mmmmm"></nav>
    • <tr id="mmmmm"></tr>
      <nav id="mmmmm"><sup id="mmmmm"></sup></nav>

      婷婷色婷婷开心五月,一夲道岛国无码不卡视频,日韩人妻无码bd,亚洲另类无码专区首页

      ad9_210*60
      關(guān)鍵詞:
      臺(tái)灣網(wǎng)  >  兩岸文化  >   書(shū)訊

      科技失控:智慧機(jī)器將成為人類的最後一項(xiàng)發(fā)明?

      2017年02月15日 08:43:22  來(lái)源:鳳凰讀書(shū)
      字號(hào):    

        作為人工智慧倫理學(xué)方面的權(quán)威,耶魯大學(xué)生物倫理學(xué)跨學(xué)科中心的主管溫德?tīng)?#183;瓦拉赫(Wendell Wallach)對(duì)於新興科技的預(yù)言和警告,一直被科技界當(dāng)做未來(lái)發(fā)展的重要參考。

        比如在2016年天津夏季達(dá)沃斯論壇上,瓦拉赫教授認(rèn)為谷歌人工智慧Alpha Go戰(zhàn)勝韓國(guó)棋手李世石的就表明機(jī)器學(xué)習(xí)的能力越來(lái)越重要,但同時(shí),瓦拉赫教授在他的新書(shū)《科技失控:用科技思維重新看懂未來(lái)》中,也對(duì)新興的熱點(diǎn)技術(shù),如人工智慧、自動(dòng)駕駛、地球工程等,提出了倫理挑戰(zhàn)和警告。

        失業(yè)、災(zāi)難和毀滅

        科技所帶來(lái)的問(wèn)題,不僅僅在於技術(shù)本身所引發(fā)的一些環(huán)境、健康和危害,還在於其可能引發(fā)的社會(huì)問(wèn)題和倫理問(wèn)題。

        聯(lián)合國(guó)報(bào)告稱:2/3發(fā)展中國(guó)家工人將被機(jī)器所取代,這一趨勢(shì)已經(jīng)被各機(jī)構(gòu)所認(rèn)同,但其實(shí)新技術(shù)引發(fā)的對(duì)失業(yè)的恐懼並非新現(xiàn)象,早在1779年英國(guó)傳奇無(wú)産階級(jí)英雄奈德·盧德(Ned Ludd)就親手砸毀了當(dāng)時(shí)先進(jìn)的針織機(jī),英國(guó)諾丁漢的針織品手工藝人受到其鼓舞及對(duì)失業(yè)的恐懼而大肆毀壞當(dāng)時(shí)工廠中的機(jī)械針織機(jī)。以至於後來(lái)人們總是把反對(duì)工業(yè)化和自動(dòng)化的人稱為“盧德分子”。

        瓦拉赫教授説:“也許我們的下一代有可能會(huì)親眼看到200年前盧德派所擔(dān)心的夢(mèng)魘發(fā)生,技術(shù)所搶奪的工作將遠(yuǎn)遠(yuǎn)超過(guò)其創(chuàng)造的工作。就業(yè)機(jī)會(huì)的創(chuàng)造可能也存在週期性的增長(zhǎng),但是我們可以暫時(shí)假設(shè)所創(chuàng)造的新工作形式遠(yuǎn)遠(yuǎn)落後於人們對(duì)於就業(yè)的需求,這肯定會(huì)産生破壞性的後果。”

        系列電影《終結(jié)者》也引發(fā)了人們對(duì)於智慧自主武器的恐懼,這種由人工智慧和超級(jí)武器結(jié)合的産物,也成為了人類的超級(jí)夢(mèng)魘之一,也被各種科幻創(chuàng)作引為人類毀滅的手段之一。或許人們會(huì)找出各種理由來(lái)支援自主武器的發(fā)展,其中的理由之一極可能是這項(xiàng)技術(shù)可以減少戰(zhàn)爭(zhēng)中的生命損失。但也有可能因此而降低戰(zhàn)爭(zhēng)的門檻——因?yàn)榭雌饋?lái)戰(zhàn)爭(zhēng)成本會(huì)更低。

        對(duì)此瓦拉赫教授在《科技失控》中説:“自主武器系統(tǒng)與非自主武器系統(tǒng)之間的區(qū)別可能只是一行代碼的問(wèn)題。”“自主武器容易導(dǎo)致錯(cuò)覺(jué),以為戰(zhàn)爭(zhēng)可以迅速啟動(dòng)並很快以最小的成本取勝。但是,一旦戰(zhàn)爭(zhēng)開(kāi)始,不僅是士兵的生命還有平民的生命都難於倖免。”

        智慧機(jī)器將成為人類最後一項(xiàng)發(fā)明

        數(shù)學(xué)家古德(I.J. Good)在1965年發(fā)表了一篇題為《有關(guān)第一臺(tái)超智慧機(jī)器的猜想》的文章中,預(yù)測(cè)電腦將從各方面都超過(guò)人類的智慧能力。超智慧機(jī)器的一個(gè)顯著特點(diǎn)是具備製造出更好機(jī)器的能力 。它們的出現(xiàn)會(huì)引發(fā)“智慧爆炸”,機(jī)器將設(shè)計(jì)出更智慧的電腦,它們的進(jìn)化將遠(yuǎn)遠(yuǎn)超出人類的智慧。古德寫(xiě)下了一句非常著名的話:“第一臺(tái)超智慧機(jī)器將是人類的最後一項(xiàng)發(fā)明。”

        智慧機(jī)器將給我們帶來(lái)的變化和發(fā)展不言而喻,這種顯而易見(jiàn)的好處和發(fā)展趨勢(shì)甚至可以沖淡人們對(duì)於智慧機(jī)器産生的憂慮,近來(lái)谷歌的人工智慧Alpha Go的表現(xiàn)就經(jīng)常被當(dāng)成娛樂(lè)新聞被人津津樂(lè)道,但是我們絕不能因此而忽視其潛在的問(wèn)題。更多時(shí)候面對(duì)趨勢(shì)我們並不能阻止其發(fā)展,但可以決定其究竟什麼時(shí)候?qū)崿F(xiàn)。

        瓦拉赫教授説:“但是時(shí)間越長(zhǎng),機(jī)會(huì)越多,可以確保超智慧機(jī)器人對(duì)人類和人類的價(jià)值觀友好。認(rèn)為科學(xué)家肯定終有一天會(huì)發(fā)現(xiàn)製造此類機(jī)器人或?qū)崿F(xiàn)人類進(jìn)化當(dāng)然不是愚蠢的。但是,這很大程度上取決於在20年、200年還是1000年以後實(shí)現(xiàn)。”

        生死關(guān)頭,我們是否應(yīng)該將決策權(quán)交給機(jī)器

        對(duì)於無(wú)人駕駛汽車安全性較目前的汽車更高的説法,瓦拉赫教授表示懷疑:“據(jù)谷歌的統(tǒng)計(jì),當(dāng)前的設(shè)計(jì)平均36000英里才會(huì)出現(xiàn)一次電腦司機(jī)出現(xiàn)嚴(yán)重錯(cuò)誤需要人進(jìn)行干預(yù)的情況。這聽(tīng)起來(lái)讓人比較放心,因?yàn)橐话愕乃緳C(jī)需要2或3年才能開(kāi)夠這麼遠(yuǎn)的里程。然而,人類司機(jī)一般每50萬(wàn)英里才會(huì)出現(xiàn)事故,每130萬(wàn)英里可能發(fā)生傷人的事故,每9000萬(wàn)英里才可能導(dǎo)致人員死亡的事故。因此,難以證明依賴備份人類司機(jī)的無(wú)人駕駛汽車能否真正降低死亡率。”

        失控點(diǎn)也可能不僅是技術(shù)本身。比如即便是事故死亡率更低,也要區(qū)分是駕駛者死亡和事故中死亡,比如説,失控的汽車是選擇撞向行人還是路邊的供電設(shè)備——後者看起來(lái)是一個(gè)不錯(cuò)的選擇,但可能會(huì)造成駕駛者死亡,並且如果造成全面停電可能會(huì)引起部分區(qū)域停電從而影響那些在醫(yī)院中急救的人從而造成死亡;比如説,為了避免撞上公共汽車或兒童,造成更多的死亡,有些駕駛者會(huì)選擇從橋上衝下去,這個(gè)問(wèn)題可能並不讓人愉快,但確實(shí)關(guān)乎一個(gè)決策權(quán)的問(wèn)題。

        而且,現(xiàn)實(shí)問(wèn)題可能會(huì)比設(shè)想更為複雜往往會(huì)涉及到三種或更多的因素在裏面,這裡面可能涉及一個(gè)道德回復(fù):我們的本能反應(yīng)未必會(huì)比機(jī)器的選擇更好。但這同時(shí)也返回我們最初的問(wèn)題:我們是否應(yīng)將決策權(quán)交給機(jī)器?

        我們不會(huì)停止腳步,但可以少繳智商稅

        在科技的發(fā)展過(guò)程中,我們總要為自己的判斷和試驗(yàn)而付出不小的代價(jià)。不同於科技發(fā)展本身的代價(jià)和投入,科技中可預(yù)見(jiàn)但因?yàn)樨澙坊蚱渌蛟斐傻氖Э攸c(diǎn)也會(huì)造成研究者、投資者和消費(fèi)者的嚴(yán)重?fù)p失,我們姑且將其稱之為“科技智商稅”。智商稅的特點(diǎn)是,在人們清醒之前,總會(huì)哭著喊著要交,你如果提醒他他還會(huì)怒不可遏,除非他自己最終能意識(shí)到。

        我們不期望《科技失控》能完全消除科技智商稅的發(fā)生,但如果我們能對(duì)科技進(jìn)行正反的思考,就能盡可能減少我們犯錯(cuò)的幾率。

        正如史蒂芬 霍金(Stephen William Hawking)雖然一直警告科技是人類最大的威脅,但同時(shí)他也説:我們不會(huì)停止進(jìn)步,或刻意逆轉(zhuǎn)。所以我們必須認(rèn)識(shí)到進(jìn)步的風(fēng)險(xiǎn)並控制它。

        推薦

        大量技術(shù)發(fā)明的涌現(xiàn)都伴隨著相應(yīng)的風(fēng)險(xiǎn)。倫理學(xué)家瓦拉赫在這一領(lǐng)域的研究幫我們從危險(xiǎn)中排除了不理智的因素。

        ——《自然》(Nature)

        溫德?tīng)?#183;瓦拉赫似乎總是比我們超前幾年。他這本了不起的書(shū)將我們帶到了科技前沿,向我們展示了最卓著的技術(shù)發(fā)明如何,為什麼以及在哪些地方改變?nèi)祟惖纳睢M呃账季S敏銳入微,他完美地將對(duì)新興技術(shù)的淵博知識(shí)與對(duì)歷史的把握、對(duì)人性的尊重結(jié)合起來(lái)。《科技失控》是一本引人入勝、意義非凡的書(shū),話題本身屬於學(xué)術(shù)研究範(fàn)疇,但讀起來(lái)卻妙趣橫生。

        ——哈佛大學(xué)道德與認(rèn)知實(shí)驗(yàn)室主任喬舒亞·格林(Joshua Greene)

        這本恰逢其時(shí)的書(shū)對(duì)於大量快速發(fā)展的科學(xué)技術(shù)的利弊進(jìn)行了不偏不倚的評(píng)價(jià)。這是一本值得廣泛閱讀的書(shū)。

        ——康橋大學(xué)宇宙學(xué)和天體物理學(xué)教授馬丁·李斯(Martin Rees)

        《科技失控》讓人不禁聯(lián)想到成千上萬(wàn)的暢銷小説和賣座電影:比如羅伯特·海因萊因的《我不會(huì)害怕邪惡》,艾薩克·阿西莫夫的《我和機(jī)器人》,大衛(wèi)·米切爾的《骨醫(yī)生》,石垣和未的《別讓我走》,尼爾·斯蒂芬森的《鑽石時(shí)代》,以及《千鈞一髮》《駭客帝國(guó)》《X戰(zhàn)警》和《星球大戰(zhàn)前傳1:幽靈的威脅》等。但是,上述這些作品和它們描述的各種反烏托邦通常被認(rèn)為是科幻虛擬世界,而瓦拉赫的書(shū)絕不能如此定性,他向我們發(fā)出了現(xiàn)實(shí)的警告,如不加以關(guān)注,警惕技術(shù)的發(fā)展趨勢(shì),不斷評(píng)估技術(shù)的利弊,那麼他所警告的一切將有可能。

        ——美國(guó)科技部落格媒體Ars Technica

      [責(zé)任編輯:楊永青]

      婷婷色婷婷开心五月
    • <tr id="mmmmm"><small id="mmmmm"></small></tr>
      • <noscript id="mmmmm"></noscript>
        <nav id="mmmmm"></nav>
      • <tr id="mmmmm"></tr>
        <nav id="mmmmm"><sup id="mmmmm"></sup></nav>