• <tfoot id="qq0qq"><noscript id="qq0qq"></noscript></tfoot>
    <nav id="qq0qq"><sup id="qq0qq"></sup></nav>
    
    
  • <blockquote id="qq0qq"><strong id="qq0qq"></strong></blockquote>
    <noscript id="qq0qq"><dd id="qq0qq"></dd></noscript>
    <sup id="qq0qq"></sup>
    <noscript id="qq0qq"><dd id="qq0qq"></dd></noscript>
  • <small id="qq0qq"></small>
  • <sup id="qq0qq"><code id="qq0qq"></code></sup>
      • 一区爱爱视频播放,国产成人av国语在线观看,欧美日本精品一区二区三区,日韩黄色无码一区二区三区,中文字幕人妻系列人妻有码,午夜男女刺激爽爽影院18禁

        【老外談】人工智能辯論,每一個(gè)人都不應(yīng)當(dāng)置身事外

        來(lái)源:中國(guó)日?qǐng)?bào)網(wǎng)
        2017-08-08 14:58:33
        分享

        【老外談】人工智能辯論,每一個(gè)人都不應(yīng)當(dāng)置身事外

        中國(guó)政府最近宣布,計(jì)劃投入大量資金發(fā)展人工智能產(chǎn)業(yè),目標(biāo)到2030年使中國(guó)在該領(lǐng)域處于世界領(lǐng)先水平。近幾十年來(lái),一場(chǎng)技術(shù)革命不僅改變了世界,也變革了我們生活、工作和溝通的方式,而人工智能則代表著這場(chǎng)技術(shù)革命的最新目標(biāo)。

        在人工智能領(lǐng)域,中國(guó)計(jì)劃在2020年趕上美國(guó)等競(jìng)爭(zhēng)對(duì)手,然后在接下來(lái)的十年時(shí)間里超越他們,使得人工智能成為經(jīng)濟(jì)轉(zhuǎn)型的驅(qū)動(dòng)力。

        這些承諾聽上去擲地有聲,但人們不禁要問(wèn)人工智能究竟是什么呢?

        絕大多數(shù)普通人的腦海里會(huì)浮現(xiàn)出自動(dòng)駕駛汽車,并對(duì)自動(dòng)駕駛汽車的潛在優(yōu)勢(shì)欣賞不已。不過(guò),對(duì)于很多人而言,想到機(jī)器終有一天會(huì)比人類更智能,就會(huì)聯(lián)想到科幻小說(shuō)里預(yù)測(cè)的未來(lái)場(chǎng)景——機(jī)器掌控世界,如噩夢(mèng)般可怕。

        如果我們想要避開潛在危險(xiǎn),人工智能應(yīng)當(dāng)朝著何種方向發(fā)展?對(duì)于這個(gè)問(wèn)題,甚至就連技術(shù)專家們也存在分歧。

        伊隆?馬斯克是美國(guó)電動(dòng)汽車巨頭“特斯拉”(Tesla)和太空探索技術(shù)公司“Space X”的首席執(zhí)行官(CEO),他最近半開玩笑半認(rèn)真地說(shuō),人類之所以應(yīng)當(dāng)開拓火星殖民地,是因?yàn)榫哂兴伎寄芰Φ臋C(jī)器人注定要接管地球,屆時(shí)火星可以成為人類的避難所。這位人工智能懷疑論者擔(dān)憂,人類會(huì)意外地為科技所害、導(dǎo)致自我毀滅。早在2014年,他就把人工智能稱為人類最大的存在性威脅。

        英國(guó)著名物理學(xué)家史蒂芬?霍金也發(fā)出過(guò)類似的警示。

        部分科技創(chuàng)新者則持更加輕松的心態(tài)。雷蒙德?庫(kù)茨魏爾是人工智能領(lǐng)域頂尖的技術(shù)開發(fā)人員,他相信合理的掌控可以防范末日世界的到來(lái),他以生物技術(shù)的發(fā)展為例,宣稱生物技術(shù)指導(dǎo)準(zhǔn)則在過(guò)去數(shù)十年間運(yùn)作良好。“過(guò)去39年沒(méi)有發(fā)生過(guò)任何嚴(yán)重問(wèn)題,無(wú)論是意外還是有意為之,”庫(kù)茨魏爾2014年在一篇博客中寫道,“我們看到醫(yī)療領(lǐng)域取得重大進(jìn)步、投入臨床實(shí)踐,到目前為止,人們擔(dān)憂的問(wèn)題都沒(méi)有發(fā)生。”生物技術(shù)曾一度被視作人類面臨的潛在威脅,有人擔(dān)憂不法科學(xué)家或利用該技術(shù)篡改人類的DNA。

        庫(kù)茨魏爾等人認(rèn)為,人類過(guò)去面臨過(guò)不少存在性挑戰(zhàn),但總是跨越了阻礙。這種觀點(diǎn)令人感到安慰。自古以來(lái)絕大多數(shù)新發(fā)明新創(chuàng)造都存在潛在的兩面性,可用于善可用于惡。像是原始人的長(zhǎng)矛可以用來(lái)獵取食物,也能用作殺人的武器。再比如,中國(guó)古代四大發(fā)明之一的火藥,如果只被用來(lái)制做煙花而不是被他人用于戰(zhàn)爭(zhēng),人類社會(huì)可能會(huì)變得更好。

        但是,正如我們絕大多數(shù)都承認(rèn)的,人類不能停止進(jìn)步。人工智能遲早會(huì)變成現(xiàn)實(shí),好消息是全世界的科學(xué)家正在攜手合作,確保人工智能不會(huì)遭到濫用。

        過(guò)去十年間,美國(guó)麻省理工學(xué)院(MIT)開始在人工智能及其他高科技領(lǐng)域與清華大學(xué)等中國(guó)科研院所進(jìn)行合作。MIT在一份2010年的報(bào)告中寫道:“如果我們要參與到全球性問(wèn)題的解決當(dāng)中來(lái),不論是可持續(xù)城市、氣候變化、資源枯竭、疾病控制,還是其他,我們都必須理解并讓中國(guó)參與其中。”

        隨著中國(guó)計(jì)劃在人工智能研發(fā)領(lǐng)域占據(jù)領(lǐng)先地位,中國(guó)和中國(guó)的國(guó)際合作伙伴也應(yīng)看到這項(xiàng)新技術(shù)可能會(huì)在就業(yè)和全球安全領(lǐng)域產(chǎn)生潛在破壞性后果。

        正如全球人工智能專家、谷歌云全球首席科學(xué)家日前接受采訪時(shí)所言,人工智能既可以用來(lái)造福人類,也可能會(huì)造成極為惡劣的后果,關(guān)于人工智能的討論,“硅谷的業(yè)界領(lǐng)袖、院校的教授學(xué)生、立法者、政策制定者、教育屆人士……所有人都應(yīng)當(dāng)加入進(jìn)來(lái)”。(編譯:諶融)

        本文作者為《中國(guó)日?qǐng)?bào)》高級(jí)編輯顧問(wèn)哈維?莫里斯。

        分享
        標(biāo)簽:
         
         
        一区爱爱视频播放
      • <tfoot id="qq0qq"><noscript id="qq0qq"></noscript></tfoot>
        <nav id="qq0qq"><sup id="qq0qq"></sup></nav>
        
        
      • <blockquote id="qq0qq"><strong id="qq0qq"></strong></blockquote>
        <noscript id="qq0qq"><dd id="qq0qq"></dd></noscript>
        <sup id="qq0qq"></sup>
        <noscript id="qq0qq"><dd id="qq0qq"></dd></noscript>
      • <small id="qq0qq"></small>
      • <sup id="qq0qq"><code id="qq0qq"></code></sup>