張志強(qiáng),張志強(qiáng)講師,張志強(qiáng)聯(lián)系方式,張志強(qiáng)培訓(xùn)師-【中華講師網(wǎng)】
    互聯(lián)網(wǎng)+全息領(lǐng)導(dǎo)力
    53
    鮮花排名
    0
    鮮花數(shù)量
    張志強(qiáng):人類擔(dān)憂強(qiáng)人工智能的危害,科學(xué)家卻認(rèn)為要實(shí)現(xiàn)還需跨越幾十年寒冬
    2016-01-20 2079

    2015年初,一些研究者開始擔(dān)心人工智能的安全,一切都變化飛快。

    牛津大學(xué)人類未來研究院院長、哲學(xué)教授尼克·博斯特羅姆的新書《超級智能:方法、危險(xiǎn)、策略》供不應(yīng)求,生命未來研究所(FLI)在波多黎各舉行了人工智能未來安全的討論會議,兩封關(guān)于人工智能和自動武器的信件公之于眾,SpaceX和特斯拉的共同創(chuàng)始人埃隆·馬斯克、宇宙學(xué)家斯蒂芬·霍金、微軟公司創(chuàng)始人比爾·蓋茨和蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克等業(yè)界大咖都發(fā)表過關(guān)于人工智能威脅的言論,無數(shù)文章援引了他們的擔(dān)憂。

    馬斯克通過FLI捐贈了1000萬美元用于人工智能安全研究,萊弗休姆未來情報(bào)中心獲得1500萬美元用于研發(fā)智能的未來。還有最近成立不久的非營利組織OpenAI,花費(fèi)10億美元把人工智能領(lǐng)域最有思想的那群人聚到一起,想辦法解決人工智能的安全問題。

    總而言之,這是一個(gè)人工智能安全研究的豐收年。越來越多的科研人員和從業(yè)人員加入到人工智能安全研究領(lǐng)域中來,還有許多未知的驚喜等著我們?nèi)グl(fā)現(xiàn)。

    那么,我們到底在懼怕什么呢?

    OpenAI的成立可以說是這個(gè)月的重磅消息,神經(jīng)信息處理系統(tǒng)會議也在此時(shí)召開,吸引了一大批機(jī)器學(xué)習(xí)大牛蒞臨現(xiàn)場。英國倫敦帝國學(xué)院認(rèn)知機(jī)器人教授穆雷·沙納漢,英國倫敦帝國學(xué)院人工智能專家肖恩·萊格,百度首席科學(xué)家吳恩達(dá),F(xiàn)acebook人工智能負(fù)責(zé)人雅安·勒存,IEEE前機(jī)器學(xué)習(xí)工程師湯姆·迪特里奇等研究機(jī)器學(xué)習(xí)和心理學(xué)的大佬們都對人工智能發(fā)表了自己的看法。

    AGI值得我們擔(dān)心嗎?

    Artificial General Intelligence(AGI)是指強(qiáng)人工智能,這是一種人類級別的人工智能,在各方面都能和人類比肩,人類能干的腦力活它都能干。不僅僅是當(dāng)今人工智能所應(yīng)對的局部、特定的問題,未來可能出現(xiàn)的復(fù)雜繁冗任務(wù)對它來說都不在話下,當(dāng)前的人工智能需要人類進(jìn)行編程,但不排除未來的某一天它可以自動編程。因此,AGI的定義其實(shí)也不太準(zhǔn)確。

    Facebook人工智能負(fù)責(zé)人雅安·勒存說道:“我不想談?wù)撊斯ぶ悄埽驗(yàn)槲艺娴牟恢浪降资鞘裁匆馑肌!?/span>

    如果說AGI定義尚難,那就更別說要預(yù)測它的發(fā)展了。勒存和百度首席科學(xué)家吳恩達(dá)等人都認(rèn)為不必在AGI的預(yù)測上浪費(fèi)時(shí)間,因?yàn)槟壳叭祟愐_(dá)到這個(gè)水平還遠(yuǎn)的很。人工智能還需要跨越一個(gè)幾年甚至幾十年的寒冬。吳恩達(dá)做了個(gè)比喻,人類對未來人工智能的擔(dān)憂簡直比得上對半人馬座α星系的幻想(注:由于半人馬座α星系統(tǒng)距離地球很近,許多科幻小說都“認(rèn)為”這里存在發(fā)達(dá)的宇宙文明)。

    勒存表示,我們真的無法得知擁有超常智慧的人工智能會是什么樣子。“人工智能會發(fā)展成人類的智能嗎?肯不會的。”勒存解釋,人類智能不是我們想象中的那個(gè)樣子,“我們是有本能的,會驅(qū)動一些人類去做壞事,但是人工智能卻沒有。”

    然而,也有人并不認(rèn)同勒存和吳恩達(dá)的觀點(diǎn)。他們認(rèn)為我們必須要提前做好應(yīng)對準(zhǔn)備。

    谷歌DeepMind聯(lián)合創(chuàng)始人肖恩·萊格認(rèn)為,現(xiàn)在開始研究人工智能安全是絕對有益的,它幫助我們建立起一個(gè)框架,讓研究人員在這個(gè)框架內(nèi)朝著積極的方向去發(fā)展更聰明的人工智能。

    “關(guān)于人工智能的安全,我認(rèn)為有過分夸大和被忽略的方面。”萊格認(rèn)為,我們應(yīng)該深刻地討論人工智能給社會帶來的正負(fù)面影響。“當(dāng)我們正處在發(fā)展的過渡期,我們應(yīng)該負(fù)起責(zé)任,提前考慮技術(shù)、社會、法律等方面的問題,提前做好準(zhǔn)備總比出現(xiàn)問題時(shí)再考慮好。”

    紐約大學(xué)語言與音樂研究心理學(xué)家加里·馬庫斯補(bǔ)充道:“我們不僅需要為人工總體智能做準(zhǔn)備,更要為人工智能做準(zhǔn)備。現(xiàn)在已經(jīng)出現(xiàn)了安全和風(fēng)險(xiǎn)問題了。”

    吳恩達(dá)認(rèn)為人工智能安全研究并不是一件壞事,“我很高興能看到社會各界的人們參與到人工智能倫理研究中來,這確實(shí)是一個(gè)偉大的事業(yè)。”但吳恩達(dá)堅(jiān)持認(rèn)為不能花太多精力到人工智能安全研究上去。

    人工智能影響經(jīng)濟(jì)

    盡管研究人員在會議上各執(zhí)己見,但有一個(gè)問題卻幾乎贏得了所有人的贊同——人工智能可能危害就業(yè)市場

    埃里克·布呂諾爾夫松是《工業(yè)時(shí)代2:人工智能》的作者之一,他提出了人工智能可能會對經(jīng)濟(jì)產(chǎn)生一些影響。他說,我們的技術(shù)飛速進(jìn)步,這是好的,但我們的技術(shù)、組織和機(jī)構(gòu)并沒有跟上,因此無法享受技術(shù)進(jìn)步帶來的福利。

    吳恩達(dá)雖然不擔(dān)心AGI的未來,但他卻十分關(guān)注即將出現(xiàn)的經(jīng)濟(jì)問題。“我認(rèn)為最大的挑戰(zhàn)是失業(yè)。”

    盡管當(dāng)今人工智能發(fā)展得十分局限,但失業(yè)問題已經(jīng)開始出現(xiàn)了。在世界各地,中低技工不斷被機(jī)器人或軟件所取代工作,并且取代率會不斷上升。

    勒存認(rèn)為,蒸汽機(jī)的出現(xiàn)也導(dǎo)致了大規(guī)模的失業(yè),現(xiàn)在世界也一樣可以克服。但布呂諾爾夫松和吳恩達(dá)不同意這一觀點(diǎn),因?yàn)楫?dāng)今的技術(shù)進(jìn)步更加快速。

    “技術(shù)在不斷地吞噬工作,也在不斷地創(chuàng)造工作。”布呂諾爾夫松承認(rèn),但他也指出,要預(yù)測技術(shù)進(jìn)步帶來的影響十分困難,因?yàn)楫?dāng)前技術(shù)進(jìn)步的速度是前所未有的快。

    牛津大學(xué)人類未來研究院院長、哲學(xué)教授尼克·博斯特羅姆認(rèn)為,把會思考的機(jī)器和工業(yè)革命蒸汽機(jī)的崛起做比較是不恰當(dāng)?shù)模驗(yàn)樗腿祟愥绕鸬倪^程更加相似。有朝一日,假若擁有超常智慧的人工智能真的被開發(fā)出來了,那人類的創(chuàng)造史也就到此結(jié)束了。

    目前經(jīng)濟(jì)存在一個(gè)巨大問題,市場變化迅速,大多數(shù)人無法快速培養(yǎng)與之適應(yīng)的新技能,失業(yè)保障金和技術(shù)培訓(xùn)可以解決部分問題。然而,失業(yè)帶來的心理陰影仍然成了很多人克服不了的問題。這引起了專家們的注意。

    博斯特羅姆教授卻意外地樂觀,他認(rèn)為失業(yè)不是失去全世界,失業(yè)人員可以利用失業(yè)的時(shí)間來享受其他的愛好,填補(bǔ)錯過的快樂時(shí)光。

    不遠(yuǎn)的將來,人工智能即將出發(fā)新一輪失業(yè)浪潮,這要求各國領(lǐng)導(dǎo)人主動采取失業(yè)保障金等有效政策來應(yīng)對。

    何時(shí)展開人工智能安全研究?

    理想狀態(tài)下,技術(shù)只是一個(gè)工具,并沒有好壞之分。它對人類的幫助和傷害取決于使用者。除非人工智能可以發(fā)展到有思考的能力,但這一說法并不準(zhǔn)確,因?yàn)槿斯ぶ悄懿⒉皇侨耍膊粌H僅是一種工具。

    伊恩·克爾是加拿大渥太華大學(xué)的倫理、法律研究主席,他在會議上談到了人工智能的法律問題。人工智能的首要問題是:這是誰的責(zé)任?出現(xiàn)問題時(shí)誰來負(fù)責(zé)?另一方面,當(dāng)人類和人工智能的建議出現(xiàn)對立時(shí),該如何選擇?要怎樣證明選擇的正確性?

    2015年初,一些研究者開始擔(dān)心人工智能的安全。現(xiàn)在,雖然大多數(shù)人還不擔(dān)心,但他們都承認(rèn),提前考慮這些問題確實(shí)沒有壞處。最大的分歧在于我們該于何時(shí)展開人工智能安全研究。

    大多數(shù)業(yè)內(nèi)人士都認(rèn)為人工智能升級的過程是循序漸進(jìn)的,而不是一些媒體口中一蹴而就的。現(xiàn)在已經(jīng)出現(xiàn)了智能機(jī)器,完成任務(wù)的過程比人類更好更快,這一趨勢會不斷持續(xù)下去。

    哈佛大學(xué)計(jì)算機(jī)科學(xué)教授菲納利·多西·韋萊茲指出,至少現(xiàn)在,我們還可以控制我們的機(jī)器,如果出現(xiàn)了不理想的結(jié)果,我們可以重新編程。

    但是,這會是長久之計(jì)嗎?

    全部評論 (0)

    Copyright©2008-2025 版權(quán)所有 浙ICP備06026258號-1 浙公網(wǎng)安備 33010802003509號 杭州講師網(wǎng)絡(luò)科技有限公司
    講師網(wǎng) www.transparencyisgood.com 直接對接10000多名優(yōu)秀講師-省時(shí)省力省錢
    講師網(wǎng)常年法律顧問:浙江麥迪律師事務(wù)所 梁俊景律師 李小平律師

    主站蜘蛛池模板: 手机看片福利一区二区三区 | 麻豆精品久久久一区二区| 亚洲AV成人一区二区三区观看| 久久国产免费一区| 白丝爆浆18禁一区二区三区 | 免费一本色道久久一区| 99久久精品午夜一区二区| 日韩经典精品无码一区| 香蕉久久AⅤ一区二区三区| 久久国产精品无码一区二区三区| 国产精品一区二区三区久久| 精品视频一区二区三区在线播放| 亚洲电影一区二区三区| 日本亚洲国产一区二区三区| 国产一区二区三区在线看| 午夜福利国产一区二区| 国产另类ts人妖一区二区三区| 精品国产AV一区二区三区| 国产亚洲一区二区在线观看| 丰满岳乱妇一区二区三区| 国产成人欧美一区二区三区 | 中文字幕日韩丝袜一区| 亚洲一区二区三区香蕉| 日本免费一区二区三区四区五六区| 99精品国产一区二区三区2021 | 国产女人乱人伦精品一区二区| 午夜福利一区二区三区在线观看| 亚洲av无码一区二区三区不卡 | 美女视频一区三区网站在线观看| 免费日本一区二区| 风间由美性色一区二区三区| 亚洲色无码一区二区三区| 国产熟女一区二区三区四区五区| 免费看一区二区三区四区| 国内精品无码一区二区三区| 亚洲AV美女一区二区三区 | 无码av中文一区二区三区桃花岛| 极品少妇一区二区三区四区| 春暖花开亚洲性无区一区二区 | 麻豆AV天堂一区二区香蕉 | 亚洲AV无码一区二区乱子伦|