毛片tv网站无套内射tv网站,毛片免费视频在线观看,久久人人爽爽爽人久久久,久久伊人少妇熟女大香线蕉,老鸭窝视频在线观看

愛采購

發(fā)產(chǎn)品

  • 發(fā)布供應(yīng)
  • 管理供應(yīng)

機(jī)器人殺手真來了?韓國研究AI武器 遭多國抵制!

   2018-04-09 3640
導(dǎo)讀

據(jù)外媒報道,韓國科學(xué)技術(shù)院與韓國十大財團(tuán)之一韓華集團(tuán)旗下韓華系統(tǒng)公司合作,于近期開設(shè)了人工智能研發(fā)中心,目的是研發(fā)適用于作戰(zhàn)指揮、目標(biāo)追蹤和無人水下交通等領(lǐng)域的人工智能技術(shù)。這引起業(yè)內(nèi)專家的廣泛擔(dān)憂,目前,30個國家和地區(qū)的人工智能及機(jī)器人專家宣布將抵制研究人工智能武器的韓國科學(xué)技術(shù)院(KAIST),這由

機(jī)器人殺手真來了?韓國研究AI武器 遭多國抵制!

據(jù)外媒報道,韓國科學(xué)技術(shù)院與韓國十大財團(tuán)之一韓華集團(tuán)旗下韓華系統(tǒng)公司合作,于近期開設(shè)了人工智能研發(fā)中心,目的是研發(fā)適用于作戰(zhàn)指揮、目標(biāo)追蹤和無人水下交通等領(lǐng)域的人工智能技術(shù)。

這引起業(yè)內(nèi)專家的廣泛擔(dān)憂,目前,30個國家和地區(qū)的人工智能及機(jī)器人專家宣布將抵制研究人工智能武器的韓國科學(xué)技術(shù)院(KAIST),這由澳大利亞新南威爾士大學(xué)人工智能教授托比·沃爾什發(fā)起,美國和日本等30個國家和地區(qū)的研究人員4日簽署了一封公開信,敦促韓國科學(xué)技術(shù)院停止人工智能武器研發(fā),他們稱這是加速機(jī)器人武器開發(fā)競爭的動向,令人遺憾,并表示如果該大學(xué)不承諾停止研發(fā),將與之?dāng)嘟^關(guān)系,而且將拒絕訪問韓國科學(xué)技術(shù)院、接待對方訪客或與對方合作研究項(xiàng)目,直至這所韓國頂尖大學(xué)承諾放棄研發(fā)缺少“有效人工控制”的武器。

網(wǎng)易智能注意到,這封聯(lián)名信中寫道:“自動武器一旦成熟,戰(zhàn)爭發(fā)展速度和規(guī)模將前所未有,它們可能會被恐怖分子利用?!卑l(fā)起聯(lián)名抵制的人工智能教授沃爾什告訴路透社記者,機(jī)器人和人工智能技術(shù)實(shí)際可以在軍事領(lǐng)域發(fā)揮有利作用,比如完成掃雷等威脅人類安全的任務(wù),但我們不能將決定生死的權(quán)力交給機(jī)器,這就越過道德底線。

無獨(dú)有偶,Google內(nèi)部流傳著一封聯(lián)名信,有3100多人在上面簽名,抗議谷歌為五角大樓提供人工智能力量,谷歌的員工希望谷歌CEO退出五角大樓的代號為Maven的項(xiàng)目,并宣布“永不開發(fā)戰(zhàn)爭技術(shù)”的政策。

業(yè)界評論認(rèn)為,這家硅谷巨頭和美國政府之間的文化沖突將就此凸顯出來。

機(jī)器人殺手真來了?韓國研究AI武器 遭多國抵制!

不僅僅只有聯(lián)名抵制韓國和抵制美國五角大樓,其實(shí),早在今年3月,來自14個組織的26名研究人員對惡意AI所造成的危險進(jìn)行了全面的報告。

他們?yōu)槠趦商斓臅h產(chǎn)出了一份長達(dá)100頁的報告,內(nèi)容是關(guān)于人工智能不良應(yīng)用所帶來的風(fēng)險以及降低這些風(fēng)險的策略,工作組提出的四項(xiàng)建議中,有一項(xiàng)是“人工智能的研究人員和工程師應(yīng)當(dāng)謹(jǐn)慎對待其工作的雙重使用特性,在研究的優(yōu)先級和規(guī)范中考慮相關(guān)使用不當(dāng)所產(chǎn)生的影響,并在有害應(yīng)用程序可預(yù)見時主動聯(lián)系相關(guān)的參與者?!?

這一建議尤其適用于最近興起的“deepfakes”,主要把機(jī)器學(xué)習(xí)用于將好萊塢女演員的臉換接到色情演員的身體上(制作人工合成的假色情片),由Motherboard的Sam Cole最先報道,這些deepfakes是通過改編一個名為TensorFlow的開源機(jī)器學(xué)習(xí)庫來實(shí)現(xiàn)的,該庫最初由谷歌工程師開發(fā),Deepfakes強(qiáng)調(diào)了機(jī)器學(xué)習(xí)工具的雙重使用特性,同時也提出了一個問題:誰應(yīng)該使用這些工具?

盡管報告中特別提到了Deepfakes,研究人員還強(qiáng)調(diào)了將這種類似的技術(shù)用于處理世界領(lǐng)導(dǎo)人視頻所產(chǎn)生的危害,這會對政治安全構(gòu)成威脅,這是研究人員考慮到的三大威脅領(lǐng)域之一,人們只需想象出一段虛假的視頻,比如特朗普宣戰(zhàn)以及由此引發(fā)的后果,就會明白這種情況的危險性。此外,研究人員還發(fā)現(xiàn),通過數(shù)據(jù)分析和大規(guī)模有針對性的宣傳,利用人工智能技術(shù),能實(shí)現(xiàn)前所未有的大規(guī)模監(jiān)控,這是對政治領(lǐng)域考量的另一個側(cè)面。

另外兩個被認(rèn)為是惡意人工智能的主要風(fēng)險領(lǐng)域是數(shù)字和物質(zhì)安全(physical AI?security)。

在數(shù)字安全方面,使用人工智能進(jìn)行網(wǎng)絡(luò)攻擊將“緩解現(xiàn)有的攻擊規(guī)模和效率之間的權(quán)衡?!贝笠?guī)模的網(wǎng)絡(luò)攻擊可能會以人工智能的形式進(jìn)行,比如大規(guī)模的網(wǎng)絡(luò)釣魚,或者更復(fù)雜的攻擊形式,比如使用語音合成來模擬受害者。

在物質(zhì)AI威脅方面,研究人員觀察到物質(zhì)世界對自動化系統(tǒng)越來越依賴,隨著更多智能家居和自動駕駛汽車上線,人工智能可能被用來顛覆這些系統(tǒng),并造成災(zāi)難性的破壞。此外,還有故意制造惡意人工智能系統(tǒng)所帶來的威脅,比如自動化武器或微型無人機(jī)。

其中一些場景,比如微型無人機(jī)所帶來的災(zāi)難,似乎還很遙遠(yuǎn),而其他的一些,比如大規(guī)模網(wǎng)絡(luò)攻擊、自動化武器和視頻操控等,已經(jīng)引發(fā)了一些問題。為了應(yīng)對這些威脅,并確保人工智能被用于造福人類,研究人員建議開發(fā)新的政策解決方案,并探索不同的“開放模式”以降低人工智能的風(fēng)險。例如,研究人員認(rèn)為,中央訪問許可模式(central access licensing models)可以確保人工智能技術(shù)不會落入壞人之手,或者建立某種監(jiān)控程序來密切記錄人工智能資源的應(yīng)用途徑。

報告寫道:“目前的趨勢強(qiáng)調(diào)了對前沿研究和發(fā)展成果的廣泛開放,如果這些趨勢在未來5年持續(xù)下去,我們預(yù)期攻擊者用數(shù)字和機(jī)器人系統(tǒng)造成危害的能力會顯著提高。”另一方面,研究人員認(rèn)識到,開源人工智能技術(shù)的擴(kuò)散也將越來越多地吸引決策者和監(jiān)管機(jī)構(gòu)的注意,他們將對這些技術(shù)施加更多限制,至于這些政策應(yīng)該具體采取何種形式,必須從地方、國家和國際層面上加以考量。

報告總結(jié)說:“這份報告的合著者之間仍然存在許多分歧,更不用說世界上不同的專家群體了,隨著各種威脅和反饋被發(fā)現(xiàn),在我們得到更多的數(shù)據(jù)之前,這些分歧不會得到解決,但這種不確定性和專家分歧不應(yīng)阻止我們在今天盡早采取預(yù)防措施?!?

所以,馬斯克們所代表的AI威脅論是占據(jù)上風(fēng)了嗎?對此,你怎么看?

 
反對 0舉報 0 收藏 0 打賞 0評論 0
免責(zé)聲明
本文為小編原創(chuàng)作品,作者: 小編。歡迎轉(zhuǎn)載,轉(zhuǎn)載請注明原文出處:http://bc83.cn/news/show-5061.html 。本文僅代表作者個人觀點(diǎn),本站未對其內(nèi)容進(jìn)行核實(shí),請讀者僅做參考,如若文中涉及有違公德、觸犯法律的內(nèi)容,一經(jīng)發(fā)現(xiàn),立即刪除,作者需自行承擔(dān)相應(yīng)責(zé)任。涉及到版權(quán)或其他問題,請及時聯(lián)系我們。
 
更多>同類資訊頭條

入駐

企業(yè)入駐成功 可尊享多重特權(quán)

入駐熱線:18682138895

請手機(jī)掃碼訪問

客服

客服熱線:18682138895

小程序

小程序更便捷的查找產(chǎn)品

為您提供專業(yè)幫買咨詢服務(wù)

請用微信掃碼

公眾號

微信公眾號,收獲商機(jī)

微信掃碼關(guān)注

頂部