|
克服我們的恐懼和避免機(jī)器人統(tǒng)治者 灰鴿子,灰鴿子下載
1.jpg (49.72 KB, 下載次數(shù): 714)
下載附件
2015-9-19 15:13 上傳
計算機(jī)科學(xué)家表示,擔(dān)心不應(yīng)該阻礙研究,但說話現(xiàn)在應(yīng)該繼續(xù)讓人工智能的進(jìn)步更加安全
有些人擔(dān)心將來有一天機(jī)器人將起來,有知覺的,作為一個集體和憤怒足以推翻人類。
人工智能(人工智能),機(jī)器人將授權(quán),是恐懼,根據(jù)物理學(xué)家和作家斯蒂芬·霍金Elon Musk和高科技企業(yè)家。
其他科學(xué)家說最可怕的事情是我們的恐懼阻礙我們的人工智能研究和技術(shù)進(jìn)步緩慢。
“如果我害怕什么,我害怕人類超過機(jī)器,”尤蘭達(dá)吉爾說,南加州大學(xué)的計算機(jī)科學(xué)研究教授,在美國國防部高級研究計劃局最近的等等,什么?未來的技術(shù)論壇!拔覔(dān)心的是,我們必須限制我們能做研究的類型。我擔(dān)心恐懼導(dǎo)致限制我們能工作,這將意味著錯失良機(jī)。”
吉爾和其他人在論壇上要討論人工智能可能的潛在危險,并開始建立任何威脅保護(hù)數(shù)十年才得以成為現(xiàn)實。
會有很多討論。普通人會在日常生活中看到更多的人工智能的進(jìn)步在未來10年里比在過去50,根據(jù)特雷弗·達(dá)雷爾加利福尼亞大學(xué)的計算機(jī)科學(xué)教授。
今天,人工智能涉及人們的生活與谷歌搜索等技術(shù),蘋果的智能助理Siri和亞馬遜的圖書推薦。
谷歌也正在測試無人駕駛汽車,而美國軍方已示威核武化的智能機(jī)器人。
雖然有些人會認(rèn)為這已經(jīng)是科幻的東西,它只是生活的開始充滿了人工智能隨著技術(shù)的臨近,視覺革命的風(fēng)口浪尖,自然語言處理和機(jī)器學(xué)習(xí)。
結(jié)合,與大數(shù)據(jù)分析的發(fā)展,云計算和處理能力和人工智能預(yù)計將在未來10至40年方面取得顯著成就。
“我們已經(jīng)看到了很多進(jìn)展,但現(xiàn)在達(dá)到一個臨界點,“達(dá)雷爾告訴計算機(jī)世界!霸5年或10年,我們會有機(jī)器越來越能夠感知自己和與人溝通,并有一個基本的了解他們的環(huán)境。你可以詢問你的運輸設(shè)備帶你去最短路線和最佳的星巴克拿鐵!
例如,今天,業(yè)主可能需要一個小群人移動她的家具。人工智能和機(jī)器人技術(shù),10年來,房主可能家具能夠理解她的聲音命令,self-actuate,搬到是告訴去哪里。
這聽起來一樣有用,有些人會想知道人類將留在這樣的智能控制和潛在的強(qiáng)大的機(jī)器。人類將如何維護(hù)權(quán)威和保持安全嗎?
“令人擔(dān)心的是,我們將失去控制的人工智能系統(tǒng),”湯姆Dietterich說,教授和主任俄勒岡州立大學(xué)智能系統(tǒng)!叭绻麄冇幸粋錯誤,在對經(jīng)濟(jì)造成損害或人,和他們沒有開關(guān)?我們需要能夠保持對這些系統(tǒng)的控制。我們需要建立數(shù)學(xué)理論,以確保我們可以維持控制和保證安全的邊界!
一個人工智能系統(tǒng)可以嚴(yán)格控制,能保證其良好的行為呢?可能不會。
現(xiàn)在正在從事的一件事是如何驗證,驗證或給一些安全保障人工智能軟件,Dietterich說。
研究人員需要關(guān)注如何抵御網(wǎng)絡(luò)攻擊在人工智能系統(tǒng)中,以及如何設(shè)置警報警告——人類和數(shù)字網(wǎng)絡(luò)攻擊時,他說。
Dietterich還警告說,人工智能全自動系統(tǒng)不應(yīng)該建立。人類不想在一個位置的機(jī)器完全控制。
達(dá)雷爾附和,說研究人員需要建立冗余系統(tǒng),最終讓人類控制。
和機(jī)器的人”系統(tǒng)仍將監(jiān)督發(fā)生了什么,”達(dá)雷爾說!罢缒阆氡Wo(hù)一個流氓的黑客能夠突然接管世界上每輛車,開到溝里,你想擁有壁壘(人工智能系統(tǒng))。你不想要一個單點故障。你需要制衡。遠(yuǎn)程控制軟件”
南加州大學(xué)的吉爾補(bǔ)充說,弄清楚如何處理越來越多的智能系統(tǒng)將超越只有工程師和程序員參與開發(fā)。律師需要參與。
“當(dāng)你開始有機(jī)器可以做決定和使用復(fù)雜的智能功能,我們必須要考慮責(zé)任和法律框架,”她說。“我們沒有類似的,現(xiàn)在……我們技術(shù)人員。我們不是法律學(xué)者。這些都是雙方,我們需要努力和探索。”
由于人工智能是一個技術(shù),放大了好的和壞的,會有很多準(zhǔn)備,Dietterich說,需要很多不同的思想領(lǐng)先技術(shù)的發(fā)展。
“智能軟件仍然是軟件,”他說!八鼘琤ug和網(wǎng)絡(luò)攻擊。當(dāng)我們使用人工智能技術(shù)構(gòu)建軟件,我們有更多的挑戰(zhàn)。我們怎樣才能使不完美的自治系統(tǒng)安全嗎?”
而霍金和麝香都說人工智能可能導(dǎo)致人類的毀滅,Dietterich,吉爾和達(dá)雷爾很快指出,人工智能不是閾值的現(xiàn)象。
“這不是像今天他們不那么強(qiáng)大的人然后繁榮他們比我們更強(qiáng)大,”Dietterich說!拔覀儾粫_(dá)到一個閾值,有一天醒來發(fā)現(xiàn)他們變得智慧超常,意識或意識”。
同時,達(dá)雷爾說,他很高興有足夠的關(guān)注提高問題的討論。
“有危險的每一點,”他說!巴耆灾蔚奈kU是科幻小說的想法,我們將控制權(quán)讓給一些虛構(gòu)的機(jī)器人或外星種族。有危險的決定從來沒有使用的技術(shù),然后別人趕上我們。沒有簡單的答案,但是沒有簡單的恐懼。我們不應(yīng)該盲目地害怕任何東西。” |
|