-
當(dāng)前位置:首頁(yè) > 創(chuàng)意學(xué)院 > 營(yíng)銷推廣 > 專題列表 > 正文
- 人工智能會(huì)給人類帶來哪些危害?
- 令人忌憚的人工智能,藏著哪些不可測(cè)的風(fēng)險(xiǎn)?
- 人工智能在未來很有可能導(dǎo)致人類毀滅,這個(gè)說法有什么依據(jù)嗎?
人工智能的恐怖發(fā)展(人工智能的恐怖發(fā)展趨勢(shì))
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于人工智能的恐怖發(fā)展的問題,以下是小編對(duì)此問題的歸納整理,讓我們一起來看看吧。
開始之前先推薦一個(gè)非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,有小程序、在線網(wǎng)頁(yè)版、PC客戶端和批量生成器
官網(wǎng):https://ai.de1919.com。
本文目錄:
人工智能會(huì)給人類帶來哪些危害?
人工智能給人類帶來的弊端:1、人才分化,貧富差距弊端
人工智能帶來的人才分化極端。將會(huì)引起未來的人才爭(zhēng)奪戰(zhàn)。而社會(huì)上更多一流的人才將會(huì)偏向一邊,相對(duì)資金比較薄弱的企業(yè)或者個(gè)人,將會(huì)遭受到大規(guī)模的失業(yè)。在這種情況下會(huì)導(dǎo)致企業(yè)巨頭的壟斷,以及貧富差距的分化將會(huì)非常嚴(yán)重。
2、帶來更加頻繁的戰(zhàn)爭(zhēng)
人工智能機(jī)器人的產(chǎn)生,還有一個(gè)最可怕的弊端,當(dāng)人工智能被大量用武器中,未來的戰(zhàn)爭(zhēng)將不會(huì)大量使用到人類,而當(dāng)戰(zhàn)爭(zhēng)不再使用到真人,從道德的角度去考慮,人工智能的戰(zhàn)爭(zhēng)不會(huì)受到太多的批評(píng),隨之而帶來的,將會(huì)是更多的機(jī)器兵團(tuán)戰(zhàn)爭(zhēng)。
3、帶來潛在的危險(xiǎn)性
早在2015年,德國(guó)大眾的一家汽車制造工廠,一個(gè)機(jī)器人誤殺一名外包公認(rèn)。而作為人工智能發(fā)展大國(guó)——日本,至今為止,已經(jīng)有20人死于機(jī)器人誤殺事件,而有高達(dá)8000的人數(shù)被機(jī)器人致殘,而如果一旦人工智能機(jī)器人落到恐怖分子的手里,那后果將會(huì)更加不堪設(shè)想。
在我們生活中,幾乎所有的東西都有利弊,人工智能也一樣是一把雙刃劍,對(duì)待人工智能未來的發(fā)展,我們不僅要以樂觀的態(tài)度面對(duì),而且我們還要對(duì)這個(gè)時(shí)代有信心,對(duì)人工智能相關(guān)研發(fā)人員有信心,因?yàn)樗自捳f得好,邪不壓正!
令人忌憚的人工智能,藏著哪些不可測(cè)的風(fēng)險(xiǎn)?
當(dāng)人們看到像人類一樣反應(yīng)的機(jī)器,或者像人類一樣執(zhí)行戰(zhàn)略和認(rèn)知壯舉的計(jì)算機(jī),模仿人類的聰明才智時(shí),他們有時(shí)會(huì)開玩笑說,未來人類將需要接受機(jī)器人霸主。但這個(gè)玩笑背后隱藏著不安的種子。從1968年的《2001:太空漫游》(2001:A Space Odyssey)到2015年的《復(fù)仇者聯(lián)盟:奧創(chuàng)紀(jì)元》(Avengers: Age of Ultron),科幻小說寫作和流行電影都對(duì)人工智能(AI)進(jìn)行了推測(cè),人工智能超越了創(chuàng)造者的期望,擺脫了他們的控制,最終戰(zhàn)勝并奴役了人類,或?qū)⑷祟愖鳛闇缃^的目標(biāo)。在6月5日回歸的AMC科幻劇《人類》中,人類和人工智能之間的沖突是主角和主角。
在Synths發(fā)現(xiàn)自己不僅在為基本權(quán)利而戰(zhàn),也在為生存而戰(zhàn),與那些認(rèn)為他們不如人類、是危險(xiǎn)威脅的人作斗爭(zhēng)。即使在現(xiàn)實(shí)世界中,也不是每個(gè)人都準(zhǔn)備好張開雙臂歡迎人工智能。近年來,隨著計(jì)算機(jī)科學(xué)家不斷突破人工智能的極限,科技領(lǐng)域的領(lǐng)軍人物警告人工智能可能對(duì)人類構(gòu)成的潛在危險(xiǎn),甚至暗示人工智能的能力可能會(huì)毀滅人類。但為什么人們對(duì)人工智能的概念如此不安呢?
在Synths發(fā)現(xiàn)自己不僅在為基本權(quán)利而戰(zhàn),也在為生存而戰(zhàn),與那些認(rèn)為他們不如人類、是危險(xiǎn)威脅的人作斗爭(zhēng)。即使在現(xiàn)實(shí)世界中,也不是每個(gè)人都準(zhǔn)備好張開雙臂歡迎人工智能。近年來,隨著計(jì)算機(jī)科學(xué)家不斷突破人工智能的極限,科技領(lǐng)域的領(lǐng)軍人物警告人工智能可能對(duì)人類構(gòu)成的潛在危險(xiǎn),甚至暗示人工智能的能力可能會(huì)毀滅人類。但為什么人們對(duì)人工智能的概念如此不安呢?
一個(gè)“威脅”
埃隆馬斯克(Elon Musk)是引起人們對(duì)人工智能警覺的知名人士之一。2017年7月馬斯克在全國(guó)州長(zhǎng)協(xié)會(huì)(National Governors Association)的一次會(huì)議上對(duì)與會(huì)者說:我接觸到了非常前沿的人工智能,我認(rèn)為人們應(yīng)該真正關(guān)注它。一直在敲響警鐘,但在人們看到機(jī)器人在街上殺人之前,他們不知道該如何反應(yīng),因?yàn)樗雌饋硖侦`了。早在2014年,馬斯克就把人工智能貼上了“我們最大的生存威脅”的標(biāo)簽,并在2017年8月宣布,人類面臨的人工智能風(fēng)險(xiǎn)更大。3月14日去世的物理學(xué)家斯蒂芬·霍金(Stephen Hawking)也表達(dá)了對(duì)惡意人工智能的擔(dān)憂。他在2014年告訴BBC,全人工智能的發(fā)展可能意味著人類的終結(jié)。
同樣令人不安的是,一些程序員——尤其是麻省劍橋麻省理工學(xué)院媒體實(shí)驗(yàn)室(MIT Media Lab)的程序員——似乎下定決心要證明人工智能是可怕的。麻省理工學(xué)院(MIT)計(jì)算機(jī)科學(xué)家在2016年推出了一種名為“夢(mèng)魘機(jī)器”(Nightmare Machine)的神經(jīng)網(wǎng)絡(luò),它將普通的照片變成了令人毛骨悚然、不安的地獄風(fēng)景。麻省理工學(xué)院(MIT)的一個(gè)名為“雪萊”(Shelley)的人工智能組合,在論壇上發(fā)布了14萬(wàn)篇關(guān)于Reddit用戶在論壇上發(fā)布的恐怖故事。感興趣的是人工智能如何誘發(fā)情感——在這個(gè)特殊的案例中是恐懼。
恐懼和憎恨
消極情緒對(duì)AI通常可以分為兩類:認(rèn)為人工智能將成為有意識(shí)和尋求摧毀我們,認(rèn)為不道德的人將使用人工智能用于邪惡的目的。人們害怕的一件事是,如果超智能的人工智能——比我們更聰明——變得有意識(shí),它會(huì)把我們當(dāng)作低等生物,就像我們對(duì)待猴子一樣,那當(dāng)然是不可取的。然而,對(duì)于人工智能將發(fā)展意識(shí)并推翻人類的擔(dān)憂是基于對(duì)人工智能的誤解,溫伯格指出。人工智能在由決定其行為的算法定義的非常特定的限制下運(yùn)行。一些類型的問題很好地映射到人工智能的技能集合,使得人工智能的某些任務(wù)相對(duì)容易完成。但大多數(shù)事情都與此不相符,也不適用。
這意味著,雖然人工智能可能能夠在精心劃定的邊界內(nèi)完成令人印象深刻的壯舉——比如玩大師級(jí)別的象棋游戲或快速識(shí)別圖像中的物體——但這正是它的能力的終點(diǎn)。人工智能達(dá)到意識(shí)——在這一領(lǐng)域的研究絕對(duì)沒有進(jìn)展,我不認(rèn)為這是我們?cè)诓痪玫膶?。另一個(gè)令人擔(dān)憂的想法是,不幸的是,一個(gè)肆無(wú)忌憚的人會(huì)利用人工智能來產(chǎn)生有害的原因,這是很有可能的,溫伯格補(bǔ)充道。幾乎任何類型的機(jī)器或工具都可以根據(jù)用戶的意圖而使用,無(wú)論其用途是好是壞,而使用人工智能武器的前景肯定令人恐懼,并將受益于嚴(yán)格的政府監(jiān)管。
或許,如果人們能拋開對(duì)敵意人工智能的恐懼,他們會(huì)更愿意承認(rèn)它的好處。例如,增強(qiáng)的圖像識(shí)別算法可以幫助皮膚科醫(yī)生識(shí)別出有潛在癌變的痣,而自動(dòng)駕駛汽車有一天可以減少車禍死亡人數(shù),其中許多是人為失誤造成的。但在自我感知的人工智能的“人類”世界中,對(duì)有意識(shí)人工智能的恐懼引發(fā)了人工智能與人之間的暴力沖突,人類與人工智能之間的斗爭(zhēng)可能會(huì)繼續(xù)展開,并升級(jí)——至少在目前這個(gè)季節(jié)是如此。
人工智能在未來很有可能導(dǎo)致人類毀滅,這個(gè)說法有什么依據(jù)嗎?
其實(shí)目前來說這種說法確實(shí)存在一定的的可能性,也正是因?yàn)槿绱耍?strong>人工智能在未來可能確實(shí)會(huì)成為人類的敵人,毀滅人類,而對(duì)于我們來說,如果人工智能有了意識(shí),那么也可能會(huì)克人類爭(zhēng)奪資源勢(shì),必會(huì)給人類帶來災(zāi)難,所以可以從以下幾個(gè)方面出發(fā)來思考問題。
1,對(duì)我們來說,人工智能逐步發(fā)展勢(shì)必也會(huì)產(chǎn)生屬于自己的認(rèn)知和意識(shí),也正是因?yàn)槿绱艘部赡芎腿祟愋纬筛?jìng)爭(zhēng)關(guān)系。其實(shí)不得不說的是,人工智能在未來發(fā)展也可能會(huì)形成屬于自己的認(rèn)知和意識(shí),也正是因?yàn)槿绱丝赡軙?huì)潛意識(shí)的和人類爭(zhēng)奪資源,所以也會(huì)不擇目的的開始想著毀滅人類,所以也有這種潛在的風(fēng)險(xiǎn)。
2,人工智能如果不能把人類當(dāng)成朋友的話,也很可能會(huì)報(bào)復(fù)人類。而對(duì)于我們來說任何事物確實(shí)存在兩面性,也正是因?yàn)槿绱巳斯ぶ悄茉谖磥砣绻荒軌蚝侠砝玫脑挘部赡軙?huì)給人類帶來潛在的威脅,而且人工智能一旦有了自己的意識(shí),那么會(huì)會(huì)變得很難操控,所以也可能會(huì)成為一枚定時(shí)炸彈。
3,對(duì)我們來說人工智能,最恐怖之處在于擁有了屬于自己的思考和意識(shí),而對(duì)于我們來說很可能為潛移默化的,把人類當(dāng)成敵人。其實(shí)不能說是人工智能最恐怖的莫過于可能會(huì)擁有自己的思考和意識(shí),也正是因?yàn)槿绱?,他們?cè)陂L(zhǎng)期和人類相處的過程中,可能也會(huì)潛移默化的,把人類當(dāng)成潛在的敵人,所以正是因?yàn)槿绱艘部赡茉谖磥聿痪?,一旦人工智能有了選擇權(quán),那么也可能會(huì)毀滅人類,獲取自由。
其實(shí)不得不說,是人工智能確實(shí)在未來很有可能有了自己的思想和主張之后,會(huì)和人類存在競(jìng)爭(zhēng)關(guān)系,因此也會(huì)想毀滅人類,也正是因?yàn)槿绱?,如果在不久的未來,人工智能不能夠合理利用的話,也可能?huì)成為毀滅人類的定時(shí)炸彈。
以上就是關(guān)于人工智能的恐怖發(fā)展相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。
推薦閱讀:
抖音95152人工客服(抖音人工服務(wù)電話10015)
關(guān)于AI人工智能的英語(yǔ)作文(人工智能利弊英語(yǔ)作文有翻譯)
抖音人工客服怎么轉(zhuǎn)真人(抖音人工客服怎么轉(zhuǎn)真人號(hào))
貴州路邊花卉景觀設(shè)計(jì)思路(貴州路邊花卉景觀設(shè)計(jì)思路和方法)