很早之前,著名的物理學(xué)家和宇宙學(xué)家霍金就提出了“人工智能威脅論”,在他看來,如果有人設(shè)計計算機(jī)病毒,那么就有人設(shè)計不斷自我完善、直到最終超越人類的人工智能,而這些人工智能很可能通過戰(zhàn)爭摧毀人類,世界就將以一種新的生命形式出現(xiàn)。
我們需要認(rèn)識到人工智能對人類的威脅,并及時化解這一威脅的存在。之前霍金在表明他對人工智能的擔(dān)憂時,就表示人類必須建立有效機(jī)制盡早識別威脅所在,防止新科技(人工智能)對人們類帶來的威脅進(jìn)一步上升,他認(rèn)為人類要用邏輯和理性去控制未來可能出現(xiàn)的威脅。
霍金表示:一個高度發(fā)達(dá)的人工智能可以很好地完成他的目標(biāo),如果這些目標(biāo)沒有和我們?nèi)祟愐恢拢侨祟惥吐闊┝恕=陙黼S著人工智能技術(shù)的高速發(fā)展,其潛在的威脅也受到了越來越多科學(xué)家的關(guān)注,英國牛津大學(xué)教授、人類未來研究所創(chuàng)始人Nick Bostrom表示:隨著世界的不斷分化,我們在不斷開發(fā)出越來越強(qiáng)大的工具,我不確定人類是否能夠長期生存下去。
霍金稱:自從人類文明形成以來,來自生存能力優(yōu)勢群體的侵略就一直存在,而人工智能的進(jìn)一步發(fā)展就有可能更具有這種優(yōu)勢,它們自身將比人類更加強(qiáng)大與完美,并可能通過核戰(zhàn)爭或生物戰(zhàn)爭毀滅人類。因此盡早的建立完善的機(jī)制防止未來可能出現(xiàn)的威脅很有必要。
無獨有偶,前段時間出現(xiàn)了一個震驚世界的消息:Facebook人工智能研究實驗室的兩個AI聊天機(jī)器人互相對話時,竟逐漸發(fā)出人類無法理解的獨特語言。這些看似冷冰冰的機(jī)器,正在逐漸擁有了像人類一樣的思考能力,乃至自我意識。所以說,人類建立完善的機(jī)制來做預(yù)防是何等的重要。
那么問題就來了:人工智能已經(jīng)滲透到各行各業(yè),當(dāng)人工智能具有什么條件時才會對人類造成毀滅性的威脅?
想了解更多IT資訊,請訪問中培偉業(yè)官網(wǎng):中培偉業(yè)