人工智能的發(fā)展會(huì)加劇當(dāng)權(quán)者與不當(dāng)權(quán)者之間的二分法。它還可能會(huì)加速那些擁有AI的人與少數(shù)沒(méi)有AI的人之間的鴻溝。人工智能發(fā)展的某些方面使得進(jìn)入該領(lǐng)域非常困難??紤]到成本,工程和硬件需求,人工智能的發(fā)展帶來(lái)了巨大的資金需求,從而造成了高投入門(mén)檻。如果這個(gè)問(wèn)題持續(xù)存在,那么其發(fā)展背后的思想很可能會(huì)被大型技術(shù)公司所采用。盡管GPT-3的發(fā)布標(biāo)志著人工智能發(fā)展的重要里程碑,但前進(jìn)的道路仍然模糊。如今,人工智能技術(shù)仍然存在某些局限性。這是當(dāng)今數(shù)據(jù)科學(xué)家面臨的六個(gè)主要限制。
1.數(shù)據(jù)訪問(wèn)
為了正確地訓(xùn)練預(yù)測(cè)或決策模型,他們需要數(shù)據(jù)。正如許多人所說(shuō)的那樣,數(shù)據(jù)現(xiàn)在是驅(qū)逐石油的最搶手的商品之一。它已成為一種新貨幣。當(dāng)前,大量數(shù)據(jù)掌握在大型公司組織的手中。
這些公司具有固有的優(yōu)勢(shì),這對(duì)剛剛進(jìn)入AI開(kāi)發(fā)競(jìng)賽的小型初創(chuàng)公司不公平。如果對(duì)此不采取任何措施,那將進(jìn)一步推動(dòng)大型企業(yè)與初創(chuàng)企業(yè)之間的動(dòng)力關(guān)系。
2.偏見(jiàn)
偏見(jiàn)會(huì)蔓延到數(shù)據(jù)建模過(guò)程中的方式(這助長(zhǎng)了AI的發(fā)展)令人恐懼,更不用說(shuō)創(chuàng)建者要考慮的潛在(已識(shí)別或未識(shí)別)偏見(jiàn)。偏愛(ài)的AI比污穢的數(shù)據(jù)要細(xì)膩得多。深度學(xué)習(xí)過(guò)程有很多階段可能會(huì)出現(xiàn)偏差,目前,我們的標(biāo)準(zhǔn)設(shè)計(jì)程序根本無(wú)法適當(dāng)?shù)刈R(shí)別它們。
正如本相關(guān)文章所指出的那樣,我們目前甚至設(shè)計(jì)AI算法的方法實(shí)際上并不是要識(shí)別并追溯消除偏差。由于大多數(shù)這些算法僅針對(duì)其性能進(jìn)行了測(cè)試,因此會(huì)流過(guò)許多意外的絨毛。這可能是偏見(jiàn)的數(shù)據(jù),缺乏社會(huì)背景以及對(duì)公平性有爭(zhēng)議的定義。
3.計(jì)算時(shí)間
盡管近年來(lái)技術(shù)進(jìn)步迅速擴(kuò)展,但仍然必須克服一些硬件限制,例如有限的計(jì)算資源。同樣,鑒于開(kāi)發(fā)此類(lèi)定制和精確的硬件所產(chǎn)生的成本,老牌公司也具有明顯的優(yōu)勢(shì)。
4.費(fèi)用
在能源和硬件使用方面,挖掘,存儲(chǔ)和分析數(shù)據(jù)都將非常昂貴。
GPT-3模型的培訓(xùn)費(fèi)用估計(jì)為460萬(wàn)美元。另一個(gè)視頻預(yù)測(cè),對(duì)于類(lèi)似于大腦的模型,培訓(xùn)費(fèi)用將大大高于GPT-3,約為26億美元。
而且,鑒于這些領(lǐng)域的熟練工程師目前是稀有商品,因此雇用他們肯定會(huì)削弱這些公司的財(cái)力。同樣,新公司和小公司也處于不利地位。
5.對(duì)抗攻擊
由于AI不是人類(lèi),因此它不能完全適應(yīng)環(huán)境中的偏差。例如,僅在錯(cuò)誤的道路兩側(cè)粘貼膠帶會(huì)導(dǎo)致自動(dòng)駕駛汽車(chē)轉(zhuǎn)向錯(cuò)誤的車(chē)道并撞毀。人類(lèi)甚至可能不會(huì)在磁帶上注冊(cè)或做出反應(yīng)。在正常情況下,自動(dòng)駕駛汽車(chē)可能會(huì)更安全,但我們需要擔(dān)心的是這些異常情況。
正是這種無(wú)法適應(yīng)的能力凸顯了尚未解決的明顯安全漏洞。盡管有時(shí)“欺騙”這些數(shù)據(jù)模型可能很有趣且無(wú)害(例如, 錯(cuò)誤地將烤面包機(jī)標(biāo)識(shí)為香蕉),但在極端情況下(例如出于防御目的)卻可能使生命受到威脅。
6.沒(méi)有關(guān)于安全,道德和隱私的共識(shí)
弄清楚我們使用AI的極限還有很多工作要做。當(dāng)前的局限性凸顯了AI中安全性的重要性,因此必須迅速采取行動(dòng)。此外,大多數(shù)對(duì)AI的批評(píng)者都在遵循實(shí)施AI的道德準(zhǔn)則上爭(zhēng)論,不僅是在如何使隱私成為被遺忘的概念方面,也在哲學(xué)上。
我們認(rèn)為我們的情報(bào)天生就是人類(lèi)和獨(dú)特的。放棄排他性似乎是矛盾的。出現(xiàn)的一個(gè)普遍的問(wèn)題之一是,如果機(jī)器人能夠完全做到人類(lèi)能做的一切,并且從本質(zhì)上講等同于人類(lèi),那么他們是否應(yīng)該享有人權(quán)?如果是這樣,您在定義這些機(jī)器人權(quán)利方面走了多遠(yuǎn)?這里沒(méi)有確切的答案。鑒于AI發(fā)展的興起,AI 哲學(xué)領(lǐng)域仍處于起步階段。我很高興看到AI領(lǐng)域的發(fā)展。
上述就是關(guān)于人工智能技術(shù)的6大局限性的全部?jī)?nèi)容,想了解更多關(guān)于人工智能技術(shù)的信息,請(qǐng)繼續(xù)關(guān)注中培偉業(yè)。