報告釋疑人工智能五大誤區
stark 2016.06.23 23:55 人工智能概念股
機器智能和人類(lèi)智能是完全不同的系統,即便是計算領(lǐng)域取得了重大進(jìn)展,也不太可能制造出擁有人類(lèi)智力、想象力和適應力水平的機器。
人工智能(下稱(chēng)“AI”)正在融入人們的生活,智能手機中的語(yǔ)音識別,和李世石對弈的谷歌AlphaGo,這些發(fā)展正在促使人們思考關(guān)于A(yíng)I的一系列問(wèn)題:AI是否已經(jīng)超越人類(lèi)?對人類(lèi)到底是禍是福?會(huì )不會(huì )像科幻小說(shuō)和電影里描述的那樣,威脅人類(lèi)的生存?
美國信息技術(shù)和創(chuàng )新基金會(huì )最近發(fā)布了一份長(cháng)達50頁(yè)的報告,對上述問(wèn)題提供了一些思考角度。
在這份報告中,作者羅伯特·阿特金森對當下關(guān)于A(yíng)I的五大誤解進(jìn)行了梳理和批駁,并對決策者提出了建議:不僅不能阻礙AI創(chuàng )新,更要積極支持對它的進(jìn)一步研發(fā)和使用。
AI會(huì )令大量工作消失嗎?
解答:和過(guò)去涌現的技術(shù)一樣,AI將會(huì )溫和地推動(dòng)生產(chǎn)效率的提升,不會(huì )對整體就業(yè)崗位數量或失業(yè)率產(chǎn)生影響。
許多人認為,AI將會(huì )推動(dòng)生產(chǎn)率爆發(fā)式增長(cháng),以令經(jīng)濟難以承受的速度“消滅”就業(yè)崗位,催生一個(gè)沒(méi)有工作的下層階級,這個(gè)階級將被一個(gè)所謂“機器擁有者”的精英階級所統治。
事實(shí)上,AI會(huì )讓就業(yè)崗位消失的觀(guān)點(diǎn)有兩大謬誤。首先,這一觀(guān)點(diǎn)大大高估了AI替代人類(lèi)的能力。技術(shù)或AI取代人類(lèi)的大量工作崗位實(shí)際上是非常困難的事。因為從根本上來(lái)說(shuō),AI只是“狹義AI”,其設計初衷只是將特定的某一件事做好而已。所以,AI并不會(huì )導致就業(yè)崗位消失,反而能增加產(chǎn)出、提高質(zhì)量、推動(dòng)創(chuàng )新。而且,如果一家公司的工作崗位數量因效率提升而減少,那么,下降的工資成本可以轉變成更低的產(chǎn)品價(jià)格或更高的工資水平,因此會(huì )有更多資金流入社會(huì ),這部分資金完全可以用來(lái)創(chuàng )造就業(yè)。
AI會(huì )讓人類(lèi)變得愚蠢嗎?
解答:AI將幫助人類(lèi)做出更明智的決定。
一些擔心認為,AI將使人類(lèi)過(guò)分依賴(lài)機器,并因此失去我們原本擁有的一些技能。這種情況下,如果機器偶爾出了錯,人類(lèi)奪回控制權的希望也會(huì )變得渺茫??梢源_定的是,如果AI能夠處理人類(lèi)的日常任務(wù),那么人類(lèi)的一些技能確實(shí)會(huì )變得不那么必要,比如說(shuō),汽車(chē)的出現讓大多數人都不再需要學(xué)會(huì )騎馬,所以,AI正在為我們打開(kāi)一個(gè)新技能時(shí)代。
AI會(huì )奪去我們的隱私嗎?
解答:AI不會(huì )對隱私有影響,因為大部分信息行為都是受到法律約束的。
AI系統有能力,也有需要去收集并分析更多信息,但其對隱私的侵害不會(huì )超過(guò)非AI系統,因為后者已經(jīng)在收集和分析著(zhù)大量信息。此外,今時(shí)今日那些針對數據使用和隱私保護的法律也將對AI進(jìn)行約束。簡(jiǎn)言之,關(guān)于隱私的討論本質(zhì)上只是一個(gè)政策問(wèn)題,而不是技術(shù)問(wèn)題。如果不想讓AI收集特定數據,應該做的是敦促決策者制定相應法規。
AI將催生偏見(jiàn)和技術(shù)濫用?
解答:大部分情況下,AI的偏見(jiàn)比人類(lèi)更少。
機器學(xué)習系統比傳統軟件系統更為復雜,它們會(huì )基于經(jīng)驗持續進(jìn)行調整和改進(jìn)。批評人士認為,這種復雜性將導致“算法偏見(jiàn)”,從而催生政府和企業(yè)有意或無(wú)意的技術(shù)濫用行為,因為這些組織會(huì )拿算法的復雜性做擋箭牌,為種種剝削、歧視或其他不道德和破壞性行為做借口。
不道德或不負責任地使用AI的情況確實(shí)可能存在,但因為這一點(diǎn)而抵制AI的人忽視了關(guān)鍵的一點(diǎn):機器學(xué)習系統和它的開(kāi)發(fā)者或使用它的組織機構并不是相互獨立的。如果某個(gè)組織想要系統性地歧視某個(gè)特定團體,無(wú)需AI也能做到。此外,如果一種算法系統產(chǎn)生了意料之外的歧視,這并不是因為技術(shù)本身帶有惡意,技術(shù)僅僅只是遵循了人類(lèi)的指示,或是收集了可能會(huì )反映偏見(jiàn)的真實(shí)世界的數據而已。也就是說(shuō),大多數情況下,相比人類(lèi)的決策過(guò)程,AI的偏見(jiàn)更少。
AI機器將接管并最終消滅人類(lèi)嗎?
解答:機器智能和人類(lèi)智能是完全不同的系統,機器還是受控于人類(lèi)。
有些人認為,機器將變得超級智能,并最終將勝過(guò)和消滅人類(lèi)。這種觀(guān)點(diǎn)夸大了技術(shù)進(jìn)步的速度,在目前計算機芯片處理能力提升正在趨于放緩、深度學(xué)習領(lǐng)域以外的AI進(jìn)展相對較慢的情況下更是如此。再者,機器智能和人類(lèi)智能是完全不同的系統,即便是計算領(lǐng)域取得了重大進(jìn)展,也不太可能制造出擁有人類(lèi)智力、想象力和適應力水平的機器。退一萬(wàn)步來(lái)說(shuō),假使真的造出了堪比人類(lèi)智能的機器,這些機器還是受控于人類(lèi),因為如果不能保證機器安全,而且它們所帶來(lái)的產(chǎn)出大于成本,那么人類(lèi)是不可能去制造AI機器的。
這份報告在最后部分呼吁決策者以樂(lè )觀(guān)積極的心態(tài)去迎接AI,而不是害怕它。人類(lèi)應該認識到,和其他新技術(shù)一樣,盡管存在風(fēng)險,但“AI本質(zhì)上是好的”。即便出現風(fēng)險,也應該想辦法解決,而不是去阻礙它。政府應該以理性和冷靜的態(tài)度看待AI,決策者應當大力支持AI的研發(fā),讓AI變得更強大、更高效、更安全、更透明。
簡(jiǎn)言之,無(wú)論是在過(guò)去還是在未來(lái),技術(shù)進(jìn)步都是人類(lèi)進(jìn)步的關(guān)鍵,而AI必將在這一進(jìn)程中扮演重要角色。
人工智能概念股:埃斯頓、科大智能、漢王科技、江南化工、華東數控、和而泰、中科曙光、永創(chuàng )智能、北京君正、通富微電、永創(chuàng )智能、勁拓股份。
人工智能概念股
那么問(wèn)題來(lái)了:最值得配置的人工智能概念股是哪只?即刻申請進(jìn)入國內首個(gè)免費的非公開(kāi)主題投資交流社區概念股論壇參與討論!
申明:本文為作者投稿或轉載,在概念股網(wǎng) http://m.medicalvoicenetwork.com/ 上發(fā)表,為其獨立觀(guān)點(diǎn)。不代表本網(wǎng)立場(chǎng),不代表本網(wǎng)贊同其觀(guān)點(diǎn),亦不對其真實(shí)性負責,投資決策請建立在獨立思考之上。