close
flickr Lwp Kommunikáció
普立茲巨作《槍砲、病菌與鋼鐵:人類社會的命運》作者賈德·戴蒙,認為世界會變成這個樣子,是十六世紀開始人類利用資源優勢掠奪、佔領而來,現在的自由關稅協議,只是以比較文明的方式解決,但自始自終都是全球化的一環,然全球化只會嘉惠優勢一方,現在又在科技推波助瀾下,更加深社會不平等隱憂。
英國著名物理學家史蒂芬·霍金在一場論壇中,被問及如何看待未來機器人對人類社會造成的影響。他悲觀的認為,機器人只會讓人類社會更不平等,窮人更無法翻身。他被問及幾個問題,包括發展人工智慧需要多久、當人工智慧變聰明時會怎樣、為何擔心人工智慧、是否想過工作被機器人取代的技術性失業等等。
首先,相同人類水平智慧的人工智慧要花多久時間發展,他說:「目前沒有共識,所以請不要相信某些人信誓旦旦的說,人工智慧這輩子內會發生或是不會的說法。」且他認為就算最終發生了,對人類不是帶來最好的影響,就是最壞的影響,所以得到權力會帶來巨大價值。
如果人工智慧也可如人類一樣演化變得更聰明,我們可能會面臨「智慧爆炸」 (intelligence explosion),最終導致機器的智慧超過我們,且超過的程度大於人類比蝸牛的程度。
「智慧爆炸」是 1965 年統計學家 I.J. Good 於 1965 年提出,當時他說,二十世紀內人類就會設計出遠超過任何智力的超級機器,超級智慧機器就會生產更優良的機器,之後必定出現「智慧爆炸」,人類智慧會被遠遠拋在後頭。霍金也贊同這樣的推測。
霍金擔心人工智慧的原因是,他認為人工智慧真正的風險不是惡意,而是競爭。他舉例,「你或許不是一個討厭螞蟻的人,但是如果你負責的是水電綠能計畫,這項工程會淹沒區域內的蟻丘,這對螞蟻來說就是一場災難,我們要避免自己成為那些螞蟻。」意思就是說,人工智慧會完成任務,但如果手段與人類不一致,那就完蛋了。
關於機器人取代人類工作造成技術失業問題,霍金認為這要看資源如何分配。他說,「如果機器創造的財富是共享的,那麼每個人都能享受奢華生活,如果機器擁有者成功遊說反對財富重新分配的話,大部分的人會終其一生貧窮。隨著科技加深不平等,現在看來趨勢是往不好的方向走。」
人工智慧對人類社會是否是個威脅。霍金認為,雖然人工智慧設計目的不是演化,而是完成目標,但是未來人工智慧仍會發展出生存驅動力,並需要更多資源來完成目標,因為生存與擁有更多資源可增加完成其他目標的機會,這對人類而言就會產生問題,因為人類的資源會被搶走。
I.J. Good 當時提出智慧爆炸的可能性時,就說人類製造人工智慧應該適可而止,他說,「第一台超級智慧機器是人類需要完成的最後一項發明,前提是這台機器足夠聽話,會告訴我們如何控制它。」
 
(首圖來源:flickr / Lwp Kommunikáció CC BY 2.0) 

文章來源:  TechNews科技新報   

arrow
arrow

    norreen2 發表在 痞客邦 留言(0) 人氣()