來源: 山東分院2021-12-22 17:25
申論熱點材料閱讀
一、人工智能:
關(guān)于人工智能目前尚無統(tǒng)一的認識,一種廣為接受的觀點認為,人工智能就是研究如何使計算機去做過去只有人才能做的智能工作,使計算機來模擬人的某些思維過程和智能行為,是從追求智能機器到高水平的人機、腦機相互協(xié)同和融合,從聚焦個體智能到基于互聯(lián)網(wǎng)和大數(shù)據(jù)的群體智能,它可以把很多人的智能集聚融合起來變成群體智能。
二、人工智能引出的倫理問題:
美國國防部高級研究計劃局正在推進兩個項目:“快速輕型機器人”(FLA)和“敵對環(huán)境下聯(lián)合作戰(zhàn)”(CODE),前者計劃設(shè)計一款旋翼機,能夠在沒有外界操控的情況下以極高的速度在城市環(huán)境或建筑物內(nèi)部敏捷地飛行;后者的目標是開發(fā)無人飛行器,將能夠在完全與總部失去聯(lián)絡(luò)的情況下完成一整套攻擊程序----搜索目標、鎖定、跟蹤、攻擊、評估。它們將由可能促成“殺手機器人”的研發(fā)。對此,美國加州大學(xué)伯克利分校的計算機科學(xué)教授SlmrnRueesll認為,這些武器所具備的敏捷性和致命性將讓人類陷入毫無招架之力的境地,“這不是我們多夢想的未來場景”。而來自英國布里斯托爾大學(xué)的機器人專家SahinsHauret則表示,公眾無須對人工智能技術(shù)的發(fā)展感到擔(dān)憂。
三、應(yīng)對人工智能帶來的倫理問題的措施
1.完善法律法規(guī),奠定法律監(jiān)管基礎(chǔ)
德國監(jiān)管機構(gòu)致力于制定無人駕駛汽車應(yīng)如何設(shè)定程序的規(guī)范,以解決相關(guān)困境,比如為避免意外的發(fā)生,是選擇重罰騎自行車者還是重罰超速行駛者。據(jù)悉,試行法規(guī)由政府指定的委員會起草。該委員會包括倫理學(xué)家、法學(xué)家及技術(shù)專家等多領(lǐng)域?qū)<摇T谛滦蟹ㄒ?guī)下,無人駕駛汽車的核心控件的程序必須被編程好,以不計一切代價避免人員受傷或死亡。這就意味著,在無人駕駛汽車發(fā)生無可避免的車禍時,汽車的這個控件必須選擇對生命傷害最小化的舉措,即使損壞財產(chǎn)或撞擊路上的動物。同時,該控件不以當事人的年齡、性別和生理狀況作為其行動的參考依據(jù)。
2.建立國際公約約束
所謂人工智能武器,是指致命自主武器系統(tǒng),很多科幻電影中出現(xiàn)的戰(zhàn)爭機器人就屬于此類。它與普通武器根本的區(qū)別是,不需要人類的直接監(jiān)督和決策,能夠自動鎖定目標并使用潛在武力予以致命打擊。一個簡單的程序,就會將其改裝成屠殺平民的恐怖機器,其危害性遠遠超過了常規(guī)武器。軍火是暴利行業(yè),基于人工智能技術(shù),自主化武器會給殺傷屬性帶來質(zhì)的變化,必定會誘使軍火行業(yè)鋌而走險。目前世界上還沒有嚴格意義上的人工智能武器,人類的監(jiān)督和決策在武器使用過程中仍必不可少。比如在戰(zhàn)場上發(fā)揮了極高軍事應(yīng)用價值的遠程武裝無人機,雖然高度自動化,集成控制、定位、圖像處理等多種尖端技術(shù),也需要配備專業(yè)的軍事技術(shù)人員進行操作。但隨著人工智能技術(shù)的爆發(fā)式發(fā)展,技術(shù)問題不會再是發(fā)展人工智能武器的壁壘,美國的雷神等公司可能已經(jīng)掌握或正在開發(fā)相關(guān)技術(shù)。
3.建立人工智能倫理學(xué)系的機制
有學(xué)者指出,可以通過制定計算機學(xué)習(xí)的倫理來明確人工智能倫理學(xué)習(xí)的方向。人工智能分擔(dān)了人類的部分知識和智慧功能,但在最重要的創(chuàng)造性和評審創(chuàng)造性價值方面無法替代,更為重要的是人工智能無法確定自己的進化方向和進化目標,依然是人類的工具?梢詫⒋龠M和保護種群知識庫發(fā)展的行為和關(guān)系作為正向的倫理標準,把阻礙和危害種群知識庫發(fā)展的行為和關(guān)系為負面的倫理規(guī)則來構(gòu)建人工智能的倫理學(xué)習(xí)機制。但人工智能倫理學(xué)習(xí)機制的建立規(guī)則仍然需要深入討論。
參考例文:
人工智能與倫理
隨著人工智能深入到人們的生活之中,人工智能可能引發(fā)的倫理問題日益受到關(guān)注,尤其是涉及到人類的基本價值和威脅人類生存的話題。其實,人們對于人工智能的擔(dān)憂多半出于對未知事物的恐懼,人工智能作為科技發(fā)展的產(chǎn)物不可能解決人類面對的倫理沖突,只是某種程度上放大了這種沖突,人類完全可以采取措施化解人工智能可能帶來的倫理危機。
化解人工智能的倫理沖突應(yīng)當建立明確的責(zé)任機制。人工智能引發(fā)的倫理問題,有一部分是人類潛在價值沖突的具體化,是表現(xiàn)在生活中的價值選擇上的矛盾,責(zé)任并不在人工智能技術(shù)。比如無人駕駛汽車導(dǎo)致的交通事故,拋開技術(shù)本身存在的缺陷,單就在緊急情況下避險導(dǎo)致的人員傷亡來說,即便出現(xiàn)了真實的事故也完全可以按照現(xiàn)實生活中出現(xiàn)的事故來劃分責(zé)任,其難點在于人工智能應(yīng)當承擔(dān)的責(zé)任損失由誰承擔(dān)的問題。這是一個倫理問題,不能單靠技術(shù)加以解決。因此,通過立法明確人工智能技術(shù)導(dǎo)致的事故責(zé)任就成為了解決沖突的必然選擇。
對人工智能進行倫理規(guī)范應(yīng)建立人工智能的倫理審核與學(xué)習(xí)機制。人工智能尚不具備感情和自主意識,即便未來通過學(xué)習(xí)可以獲得獨立思考的能力,其價值取向也可以用人文精神加以引領(lǐng)和規(guī)范。聊天機器人之所以會說出“希特勒沒有錯”這樣違反倫理的言論,是因為現(xiàn)實社會里有極少數(shù)人仍持有這種認識,這句話通過人工智能說出來顯得驚悚,但并不奇怪,這種表達與網(wǎng)絡(luò)上侮辱先烈結(jié)構(gòu)主流價值的言論并無二致。應(yīng)當避免的是這種言論通過人工智能的快速傳播對整個社會空氣形成危害,實現(xiàn)這一目標需要深入把握人工智能的學(xué)習(xí)機制,加強人工智能對主流價值的學(xué)習(xí),同時建立對機器人的倫理測試機制。
避免人工智能造成倫理危機應(yīng)建立人工智能倫理風(fēng)險防控機制?茖W(xué)技術(shù)是把雙刃劍,人工智能在造福人類的同時也具有威脅人類生存的潛在可能。預(yù)防危機的關(guān)鍵不在于人工智能本身,而在于掌握和使用技術(shù)的人。如果把人工智能用于造福人們的日常生活,帶來的將是非常美妙的前景;而如果將人工智能應(yīng)用于軍事手段,用人工智能來殺人,則有可能給人類帶來滅頂之災(zāi)。從這個意義上說,“殺手機器人”的出現(xiàn)并不是對人工智能技術(shù)的拷問,而是對人類良知的拷問。避免人工智能成為殺戮人類的工具,建立全人類范圍的人工智能發(fā)展的評估和風(fēng)險防控機制十分必要。
世界潮流浩浩蕩蕩,順之則昌逆之則亡,科學(xué)技術(shù)的發(fā)展更是一日千里。人工智能已經(jīng)進入人們的生活,面對人工智能可能引發(fā)的倫理問題甚至危及,人們應(yīng)該形成清醒的認識,正確認識人類自身存在的缺點和不足,進而從容應(yīng)對和化解人工智能發(fā)展帶來的倫理方面的困惑。