可靠一个-美国率先制定军用人工智能伦理原则-虎林新闻网

                                  • 时间:

                                  中卫回应林区污染

                                  三是確保人工智能倫理原則的正確執行。為達成這一目標,需要相關各方在原則條款和內涵理解上都達成共識。與此同時,必須在軍用人工智能開發應用的各個領域,制定明確的、可操作的執行細則和標準規範,這是人工智能倫理原則得到正確執行的基礎。

                                  「負責」原則的主要含義是,人工智能是人的產物,人是能動的、具有個人價值觀和情感好惡的責任主體。人工智能技術的決策者和開發專家,必然要體現人的主體作用,他們理所當然應該為自己的決定和行為造成的結果負責。在軍事應用中,因為造成的後果可能具有毀滅性,所以,「負責」成為第一原則。

                                  二是建立一個為國防部服務的人工智能指導委員會。美軍之前開展的「利用受監管的自主能力開展城市偵察」項目,需要收集複雜城市作戰環境中的人員信息,使自主系統能夠在監視和操控下探測敵人,幫助作戰人員甄別真正的威脅,防止向友軍發射火力以及造成平民傷亡。為此,美軍在進行技術研發之始,就成立了相關的倫理諮詢委員會。目前,美國國防創新委員會是一個功能涵蓋較寬的組織,在其中成立專門的人工智能指導委員會有其必要性。

                                  「公平」原則是指,對人而言,不同領域、不同職級的所有人在人工智能面前是平等的,不應有區別對待。人工智能系統應無差別地向人機界面提供它的處理結果,依據結果作出判斷、採取行動,機會也是公平的。

                                  「可追蹤」原則的含義是,不管是純技術過程還是人機交互過程,人工智能系統都必須是可追溯和可審計的。人工智能系統要如實記錄生成決定的整個過程和系統所作的決定,包括數據收集、數據標記以及所用算法等,不僅要確保其數據和系統的透明度,而且要確保其數學模型的透明度。

                                  隨着人工智能技術的巨大成功並開始在軍事領域廣泛應用,人們擔心它會導致「機器殺人」的慘劇出現。著名天體物理學家斯蒂芬·霍金對人工智能充滿期待,同時也對它的開發應用滿懷擔憂:「有益的人工智能可以擴大人類的能力和可能性,但失控的人工智能很難被阻止。所以,在開發人工智能時必須保證符合道德倫理與安全措施的要求。」10月31日,美國國防創新委員會率先推出《人工智能原則:國防部人工智能應用倫理的若干建議》,這是對軍事人工智能應用所導致倫理問題的首次回應。

                                  「可靠」原則指的是,人工智能系統在使用過程中對使用者而言是安全、可靠和不作惡的。

                                  由於軍事人工智能所展示的現實能力和巨大潛力,人們普遍認為人工智能技術將重塑未來戰爭形態。在此重要關頭,美國率先推出軍用人工智能倫理原則,無疑同樣具有爭奪智能化戰爭定義權的用意。達成這樣的目標,將使美國在軍用人工智能發展上獲得主導權和領先優勢。

                                  為了貫徹以上軍用人工智能倫理原則,美國國防創新委員會提出了若干條建議,可以歸納為以下4個方面的舉措。

                                  一是通過國防部官方渠道將這些原則正式化。《人工智能原則:國防部人工智能應用倫理的若干建議》是全球第一個完整描述軍事人工智能倫理原則的文件。美國國防創新委員會是一個獨立的聯邦顧問委員會,成員包括來自谷歌、臉書、微軟等科技企業的高管和專家。這一組織雖然在形式上是一個民間組織,但其功能是為國防部高層領導提供建議。其提出的軍用人工智能原則,雖然並不自動成為美國國防部的原則,但成為美國國防部認可標準的概率是很大的。

                                  美國國防創新委員會的這份報告為美國國防部在戰鬥和非戰鬥場景中設計、開發和應用人工智能技術,提出了「負責、公平、可追蹤、可靠、可控」五大原則。

                                  新美國安全中心的「技術和國家安全計劃」主任保羅·斯查瑞是「利用受監管的自主能力開展城市偵察」項目倫理諮詢委員會的成員。他認為,制定人工智能倫理原則,可使各方面專家在智能系統研發之初就法律、道德和倫理問題進行早期溝通,對於推動技術發展和結果可靠具有關鍵意義。

                                  「可控」原則要求,不管人工智能系統的功能如何強大、技術如何發展,它的作用和能力應該永遠置於人的控制之下。美軍在伊拉克戰場上使用的智能機械人就有失控向己方開火的先例。落實「可控」原則,就要嚴格限定對人工智能的授權,同時要加強對技術失誤的警惕、督查和檢驗。

                                  (作者單位:國防科技大學信息通信學院)

                                  如果不受限制地將人工智能應用於軍事領域,後果可能是人類難以承受的。美國率先制定軍用人工智能倫理原則,客觀上成為這一問題的權威發言者,有利於其佔據道德制高點並掌控相關話語權,這也方便美國在大力發展人工智能軍事應用的同時,以倫理道德為借口,遏制其他國家軍隊在相關領域的發展。

                                  四是召開有關人工智能安全的年度會議。由於人們對人工智能倫理問題的認識還處於初級階段,已經制定的原則是否合理有效也有待檢驗。因此,召開人工智能安全年會必不可少,這樣可以對倫理原則執行情況進行督查,並根據效果分析不斷改進。

                                  今日关键词:芬兰发现稀有冰蛋