機器人和自動系統將為社會帶來重大創新。最近,公眾越來越關注可能發生的社會問題,以及可能產生的巨大潛在利益。
人工智能(AI)已經從一個科幻小說式的探索領域發展到一個蓬勃發展的科技領域,在這個領域里,不可能的事情正在成為可能。為了確保人工智能發展的未來仍然具有倫理和社會意識,美國電氣和電子工程師協會(IEEE)宣布了三項新的人工智能倫理標準。
IEEE 自稱為“世界上最大的技術進步技術專業組織”。根據最近發布的一份新聞稿,他們的人工智能標準將優先考慮人類,因為他們承諾要跟上該領域不斷發展的腳步。
這些新標準將成為一份題為《倫理一致的設計:將人類福祉與人工智能和自主系統優先考慮的愿景》的 IEEE 文檔的一部分。這份文件將繼續隨著時代的變遷而不斷變化,鼓勵那些推動技術進步的人考慮這樣的進步可能會如何影響倫理方面的擔憂。
Satoshi Tadokoro 是 IEEE 機器人和自動化協會的主席,他解釋了為什么他們在發布會上制定了這樣的標準:“機器人和自動系統將為社會帶來重大創新。最近,公眾越來越關注可能發生的社會問題,以及可能產生的巨大潛在利益。不幸的是,在這些討論中,可能會出現一些來自虛構和想象的錯誤信息。”
Tadokoro 繼續說道:“IEEE 將基于科學和技術的公認事實來引入知識和智慧,以幫助達成公共決策,使人類的整體利益最大化。”三大人工智能標準將作為一個單獨的項目引入,每個項目由專家領導。
第一個標準:“機器化系統、智能系統和自動系統的倫理推動標準”。這個標準探討了“推動”,在人工智能世界里,它指的是影響人類行為的微妙行動。
第二個標準:“自動和半自動系統的故障安全設計標準”。它包含了自動技術,如果它們發生故障,可能會對人類造成危害。就目前而言,最明顯的問題是自動駕駛汽車。
第三個標準:“道德化的人工智能和自動系統的福祉衡量標準”。它闡述了進步的人工智能技術如何有益于人類的益處。
這些標準的實施可能比我們想象的要早,因為像 OpenAI 和 DeepMind 這樣的公司越來越快地推進人工智能的發展,甚至創造出能夠自我學習又擴大“智能”領域的人工智能系統。專家們認為,這樣的人工智能會破壞世界穩定,導致大規模的失業和戰爭,甚至轉向創造“殺人武器”。最近,聯合國的重要討論促使人們開始認真思考,需對將人工智能技術當作武器使用進行更嚴格的監管。
這三個標準項目有望能夠規范人工智能的發展,而不是阻礙進步,但是我們所了解的社會也并未被我們努力創造的東西所破壞。
-
人工智能
+關注
關注
1806文章
48987瀏覽量
249029
原文標題:IEEE發布人工智能倫理標準,確保人類不受影響
文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
最新人工智能硬件培訓AI 基礎入門學習課程參考2025版(大模型篇)
標準引領,賦能健康中國|喜報!回映電子參與起草的三項腦機接口臨床醫療器械團體標準正式發布

評論