歐盟基本權利機構(FRA)發(fā)布了一份關于人工智能的報告,深入探討了必須考慮的技術倫理問題。
聯(lián)邦鐵路局的這份報告題為《走向正確的未來》(Getting The Future Right),開篇就介紹了人工智能已經(jīng)讓生活變得更好的一些方法,比如幫助癌癥診斷,甚至預測入室盜竊可能發(fā)生在哪里。
“可能性似乎無窮無盡,”聯(lián)邦鐵蹄局局長邁克爾奧弗萊厄蒂在報告的前言中寫道。“但在使用人工智能時,我們?nèi)绾尾拍苋婢S護基本權利標準?”
為了回答這個問題,聯(lián)邦鐵路局采訪了100多名公共行政官員、私營公司員工和各種專家。
有證據(jù)表明,算法存在偏見,這可能導致自動化的社會問題,如種族檔案如果人工智能的全部潛力將為整個社會打開,這是一個需要回答的問題。
‘Flaherty說:
“人工智能并非絕對正確,它是由人制造的而人也會犯錯。”這就是為什么人們需要意識到人工智能何時被使用,它是如何工作的,以及如何挑戰(zhàn)自動決策。歐盟需要澄清現(xiàn)有規(guī)則如何適用于人工智能。組織需要評估他們的技術如何在開發(fā)和使用人工智能的過程中干擾人們的權利。我們有機會塑造不僅尊重我們的人權和基本權利,而且保護和促進它們的人工智能。”
人工智能正以某種形式應用于幾乎每一個行業(yè),如果不是現(xiàn)在,也會在不久的將來。
人工智能的偏見在某些行業(yè)比其他行業(yè)更危險。糖霜是一個明顯的例子,但在金融服務等領域,它可能意味著一個人得到了貸款或抵押貸款,而另一個人卻申請不到貸款。
如果沒有適當?shù)耐该鞫龋@些偏見可能會在沒有人知道這些決定背后的原因的情況下發(fā)生,這可能只是因為有人在不同的社區(qū)長大,每個自動決策都對人有非常真實的影響。
聯(lián)邦鐵路局呼吁歐盟:
確保人工智能尊重所有基本權利,人工智能可以影響許多權利,而不僅僅是隱私或數(shù)據(jù)保護。它還可能歧視或妨礙正義。未來任何人工智能立法都必須考慮到這一點,并制定有效的保障措施。
人們可以對人工智能的決策提出質(zhì)疑,人們需要知道何時使用人工智能,如何使用人工智能,以及如何以及在何處投訴。使用人工智能的組織需要能夠解釋他們的系統(tǒng)是如何做出決策的。
在使用人工智能減少負面影響之前和期間進行評估,私人和公共組織應該對人工智能如何損害基本權利進行評估。
提供更多資料保護規(guī)則的指引,歐盟應進一步澄清資料保護規(guī)則如何適用于人工智能。在使用人工智能時,自動化決策的含義以及人類審查的權利也需要更加明確。
評估人工智能是否歧視,對人工智能歧視的可能性及其影響的認識相對較低。這就要求提供更多的研究資金來研究人工智能潛在的歧視性影響,以便歐洲能夠防范它。
創(chuàng)建一個有效的監(jiān)督系統(tǒng),歐盟應該投資一個更“一體化”的系統(tǒng),讓企業(yè)和公共行政部門在使用人工智能時負起責任。當局需要確保監(jiān)督機構有足夠的資源和技能來完成這項工作。
近年來,歐盟加強了對谷歌等“大型科技”公司的審查,原因是它們擔心侵犯隱私的做法和濫用市場地位。上周,人工智能新聞報道,谷歌解雇了人工智能倫理研究負責人蒂姆尼特格布魯(Timnit Gepu),原因是她在電子郵件中批評了自己的雇主。
谷歌首席執(zhí)行官桑達爾皮查伊在一份備忘錄中寫道:“一名才華橫溢的杰出黑人女性領導人不幸離開谷歌,我們需要為此承擔責任。
“對我來說,讓我們的黑人、女性以及沒有得到充分代表的谷歌員工知道,我們重視你們,你們確實屬于谷歌,這非常重要。”
格布魯本周接受了BBC的采訪,她在采訪中稱谷歌和大型科技公司是“制度上的種族主義者”。考慮到這一點,聯(lián)邦鐵路局報告中的呼吁似乎尤為重要。
責任編輯:YYX
-
谷歌
+關注
關注
27文章
6231瀏覽量
107979 -
人工智能
+關注
關注
1806文章
48971瀏覽量
248665
發(fā)布評論請先 登錄
斯坦福大學發(fā)布《2025 年人工智能指數(shù)報告》

Arm發(fā)布人工智能就緒指數(shù)報告
探究人工智能發(fā)展前沿:智能體的演進及其社會影響

人工智能推理及神經(jīng)處理的未來

評論