Gopper 發表於 2013-7-29 07:42:07

科學家定制三大道德基準 防範《機械公敵》成真

  隨著機器人變得越來越智能化和擬人化,我們一點也不難想像未來某一天它們完全的獨立自主。一旦機器人能夠獨立自主的時候,人類將不得不想辦法如何能讓它們不說謊、不欺騙、不盜竊而且和遠離其他我們人類每天在做的所有壞事。
  這就涉及到機器人倫理學,這個機器人研究領域的目標是讓機器人遵守特定的道德標準。在最近的報導中,喬治亞理工學院的研究人員們討論了人類如何能夠確保機器人不會違反規定。

  第一,擁有道德調節器
  軍隊使用的殺人機器人全部都有某種人類的成分在裡面,在人類沒有做出最終決定之前機器人不會使用致命的武力。但是那種情況可能很快發生變化,而且當它工作的時候,這些機器人需要瞭解如何表現出人道主義精神。在戰爭中那種情況意味著什麼還尚未定論,但是某種道德標準需要建立,因為濫殺無辜的機器人沒有任何用處。

  一種道德調節器將成為機器人架構的一部分,它將依據事先制定的道德標準判定致死性武力是否合理,這或許就是答案。比如說一個擁有道德調節器的軍用機器人或許只攻擊指定殺戮區域或者接近一個醫療設施的人。它能夠使用一種“間接危險評估”系統來確認只除掉目標而不是附近的其他所有人。
  第二,建立情感
  情感能夠幫助我們確定機器人在軍隊或者任何地方都不會做任何不恰當的事情。一個軍用機器人如果再三的被上級所責罵,它能夠擁有越來越多的愧疚感。如果累積了足夠的愧疚感,機器人或許會強制自己不去完成任何更加致命的行動。
  情感同樣能夠用於與非軍用人形機器的相互交流上。欺騙能夠幫助一個機器人在一場搜救行動中冷靜的安撫慌張的受害者他們沒事,而且患有老年癡呆癥的困惑病人或許也需要一個護理機器人的欺騙。但是未來的程式員需要謹記:從開始欺騙到擁有自主能力的機器人情不自禁的靠欺騙獲得它們想要的東西是非常容易的。
  第三,尊重人類
  如果機器人不尊敬人類,我們就麻煩了。這就是為什麼研究人員們如此緊張的原因,自主機器人需要尊重基本的人權,包括隱私權、身份訊息和自主權。如果我們不能保證智慧機器人這樣做的話,我們應當避免大批量的製造它們。
  當然,人類不會一直按照倫理道德行事。或許我們也能夠使用一種倫理調節器,尤其是當我們的大腦讓我們誤入歧途的那些時候。研究人員解釋說:“我們期待隨著這些早期研究的推動,能夠產生倫理顧問能夠提高人們的表現,而不是管理一個自主機器人的道德行為,它反而能夠為人類使用者提供另一種面對倫理挑戰的意見,比如說對待身體上和精神上有障礙的群體。
  最終,機器人或許能讓我們更加人性化。

尊貴的基佬 發表於 2013-7-29 09:03:29

我的idea,被樓主嫖竊了!

十兵衛 發表於 2013-7-29 09:07:44

希望可以用些時間了~`

gaiful 發表於 2013-7-29 09:14:04

這個站不錯!!  

ILOVEU5 發表於 2013-7-29 09:28:19

樓主分享的好東西,我幫你宣傳

豪鬼AKUMA 發表於 2013-7-29 09:28:20

正好你開咯這樣的帖

鬼谷先生 發表於 2013-7-29 09:28:29

給你打氣加油,謝謝分享

plas_hoz 發表於 2013-7-29 09:37:23

回帖是種美德

24gold24 發表於 2013-7-29 09:38:17

回復一下

Gopper 發表於 2013-7-29 09:52:32

賺點分不容易啊
頁: [1] 2 3
查看完整版本: 科學家定制三大道德基準 防範《機械公敵》成真