發布日期:2022-04-18 點擊率:20
機器人是否會有不道德的行為或者是選擇傷害人類呢?人工智能(AI)的快速發展步伐提升了我們的這種擔憂。一些人呼吁禁止機器人技術的研究;其他人則呼吁更多地研究理解怎樣對人工智能進行限制。 但是如果沒有成為人類的“用戶說明書”, 機器人又怎樣來學習倫理行為呢?
美國佐治亞理工學院、交互計算分院的研究人員Mark Riedl 和 Brent Harrison 認為,答案在于“堂吉訶德”系統— — 在亞利桑那州鳳凰城 (2016 年2 月 12-17日) 的AAAI(美國人工智能學會)第16次會議上公布。“堂吉訶德”系統通過訓練機器人閱讀故事的方法來教導它們“價值校準”,讓機器人讀故事來學習事件可以接受的后果,并理解要在人類社會中獲得成功應當怎樣表現。
“不同文化背景里的故事集,用寓言、 小說和其他文學形式的正確和不正確行為示例,來教導孩子做出社會認可的舉止行為。” Riedl說,他是副教授和娛樂智能實驗室主任。“我們認為機器人對故事的理解可以讓它們減少精神病患者出現的行為,并且強化它們“不要傷人”的選擇,同時達到期望的任務目標。
配圖說明:研究學者Mark Riedl 和 Brent Harrison 的“堂吉訶德”系統教導機器人在與人互動時候表現為正派角色,并且這是把倫理價值觀系統構建進入到新型人工智能的巨大努力的一部分。版權:佐治亞理工學院
“堂吉訶德”系統是一種通過對社交中恰當行為給予獎勵,使得人工智能的目標與人類價值觀一致的一種校準方法。它是建立在Riedl教授之前的一個研究——“天方夜譚”系統,的基礎上的。“天方夜譚”系統展示了人工智能如何通過在互聯網上面的眾包模式故事情節,來匯集得出正確的行動后果。
下一篇: PLC、DCS、FCS三大控
上一篇: 索爾維全系列Solef?PV