کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
7286286 1474117 2016 11 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
Can model-free reinforcement learning explain deontological moral judgments?
ترجمه فارسی عنوان
آیا یادگیری تقویت شده بدون مدل می تواند قضاوت های اخلاقی را توضیح دهد؟
کلمات کلیدی
قضاوت اخلاقی، مدل رایگان مبتنی بر مدل، سیستم دوگانه، تقویت یادگیری،
ترجمه چکیده
چارچوب های سیستم دوگانه پیشنهاد می کنند که قضاوت های اخلاقی از هر دو پاسخ فوری عاطفی و کنترل شناختی / عقلانی حاصل می شود. به تازگی کوشمن (2013) یک تئوری جدید سیستم دوگانه را بر مبنای یادگیری تقویتی مبتنی بر مدل و مدل مبتنی بر مدل ارائه کرده است. یادگیری بدون مدل ارزش ها را به اقدامات بر اساس تاریخ خود پاداش و مجازات متصل می کند و برخی از قضاوت های غیر اخلاقی و غیرمتعارف را توضیح می دهد. یادگیری مبتنی بر مدل سازی شامل ایجاد یک مدل علیت از جهان است و اجازه می دهد تا برای برنامه ریزی دور چشم انداز؛ این نوع یادگیری متناسب با ملاحظات سازنده است که به دنبال به حداکثر رساندن نتایج خاصی هستند. من سه نگرانی در رابطه با استفاده از یادگیری تقویت کننده مدل برای توضیح قضاوت اخلاقی زناشویی ارائه می دهم. اولا، بسیاری از اقداماتی که انسانها از یادگیری رایگان در اختیار دارند، از نظر اخلاقی اشتباه نیستند. قضاوت اخلاقی علاوه بر آموزش بدون مدل، نیاز به چیزی دارد. دوم، شواهدی برای پیش بینی های مرکزی حساب تقویت وجود دارد؛ به عنوان مثال، افرادی که دارای تاریخ تقویت های مختلف هستند، همه چیز با هم برابرند، قضاوت های اخلاقی متفاوت می کنند. در نهایت، برای تأثیر تأثیر قصد در چارچوب، نیاز به فرضیه های خاصی وجود دارد که دارای پشتیبانی نیستند. این چالش ها فوند مناسب برای کار تجربی / نظری آینده در چارچوب مبتنی بر مدل / مدل است.
موضوعات مرتبط
علوم زیستی و بیوفناوری علم عصب شناسی علوم اعصاب شناختی
چکیده انگلیسی
Dual-systems frameworks propose that moral judgments are derived from both an immediate emotional response, and controlled/rational cognition. Recently Cushman (2013) proposed a new dual-system theory based on model-free and model-based reinforcement learning. Model-free learning attaches values to actions based on their history of reward and punishment, and explains some deontological, non-utilitarian judgments. Model-based learning involves the construction of a causal model of the world and allows for far-sighted planning; this form of learning fits well with utilitarian considerations that seek to maximize certain kinds of outcomes. I present three concerns regarding the use of model-free reinforcement learning to explain deontological moral judgment. First, many actions that humans find aversive from model-free learning are not judged to be morally wrong. Moral judgment must require something in addition to model-free learning. Second, there is a dearth of evidence for central predictions of the reinforcement account-e.g., that people with different reinforcement histories will, all else equal, make different moral judgments. Finally, to account for the effect of intention within the framework requires certain assumptions which lack support. These challenges are reasonable foci for future empirical/theoretical work on the model-free/model-based framework.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Cognition - Volume 150, May 2016, Pages 232-242
نویسندگان
,