کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
4942374 1437247 2017 17 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
Communicating intent to develop shared situation awareness and engender trust in human-agent teams
ترجمه فارسی عنوان
برقراری ارتباط با هدف ایجاد آگاهی مشترک در مورد وضعیت و ایجاد اعتماد به تیم های عامل انسانی
کلمات کلیدی
گروه کاری انسان و انسان، قصد آگاهی مشترک وضعیت اعتماد، صفحه نمایش کاربر
ترجمه چکیده
این مقاله به مسائل مربوط به ادغام عامل های هوشمند فعال و هوشمند در تیم های همکاری، انسان و ماشین می پردازد. تعامل با عوامل هوشمند ماشین که قادر به اتخاذ تصمیم مستقل و هدفمند در عملیات تیموری سازی انسان هستند، تغییر عمده ای از تعامل سنتی انسان و ماشین در ارتباط با تله عملیات است. برقراری ارتباط با قصد فروشنده دستگاه به همتایان انسانی، به طور فزاینده ای اهمیت می بخشد، زیرا تصمیمات اتخاذ شده در دستگاه های شخصی به اعتماد و مدل های ذهنی منجر می شود. نویسندگان یافته های تحقیق خود را ارائه می دهند که نشان می دهد فناوری های نمایشگرهای موجود، با اطلاعات خاص متناسب و سطح دانش انسانی فرآیند تصمیم گیری عامل ماشین، می تواند ادعاهای اشتباه نسبت به سازگاری پاسخ های رفتاری عامل را کاهش دهد. این مهم است زیرا تصور اشتباهات از طرف اعضای تیم انسان، احتمال تخریب اعتماد و مداخلات غیر ضروری را افزایش می دهد، و در نهایت منجر به نادیده گرفتن عامل می شود. نمونه هایی از مسائل احتمالی مربوط به ارتباط هدف متعهد و نیز پیامدهای بالقوه برای کالیبراسیون اعتماد ارائه شده است.
موضوعات مرتبط
مهندسی و علوم پایه مهندسی کامپیوتر هوش مصنوعی
چکیده انگلیسی
This paper addresses issues related to integrating autonomy-enabled, intelligent agents into collaborative, human-machine teams. Interaction with intelligent machine agents capable of making independent, goal-directed decisions in human-machine teaming operations constitutes a major change from traditional human-machine interaction involving teleoperation. Communicating the machine agent's intent to human counterparts becomes increasingly important as independent machine decisions become subject to human trust and mental models. The authors present findings from their research that suggest existing user display technologies, tailored with context-specific information and the human's knowledge level of the machine agent's decision process, can mitigate misperceptions of the appropriateness of agent behavioral responses. This is important because misperceptions on the part of human team members increases the likelihood of trust degradation and unnecessary interventions, ultimately leading to disuse of the agent. Examples of possible issues associated with communicating agent intent, as well as potential implications for trust calibration are provided.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Cognitive Systems Research - Volume 46, December 2017, Pages 26-39
نویسندگان
, , , , ,