کد مقاله کد نشریه سال انتشار مقاله انگلیسی نسخه تمام متن
5470183 1519289 2017 6 صفحه PDF دانلود رایگان
عنوان انگلیسی مقاله ISI
Human-robot Collaboration Demonstrator Combining Speech Recognition and Haptic Control
ترجمه فارسی عنوان
نشانگر همکاری انسانی ربات ترکیبی از تشخیص گفتار و کنترل هپتیک
کلمات کلیدی
همکاری روبات انسانی، تشخیص گفتار، کنترل پنجه،
ترجمه چکیده
در سال های اخیر، همکاری های انسانی و روبات در صنایع ساختمانی، موضوع مهمی بوده است. با معرفی روبات ها به یک سلول کارائی همانند انسان، مزایای هر دو انسان و روبات می تواند مورد استفاده قرار گیرد. یک ربات می تواند کارهای سنگین بلند، تکراری و دقت بالا را انجام دهد در حالی که انسان می تواند کارهایی را انجام دهد که نیاز به انعطاف پذیری از انسان دارند. اگر یک کارگر با روبات همکاری داشته باشد، مهم است که یک راه بصری برای برقراری ارتباط با ربات داشته باشیم. در حال حاضر، نحوه تعامل با یک ربات از طریق یک آویز آموزش، جایی که ربات با استفاده از دکمه ها یا جوی استیک کنترل می شود. با این حال، سخنرانی و لمس دو روش ارتباطی طبیعی برای انسان هستند، که در آن، برای تفسیر این روش ارتباط، می توان از تکنیک های تشخیص گفتار و تکنولوژی کنترل استفاده کرد. این فن آوری ها در بسیاری از زمینه های تحقیقاتی، از جمله تعامل انسان و روبات، بسیار مورد تحقیق قرار گرفته است. با این حال، تحقیق در ترکیب این دو فناوری برای دستیابی به ارتباطات طبیعی تر در همکاری های صنعتی انسانی ربات ها محدود است. به این ترتیب یک تظاهر کننده توسعه یافته است که شامل هر دو تکنولوژی تشخیص گفتار و تکنولوژی کنترل برای کنترل یک روبات مشترک از روبات های جهانی است. این تظاهر کننده به عنوان یک پلتفرم آزمایشی برای تحقیق بیشتر در مورد چگونگی به کارگیری تشخیص گفتار و کنترل هپتیک در همکاری های انسانی ربات می تواند عمل کند. تظاهرکنندگان ثابت کرده اند که این دو تکنولوژی را می توان با یک ربات صنعتی مشترک، که در آن انسان و ربات همکاری برای ساخت یک مدل ماشین ساده است. تظاهر کننده در نمایشهای عمومی و یک مطالعه آزمایشی استفاده شده است که در بهبود بیشتر تظاهرکنندگان کمک کرده است. تحقیقات بیشتری بر روی ایجاد ارتباط برای شهروندی انسان بیشتر خواهد شد و تظاهر کننده به عنوان پایه ای برای تحقیق ادامه می یابد.
موضوعات مرتبط
مهندسی و علوم پایه سایر رشته های مهندسی مهندسی صنعتی و تولید
چکیده انگلیسی
In recent years human-robot collaboration has been an important topic in manufacturing industries. By introducing robots into the same working cell as humans, the advantages of both humans and robots can be utilized. A robot can handle heavy lifting, repetitive and high accuracy tasks while a human can handle tasks that require the flexibility of humans. If a worker is to collaborate with a robot it is important to have an intuitive way of communicating with the robot. Currently, the way of interacting with a robot is through a teaching pendant, where the robot is controlled using buttons or a joystick. However, speech and touch are two communication methods natural to humans, where speech recognition and haptic control technologies can be used to interpret these communication methods. These technologies have been heavily researched in several research areas, including human-robot interaction. However, research of combining these two technologies to achieve a more natural communication in industrial human-robot collaboration is limited. A demonstrator has thus been developed which includes both speech recognition and haptic control technologies to control a collaborative robot from Universal Robots. This demonstrator will function as an experimental platform to further research on how the speech recognition and haptic control can be used in human-robot collaboration. The demonstrator has proven that the two technologies can be integrated with a collaborative industrial robot, where the human and the robot collaborate to assemble a simple car model. The demonstrator has been used in public appearances and a pilot study, which have contributed in further improvements of the demonstrator. Further research will focus on making the communication more intuitive for the human and the demonstrator will be used as the platform for continued research.
ناشر
Database: Elsevier - ScienceDirect (ساینس دایرکت)
Journal: Procedia CIRP - Volume 63, 2017, Pages 396-401
نویسندگان
, , , ,