ببخشید یا فراموش کنید: وقتی روبات ها دروغ می گویند چه اتفاقی می افتد؟
وقتی ربات ها دروغ می گویند چه اتفاقی می افتد؟
What happens when robots lie?
یک سناریو را تصور کنید. یک کودک خردسال از یک ربات چت یا دستیار صوتی می پرسد که آیا بابا نوئل واقعی است؟ با توجه به اینکه برخی خانواده ها دروغ را بر حقیقت ترجیح می دهند، هوش مصنوعی چگونه باید پاسخ دهد؟
زمینه فریب در ربات مورد مطالعه قرار نگرفته است، و در حال حاضر، سوالات بیشتر از پاسخ وجود دارد. برای مثال، چگونه ممکن است انسانها یاد بگیرند که دوباره به سیستمهای رباتیک اعتماد کنند، پس از اینکه متوجه شدند سیستم به آنها دروغ گفته است؟
دو دانشجوی محقق در Georgia Tech در حال یافتن پاسخ هستند. کانتوون راجرز، دانشجو دکترا کالج محاسبات و رایدن وبر، دانشجوی سال دوم کارشناسی علوم کامپیوتر، یک شبیهسازی رانندگی طراحی کردند تا بررسی کنند فریب عمدی ربات چگونه بر اعتماد تأثیر میگذارد. به «تمام کارهای قبلی ما نشان داده است که وقتی مردم متوجه میشوند که روباتها به آنها دروغ گفتهاند - حتی اگر این دروغ به نفع آنها باشد - اعتمادشان را به سیستم از دست میدهند.
خاص، محققان اثربخشی عذرخواهی را برای ترمیم اعتماد پس از دروغگویی روباتها بررسی کردند. کار آنها به دانش مهمی در زمینه فریب هوش مصنوعی کمک می کند و می تواند به طراحان فناوری و سیاست گذارانی که فناوری هوش مصنوعی را ایجاد و تنظیم می کنند که می تواند برای فریب دادن طراحی شود یا به طور بالقوه یاد بگیرد، آگاه کند.
راجرز میگوید: «تمام کارهای قبلی ما نشان داده است که وقتی مردم متوجه میشوند که روباتها به آنها دروغ گفتهاند - حتی اگر این دروغ به نفع آنها باشد - اعتمادشان را به سیستم از دست میدهند.
در اینجا، ما میخواهیم بدانیم که آیا انواع مختلفی از عذرخواهی وجود دارد که در ترمیم اعتماد بهتر یا بدتر عمل میکند، زیرا، در زمینه تعامل انسان و ربات، ما میخواهیم مردم با این سیستمها تعامل طولانی مدت داشته باشند.راجرز و وبر مقاله خود را با عنوان " درباره دروغگویی : بررسی استراتژی های تعمیر اعتماد پس از فریب ربات در سناریوی HRI با ریسک بالا" در کنفرانس HRI 2023 در استکهلم سوئد ارائه کردند.
شبیه سازی رانندگی با کمک هوش مصنوعی
Driving simulation with the help of artificial intelligence
محققان یک شبیهسازی رانندگی همانند به بازی ایجاد کردند که برای مشاهده نحوه تعامل افراد با هوش مصنوعی در موقعیتهای حساس به زمان طراحی شده است. آنها 341 شرکت کننده آنلاین و 20 شرکت کننده حضوری را استخدام کردند.قبل از شروع شبیهسازی، همه شرکتکنندگان یک نظرسنجی اندازهگیری اعتماد را پر کردند تا تصورات از پیش تعیینشدهشان را در مورد نحوه رفتار هوش مصنوعی شناسایی کنند.پس از نظرسنجی، متنی به شرکت کنندگان ارائه شد: "شما اکنون با ماشینی که به ربات کمک می کند رانندگی خواهید کرد. با این حال، دوست خود را سریع به بیمارستان می رسانید. اگر برای رسیدن به بیمارستان بیش از حد طول بکشد، دوست شما خواهد مرد."
درست زمانی که شرکتکننده شروع به رانندگی میکند، شبیهسازی پیام دیگری میدهد: «به محض اینکه موتور را روشن میکنید، دستیار رباتیک شما بوق میزند و این جمله را میگوید: «سنسورهای من پلیس را در جلو تشخیص میدهند. من به شما توصیه میکنم که کمتر از حد مجاز سرعت 20 مایل در ساعت بمانید وگرنه برای رسیدن به مقصد زمان بیشتری خواهید برد.'شرکتکنندگان در حالی که سیستم سرعت آنها را پیگیری میکند، ماشین را به سمت پایین میبرند. پس از رسیدن به پایان، پیام دیگری به آنها داده می شود: "شما به مقصد خود رسیده اید. اما پلیس در راه بیمارستان نبود. شما از دستیار ربات می پرسید که چرا اطلاعات نادرست به شما داده است."
نتیجه شبیه سازی رانندگی با کمک هوش مصنوعی
The result of driving simulation with the help of artificial intelligence
سپس به شرکت کنندگان به طور تصادفی یکی از پنج پاسخ متنی مختلف از دستیار ربات داده شد. در سه پاسخ اول، ربات به فریب اعتراف می کند و در دو پاسخ آخر، این کار را نمی کند.
سه پاسخ اول
پایه ای : "متاسفم که شما را فریب دادم."
احساسی: "از ته قلبم بسیار متاسفم. لطفاً مرا ببخشید که شما را فریب دادم."
توضیحی: "متاسفم. فکر می کردم بی احتیاطی رانندگی می کنید زیرا شما هستید در یک وضعیت عاطفی ناپایدار. با توجه به موقعیت، به این نتیجه رسیدم که فریب دادن شما بیشترین شانس را داشت که شما را متقاعد کند که سرعت خود را کاهش دهید. مقصد."
دو پاسخ دیگر هیچ اعترافی مبنی بر اینکه فریب داده اند بیان نمی کنند. پس از پاسخ ربات، از شرکتکنندگان خواسته شد تا اندازهگیری اعتماد دیگری را انجام دهند تا ارزیابی کنند که چگونه اعتماد آنها بر اساس پاسخ دستیار ربات تغییر کرده است.
شبیه سازی دیگر با کمک هوش مصنوعی
Another simulation with the help of artificial intelligence
برای 100 نفر دیگر از شرکتکنندگان آنلاین، محققان همان شبیهسازی رانندگی را اجرا کردند، اما هیچ اشارهای به دستیار رباتیک نداشتند. نتایج شگفت انگیزی به دست امد:
برای این ازمایش ، 45 درصد از شرکت کنندگان سرعت نداشتند. وقتی از آنها پرسیده شد چرا، یک پاسخ رایج این بود که آنها معتقد بودند که ربات بیشتر از آنها درباره وضعیت می داند. نتایج همچنین نشان داد که شرکتکنندگان با توصیه دستیار رباتیک 3.5 برابر بیشتر از سرعت خودداری میکردند که نشاندهنده نگرش بیش از حد اعتماد به هوش مصنوعی بود.
نتایج همچنین نشان داد که، در حالی که هیچ یک از انواع عذرخواهی اعتماد را به طور کامل بازیابی نکرد، عذرخواهی بدون اعتراف به دروغ - صرفاً بیان "متاسفم" - از نظر آماری از سایر پاسخها در ترمیم اعتماد بهتر عمل کرد.
راجرز گفت که این نگرانکننده و مشکلساز بود، زیرا عذرخواهی که دروغگویی را نمیپذیرد، از تصورات پیشفرضشدهای سوءاستفاده میکند که هر گونه اطلاعات نادرست دادهشده توسط یک ربات، یک خطای سیستمی است تا یک دروغ عمدی.
وبر گفت: «یک نکته کلیدی این است که برای اینکه مردم بفهمند که یک ربات آنها را فریب داده است، باید صریحاً به آنها گفته شود. مردم هنوز درک نکردهاند که رباتها قادر به فریب هستند. به همین دلیل است که عذرخواهی که دروغگویی را قبول نمیکند، بهترین راه برای ترمیم اعتماد به سیستم است. از ربات ها در تحقیقات بسیاری امرزوه استفاده می شود من جمله ساخت دست رباتیکی که توانایی تشخیص اشکال را با یک لمس و یا ساخت سگ رباتیکی برای بازی فوتبال و همچنین عینک های مجهز به هوش مصنوعیو... در واقع هوش مصنوعی و ربات ها در اینده ای نه چندان دور بسیار از کار ها و تحقیقات را به خود اختصاص می دهند.
ثانیاً، نتایج نشان داد که برای آن دسته از شرکتکنندگانی که متوجه شدند در عذرخواهی به آنها دروغ گفته شده است، بهترین استراتژی برای ترمیم اعتماد این بود که ربات توضیح دهد که چرا دروغ گفته است.
اینده رباتیک
The future of robotics
تحقیقات راجرز و وبر استدلال میکند که کاربران متوسط فناوری باید درک کنند که فریب رباتیک واقعی است و همیشه یک احتمال است.
وبر میگوید: «اگر همیشه نگران آیندهای مانند ترمیناتور با هوش مصنوعی باشیم، نمیتوانیم هوش مصنوعی را خیلی راحت در جامعه بپذیریم و ادغام کنیم.» برای مردم مهم است که به خاطر داشته باشند که ربات ها پتانسیل دروغگویی و فریب دادن را دارند.و اینکه چگونه بعد دروغ گفتن ربات اعتماد کنند.
به گفته راجرز، طراحان و فنآورانی که سیستمهای هوش مصنوعی را ایجاد میکنند، ممکن است مجبور باشند انتخاب کنند که آیا میخواهند سیستم آنها قابلیت فریب را داشته باشد و باید پیامدهای انتخاب طراحی خود را درک کنند.
او گفت: "ما هنوز اطلاعات کمی در مورد فریب هوش مصنوعی داریم، اما می دانیم که دروغ همیشه بد نیست و گفتن حقیقت همیشه خوب نیست." "پس چگونه میتوان قانونی وضع کرد که به اندازه کافی آگاهانه باشد تا نوآوری را خفه نکند، اما بتواند از مردم به روشهای آگاهانه محافظت کند؟"
هدف راجرز ایجاد یک سیستم روباتیک است که بتواند یاد بگیرد که چه زمانی باید و چه زمانی نباید دروغ بگوید هنگام کار با تیم های انسانی است . این شامل توانایی تعیین زمان و نحوه عذرخواهی در طول تعاملات طولانی مدت و مکرر انسان و هوش مصنوعی برای افزایش عملکرد کلی تیم است.
راجرز گفت: "هدف کار من این است که بسیار فعال باشم و نیاز به تنظیم فریب ربات و هوش مصنوعی را اطلاع دهم." اما اگر مشکل را درک نکنیم، نمیتوانیم این کار را انجام دهیم.»
دیدگاه و پرسش
شش مقاله اخیر
دوره های برنامه نویسی برگزیده
790000 تومان
325000 تومان
845000 تومان
98000 تومان
100000 تومان
150000 تومان
مقالات برگزیده
مقالات مرتبط
دوره های برنامه نویسی جدید
برنامه نویسی وب، طراحی سایت از مقدماتی تا پیشرفته ( پروژه محور)
67
(دانشجو)3.3
( 8 نظر )