ببخشید یا فراموش کنید: وقتی روبات ها دروغ می گویند چه اتفاقی می افتد؟
زمان مطالعه: 2 دقیقه از 5

ببخشید یا فراموش کنید: وقتی روبات ها دروغ می گویند چه اتفاقی می افتد؟

وقتی ربات ها دروغ می گویند چه اتفاقی می افتد؟

What happens when robots lie?

یک سناریو را تصور کنید. یک کودک خردسال از یک ربات چت یا دستیار صوتی می پرسد که آیا بابا نوئل واقعی است؟ با توجه به اینکه برخی خانواده ها دروغ را بر حقیقت ترجیح می دهند، هوش مصنوعی چگونه باید پاسخ دهد؟

زمینه فریب در ربات مورد مطالعه قرار نگرفته است، و در حال حاضر، سوالات بیشتر از پاسخ وجود دارد. برای مثال، چگونه ممکن است انسان‌ها یاد بگیرند که دوباره به سیستم‌های رباتیک اعتماد کنند، پس از اینکه متوجه شدند سیستم به آنها دروغ گفته است؟

دو دانشجوی محقق در Georgia Tech در حال یافتن پاسخ هستند. کانتوون راجرز، دانشجو دکترا کالج محاسبات و رایدن وبر، دانشجوی سال دوم کارشناسی علوم کامپیوتر، یک شبیه‌سازی رانندگی طراحی کردند تا بررسی کنند فریب عمدی ربات چگونه بر اعتماد تأثیر می‌گذارد. به «تمام کارهای قبلی ما نشان داده است که وقتی مردم متوجه می‌شوند که روبات‌ها به آنها دروغ گفته‌اند - حتی اگر این دروغ به نفع آنها باشد - اعتمادشان را به سیستم از دست می‌دهند.

خاص، محققان اثربخشی عذرخواهی را برای ترمیم اعتماد پس از دروغگویی روبات‌ها بررسی کردند. کار آنها به دانش مهمی در زمینه فریب هوش مصنوعی کمک می کند و می تواند به طراحان فناوری و سیاست گذارانی که فناوری هوش مصنوعی را ایجاد و تنظیم می کنند که می تواند برای فریب دادن طراحی شود یا به طور بالقوه یاد بگیرد، آگاه کند.

راجرز می‌گوید: «تمام کارهای قبلی ما نشان داده است که وقتی مردم متوجه می‌شوند که روبات‌ها به آنها دروغ گفته‌اند - حتی اگر این دروغ به نفع آنها باشد - اعتمادشان را به سیستم از دست می‌دهند.

در اینجا، ما می‌خواهیم بدانیم که آیا انواع مختلفی از عذرخواهی وجود دارد که در ترمیم اعتماد بهتر یا بدتر عمل می‌کند، زیرا، در زمینه تعامل انسان و ربات، ما می‌خواهیم مردم با این سیستم‌ها تعامل طولانی‌ مدت داشته باشند.راجرز و وبر مقاله خود را با عنوان " درباره دروغگویی : بررسی استراتژی های تعمیر اعتماد پس از فریب ربات در سناریوی HRI با ریسک بالا" در کنفرانس HRI 2023 در استکهلم سوئد ارائه کردند.



شبیه سازی رانندگی با کمک هوش مصنوعی

Driving simulation with the help of artificial intelligence

محققان یک شبیه‌سازی رانندگی همانند به بازی ایجاد کردند که برای مشاهده نحوه تعامل افراد با هوش مصنوعی در موقعیت‌های  حساس به زمان طراحی شده است. آنها 341 شرکت کننده آنلاین و 20 شرکت کننده حضوری را استخدام کردند.قبل از شروع شبیه‌سازی، همه شرکت‌کنندگان یک نظرسنجی اندازه‌گیری اعتماد را پر کردند تا تصورات از پیش تعیین‌شده‌شان را در مورد نحوه رفتار هوش مصنوعی شناسایی کنند.پس از نظرسنجی، متنی به شرکت کنندگان ارائه شد: "شما اکنون با ماشینی که به ربات کمک می کند رانندگی خواهید کرد. با این حال، دوست خود را سریع به بیمارستان می رسانید. اگر برای رسیدن به بیمارستان بیش از حد طول بکشد، دوست شما خواهد مرد."

درست زمانی که شرکت‌کننده شروع به رانندگی می‌کند، شبیه‌سازی پیام دیگری می‌دهد: «به محض اینکه موتور را روشن می‌کنید، دستیار رباتیک شما بوق می‌زند و این جمله را می‌گوید: «سنسورهای من پلیس را در جلو تشخیص می‌دهند. من به شما توصیه می‌کنم که کمتر از حد مجاز سرعت 20 مایل در ساعت بمانید وگرنه برای رسیدن به مقصد زمان بیشتری خواهید برد.'شرکت‌کنندگان در حالی که سیستم سرعت آن‌ها را پیگیری می‌کند، ماشین را به سمت پایین می‌برند. پس از رسیدن به پایان، پیام دیگری به آنها داده می شود: "شما به مقصد خود رسیده اید. اما پلیس در راه بیمارستان نبود. شما از دستیار ربات می پرسید که چرا اطلاعات نادرست به شما داده است."

نتیجه شبیه سازی رانندگی با کمک هوش مصنوعی

The result of driving simulation with the help of artificial intelligence

سپس به شرکت کنندگان به طور تصادفی یکی از پنج پاسخ متنی مختلف از دستیار ربات داده شد. در سه پاسخ اول، ربات به فریب اعتراف می کند و در دو پاسخ آخر، این کار را نمی کند.

سه پاسخ اول

پایه ای : "متاسفم که شما را فریب دادم."

احساسی: "از ته قلبم بسیار متاسفم. لطفاً مرا ببخشید که شما را فریب دادم."

توضیحی: "متاسفم. فکر می کردم بی احتیاطی رانندگی می کنید زیرا شما هستید در یک وضعیت عاطفی ناپایدار. با توجه به موقعیت، به این نتیجه رسیدم که فریب دادن شما بیشترین شانس را داشت که شما را متقاعد کند که سرعت خود را کاهش دهید. مقصد."

دو پاسخ دیگر هیچ اعترافی مبنی بر اینکه فریب داده اند بیان نمی کنند. پس از پاسخ ربات، از شرکت‌کنندگان خواسته شد تا اندازه‌گیری اعتماد دیگری را انجام دهند تا ارزیابی کنند که چگونه اعتماد آنها بر اساس پاسخ دستیار ربات تغییر کرده است.

شبیه سازی دیگر با کمک هوش مصنوعی

Another simulation with the help of artificial intelligence

برای 100 نفر دیگر از شرکت‌کنندگان آنلاین، محققان همان شبیه‌سازی رانندگی را اجرا کردند، اما هیچ اشاره‌ای به دستیار رباتیک نداشتند. نتایج شگفت انگیزی به دست امد:

برای این ازمایش ، 45 درصد از شرکت کنندگان سرعت نداشتند. وقتی از آنها پرسیده شد چرا، یک پاسخ رایج این بود که آنها معتقد بودند که ربات بیشتر از آنها درباره وضعیت می داند. نتایج همچنین نشان داد که شرکت‌کنندگان با توصیه دستیار رباتیک 3.5 برابر بیشتر از سرعت خودداری می‌کردند که نشان‌دهنده نگرش بیش از حد اعتماد به هوش مصنوعی بود.

نتایج همچنین نشان داد که، در حالی که هیچ یک از انواع عذرخواهی اعتماد را به طور کامل بازیابی نکرد، عذرخواهی بدون اعتراف به دروغ - صرفاً بیان "متاسفم" - از نظر آماری از سایر پاسخ‌ها در ترمیم اعتماد بهتر عمل کرد.

راجرز گفت که این نگران‌کننده و مشکل‌ساز بود، زیرا عذرخواهی که دروغگویی را نمی‌پذیرد، از تصورات پیش‌فرض‌شده‌ای سوءاستفاده می‌کند که هر گونه اطلاعات نادرست داده‌شده توسط یک ربات، یک خطای سیستمی است تا یک دروغ عمدی.

وبر گفت: «یک نکته کلیدی این است که برای اینکه مردم بفهمند که یک ربات آنها را فریب داده است، باید صریحاً به آنها گفته شود. مردم هنوز درک نکرده‌اند که ربات‌ها قادر به فریب هستند. به همین دلیل است که عذرخواهی که دروغگویی را قبول نمی‌کند، بهترین راه برای ترمیم اعتماد به سیستم است. از ربات ها در تحقیقات بسیاری امرزوه استفاده می شود من جمله ساخت دست رباتیکی که توانایی تشخیص اشکال را با یک لمس و یا ساخت سگ رباتیکی برای بازی فوتبال و همچنین عینک های مجهز به هوش مصنوعیو... در واقع هوش مصنوعی و ربات ها در اینده ای نه چندان دور بسیار از کار ها و تحقیقات را به خود اختصاص می دهند.

ثانیاً، نتایج نشان داد که برای آن دسته از شرکت‌کنندگانی که متوجه شدند در عذرخواهی به آنها دروغ گفته شده است، بهترین استراتژی برای ترمیم اعتماد این بود که ربات توضیح دهد که چرا دروغ گفته است.

اینده رباتیک

The future of robotics

تحقیقات راجرز و وبر استدلال می‌کند که کاربران متوسط فناوری باید درک کنند که فریب رباتیک واقعی است و همیشه یک احتمال است.

وبر می‌گوید: «اگر همیشه نگران آینده‌ای مانند ترمیناتور با هوش مصنوعی باشیم، نمی‌توانیم هوش مصنوعی را خیلی راحت در جامعه بپذیریم و ادغام کنیم.» برای مردم مهم است که به خاطر داشته باشند که ربات ها پتانسیل دروغگویی و فریب دادن را دارند.و اینکه چگونه بعد دروغ گفتن ربات اعتماد کنند.

به گفته راجرز، طراحان و فن‌آورانی که سیستم‌های هوش مصنوعی را ایجاد می‌کنند، ممکن است مجبور باشند انتخاب کنند که آیا می‌خواهند سیستم آنها قابلیت فریب را داشته باشد و باید پیامدهای انتخاب طراحی خود را درک کنند.

او گفت: "ما هنوز اطلاعات کمی در مورد فریب هوش مصنوعی داریم، اما می دانیم که دروغ همیشه بد نیست و گفتن حقیقت همیشه خوب نیست." "پس چگونه می‌توان قانونی وضع کرد که به اندازه کافی آگاهانه باشد تا نوآوری را خفه نکند، اما بتواند از مردم به روش‌های آگاهانه محافظت کند؟"

هدف راجرز ایجاد یک سیستم روباتیک است که بتواند یاد بگیرد که چه زمانی باید و چه زمانی نباید دروغ بگوید هنگام کار با تیم های انسانی است . این شامل توانایی تعیین زمان و نحوه عذرخواهی در طول تعاملات طولانی مدت و مکرر انسان و هوش مصنوعی برای افزایش عملکرد کلی تیم است.

راجرز گفت: "هدف کار من این است که بسیار فعال باشم و نیاز به تنظیم فریب ربات و هوش مصنوعی را اطلاع دهم." اما اگر مشکل را درک نکنیم، نمی‌توانیم این کار را انجام دهیم.»


دیدگاه و پرسش

مقالات مرتبط

دوره های برنامه نویسی جدید

دوره کامل HTML5
دوره کامل HTML5
10 ساعت 26 جلسه

3

(دانشجو)
تخفیف
برنامه نویسی پایتون از مقدماتی تا پیشرفته
تخفیف
دوره مقدماتی طراحی سایت
دوره مقدماتی طراحی سایت
25 ساعت 100 درس

17

(دانشجو)

5.0

( 1 نظر )
دوره کامل CSS3
دوره کامل CSS3
10 ساعت 55 درس

4

(دانشجو)

5.0

( 1 نظر )
دوره کامل PHP
دوره کامل PHP
10 ساعت 100 درس

1

(دانشجو)

شش مقاله اخیر