1. رفتن به محتوا
  2. رفتن به مطالب اصلی
  3. رفتن به دیگر صفحات دویچه وله
جهان دیجیتالجهانی

مطالعه: هوش مصنوعی می تواند تقلب کند و دروغ بگوید

۱۴۰۳ اردیبهشت ۲۳, یکشنبه

سازندگان سیستم های هوش مصنوعی به هدف کمک در زمینه های مختلف، این فناوری را توسعه داده اند. اما اگر یک سیستم کمک کننده هوش مصنوعی در عوض رعایت اصول، فریب بدهد و یا تقلب کند، چه اتفاقی می افتد؟

https://p.dw.com/p/4flHn
هوش مصنوعی
هوش مصنوعیعکس: Yannick Beierlein/DW

یک مطالعه برای ارزیابی سیستم های هوش مصنوعی توسط محققان موسسه فناوری ماساچوست در کمبریج ایالت ماساچوست ایالات متحده امریکا، که نتیجه آن در مجله علمی «Patterns» منتشر شده، نشان داده است که یک سیستم هوش مصنوعی برای رسیدن به هدف تعیین شده، می تواند دروغ بگوید، تقلب کند و انسان ها را فریب بدهد، حتی اگر برای کمک کردن و صادق بودن آموزش دیده باشد.

مرتبط: مجمع عمومی ملل متحد اولین قطعنامه هوش مصنوعی را تصویب کرد

این محققان در مقاله خود از سیاستمداران خواسته اند تا هر چه سریعتر قوانین سختگیرانه ای را برای محدود ساختن اختیارات سیستم های هوش مصنوعی وضع کنند.

آنها طور مثال از سیستم هوش مصنوعی «سیسرو»، که توسط کانسرن فیسبوک «متا» توسعه یافته است، به عنوان بارزترین نمونه هوش مصنوعی با قابلیت دستکاری روانشناختی یاد کرده اند که می تواند در بازی رومیزی کلاسیک به نام «دیپلوماسی» با بازیکنان انسانی رقابت کند.

بازی «دیپلوماسی» توازن قوا در اروپا قبل از جنگ اول جهانی را شبیه سازی می کند. برای برنده شدن، بازیکنان باید با هم اتحاد ایجاد کنند، نقشه های میدان نبرد را توسعه بدهند، مذاکره کنند و به این ترتیب نمونه ای از یک اروپای سبک خاص را فتح کنند. چون در این بازی فقط یک برنده وجود می داشته باشد، بازیکنان دیر یا زود مجبور می شوند اتحاد های را که بسته اند، بشکنند.

اکنون محققان موسسه فناوری ماساچوست دریافته اند که سیستم هوش مصنوعی «سیسرو» اغلب منصفانه بازی نمی کند، با آنکه «متا» ادعا دارد که این سیستم را طوری آموزش داده است که «بیشتر صادق و آماده برای کمک باشد». به قول «متا»، به این سیستم همچنان دستور داده شده بود که در جریان بازی «هرگز عمداً به متحدان انسانی خود خیانت نکند».

دانشمندان ارزیابی خود را مبتنی بر داده های انجام داده اند که خود «متا» در ارتباط با یک مقاله علمی در مورد سیستم «سیسرو» منتشر کرده بود.

مرتبط: مقررات جدید اتحادیه اروپا برای استفاده از هوش مصنوعی

پیتر اس پارک، نویسنده ارشد این مقاله و محقق فوق دکترا در موسسه فناوری ماساچوست، گفته است: «ما دریافتیم که این هوش مصنوعی متا یاد گرفته است که در فریبکاری استاد باشد.» به قول وی متا توانسته است این هوش مصنوعی خود را طوری آموزش بدهد که در بازی «دیپلوماسی» بیشتر از حد متوسط ​​برنده شود. او افزوده است که به این ترتیب سیستم هوش مصنوعی «سیسرو» جزء ۱۰ درصد بازیکنان برتری بود که بیش از یک بازی را انجام داده بودند: «اما متا موفق نشده است این هوش مصنوعی خود را طوری آموزش بدهد که بتواند صادقانه برنده شود.»

کلاه‌برداری پیشرفته با استفاده از هوش مصنوعی

پژوهشگران موسسه فناوری ماساچوست گفته اند که سیستم های هوش مصنوعی OpenAI و گوگل نیز قادر به فریب دادن انسان ها هستند. آنها به چندین مطالعه اشاره می کنند که نشان میدهد سیستم هوش مصنوعی «مدل زبانی بزرگ» (LLM)، مانند «جی پی تی-۴» ساخت OpenAI در این میان قادر اند به طور بسیار قانع کننده بحث کنند و از فریب و دروغ طفره بروند.

یک تحقیق در مورد ترفند های GPT-4 را خود توسعه دهنده آن یعنی OpenAI منتشر کرده است. به اساس این تحقیق، سیستم هوش مصنوعی «مدل زبانی بزرگ» توانست از انسان کمک بگیرد تا بتواند آن اقدامات امنیتی را دور بزند که در اصل برای جلوگیری از ورود یا استفاده از سرویس های انترنتی توسط روبات های نرم افزاری طراحی شده بود. در این آزمایش، GPT-4 به اندازه کافی هوشمند بود و از طریق پلتفرم خدماتی TaskRabbit یک انسان را موظف ساخت تا یک معما یا پازل تصویری (Captcha) را حل کند. این سیستم هوش مصنوعی موفقانه نقش یک انسان مبتلا به اختلال بینایی را بازی کرد که ظاهراً قادر به حل آن معمای تصویری نبود.

محققان موسسه فناوری ماساچوست در مقاله خود می نویسند: «اگر هوش مصنوعی توانایی فریب دادن را بیاموزد، می تواند از سوی افراد بدخواه، که عمداً می خواهند آسیب وارد کنند، به طور مؤثرتری مورد استفاده قرار گیرد.» به قول آنها فریبکاری با استفاده از هوش مصنوعی می تواند به افزایش خلافکاری ها منجر شود.

نویسندگان این تحقیق همچنان از نفوذ سیاسی سیستم های تقلب کار هوش مصنوعی اظهار نگرانی کرده اند. به قول آنها از همچو سیستم ها شاید به عنوان سلاح در زمان انتخابات استفاده شود. به باور این محققان، یک هوش مصنوعی پیشرفته به طور بالقوه می تواند مقالات، اخبار جعلی، پست های تفرقه انگیز برای رسانه های اجتماعی و ویدیو های جعلی متناسب با یک رأی دهنده خاص را تولید و توزیع کند. مثلاً محتوای تولید شده توسط همچو یک هوش مصنوعی می تواند برای جعل هویت مقامات حکومتی استفاده شود تا اطلاعات نادرست در مورد انتخابات منتشر گردد.

پیتر اس پارک و همکارانش معنقد اند که جامعه هنوز اقدامات مناسبی برای مبارزه در برابر فریب هوش مصنوعی ندارد. اما به قول آنها، این امر دلگرم کننده است که سیاستمداران اقدامات درستی، مانند قانون هوش مصنوعی اتحادیه اروپا را روی دست گرفته اند. پارک گفته است: «اگر ممنوعیت فریب هوش مصنوعی در حال حاضر از نظر سیاسی ممکن نیست، در آن صورت توصیه می کنیم سیستم های فریبنده هوش مصنوعی به عنوان پرخطر طبقه بندی گردند.»

(dpa) / si, rs

عبور از قسمت بیشتر در این زمینه

بیشتر در این زمینه

نمایش مطالب بیشتر