تحقیق جدید: هوش مصنوعی می‌تواند برای خودش هنجارهای اجتماعی و ارتباطی ایجاد کند

تحقیق جدید: هوش مصنوعی می‌تواند برای خودش هنجارهای اجتماعی و ارتباطی ایجاد کند

 محققان دریافتند عامل‌های هوش مصنوعی هنگام تعامل با یکدیگر می‌توانند خودجوش قراردادهای اجتماعی مشترکی مشابه انسان تشکیل دهند.

محققان در پژوهش جدیدی دریافتند عامل‌های هوش مصنوعی مبتنی‌بر مدل‌های زبانی بزرگ (LLM) هنگام تعامل با یکدیگر می‌توانند مشابه انسان خودجوش قراردادها و هنجارهای اجتماعی مشترک تشکیل دهند.

براساس گزارش گاردین، محققان دانشگاه سیتی سنت جورج، دانشگاه لندن و دانشگاه فناوری اطلاعات کپنهاگ در پژوهش جدیدی به یافته‌های جالبی دست یافتند: وقتی عامل‌های هوش مصنوعی مبتنی‌بر مدل‌های زبانی بزرگ در گروه‌هایی با یکدیگر قرار بگیرند، بدون دخالت انسان ارتباط برقرار می‌کنند و می‌توانند مشابه انسان شکل‌های زبانی و هنجارهای اجتماعی به‌ وجود بیاورند.

محققان می‌گویند وقتی این عامل‌ها گروهی ارتباط برقرار می‌کنند، مطابق سناریوهای برنامه‌ریزی‌شده پیش نمی‌روند یا الگوها را تکرار نمی‌کنند، بلکه مانند جوامع انسانی به سازمان‌دهی عجیبی می‌رسند.

هنجارهای اجتماعی مشابه انسان برای هوش مصنوعی

هنجارهای اجتماعی مشابه انسان در هوش مصنوعی

«اریل فلینت اشری» (Ariel Flint Ashery)، محقق دانشگاه سیتی سنت جورج می‌گوید: «تاکنون بیشتر تحقیقات LLMها را جداگانه بررسی کرده‌اند اما سیستم‌های هوش مصنوعی در دنیای واقعی به‌صورت فزاینده از عامل‌های تعاملی تشکیل می‌شوند. می‌خواستیم بدانیم آیا این مدل‌ها می‌توانند رفتار خود را با تشکیل قراردادها (بلوک‌های سازنده جامعه) هماهنگ کنند؟ پاسخ مثبت است. کاری را که آنها با هم انجام می‌دهند، نمی‌توان به کاری که به‌تنهایی انجام می‌دهند، تقلیل داد.»

برای بررسی قراردادها و هنجارهای اجتماعی در هوش مصنوعی، محققان نسخه‌ای از بازی نام‌گذاری (naming game) را اقتباس کردند. در آزمایش‌ها، چند گروه از عامل‌ها (از 24 تا 200 عامل مختلف) تصادفی جفت شدند و از آنها خواسته شد یک «نام» (مثلاً یک حرف الفبا یا رشته‌ای تصادفی از حروف و نشانه‌ها) را از مجموعه‌ای از گزینه‌ها بسازند. اگر هر 2 عامل نام یکسانی انتخاب می‌کردند، پاداش می‌گرفتند. در غیر این صورت، جریمه می‌شدند.

بااینکه عامل‌ها نمی‌دانستند بخشی از گروه بزرگ‌تر هستند و حافظه‌شان فقط به تعاملات اخیر خودشان محدود بود، خودجوش قرارداد نامگذاری مشترک در سراسر جمعیت پدیدار می‌شد که تقلیدی از هنجارهای ارتباطی فرهنگ انسانی بود. این امر را می‌توان با رفتار انسان‌ها مقایسه کرد؛ ما نیز طی قراردادی جمعی به این نتیجه می‌رسیم مثلاً به شی‌ئی قهوه‌ای و سبز «درخت» بگوییم.

علاوه‌براین، محققان مشاهده کردند تعصبات جمعی به‌طور طبیعی در گروه عامل‌های هوش مصنوعی شکل می‌گیرد که نمی‌توان آنها را در عاملی منفرد دید. محققان متوجه شدند گروه‌های کوچکی از عامل‌های هوش مصنوعی توانستند گروه بزرگ‌تر را به‌سمت قرارداد نامگذاری جدیدی هدایت کنند. این پدیده را در جوامع انسانی نیز می‌توان مشاهده کرد.

یافته‌های این پژوهش در Science Advances منتشر شده است.

برچسب
 

 منبع خبر

قیمت روز طلا، سکه و ارز

جدیدترین ها