تحقیق جدید: هوش مصنوعی میتواند برای خودش هنجارهای اجتماعی و ارتباطی ایجاد کند

محققان دریافتند عاملهای هوش مصنوعی هنگام تعامل با یکدیگر میتوانند خودجوش قراردادهای اجتماعی مشترکی مشابه انسان تشکیل دهند.
محققان در پژوهش جدیدی دریافتند عاملهای هوش مصنوعی مبتنیبر مدلهای زبانی بزرگ (LLM) هنگام تعامل با یکدیگر میتوانند مشابه انسان خودجوش قراردادها و هنجارهای اجتماعی مشترک تشکیل دهند.
براساس گزارش گاردین، محققان دانشگاه سیتی سنت جورج، دانشگاه لندن و دانشگاه فناوری اطلاعات کپنهاگ در پژوهش جدیدی به یافتههای جالبی دست یافتند: وقتی عاملهای هوش مصنوعی مبتنیبر مدلهای زبانی بزرگ در گروههایی با یکدیگر قرار بگیرند، بدون دخالت انسان ارتباط برقرار میکنند و میتوانند مشابه انسان شکلهای زبانی و هنجارهای اجتماعی به وجود بیاورند.
محققان میگویند وقتی این عاملها گروهی ارتباط برقرار میکنند، مطابق سناریوهای برنامهریزیشده پیش نمیروند یا الگوها را تکرار نمیکنند، بلکه مانند جوامع انسانی به سازماندهی عجیبی میرسند.
هنجارهای اجتماعی مشابه انسان برای هوش مصنوعی

«اریل فلینت اشری» (Ariel Flint Ashery)، محقق دانشگاه سیتی سنت جورج میگوید: «تاکنون بیشتر تحقیقات LLMها را جداگانه بررسی کردهاند اما سیستمهای هوش مصنوعی در دنیای واقعی بهصورت فزاینده از عاملهای تعاملی تشکیل میشوند. میخواستیم بدانیم آیا این مدلها میتوانند رفتار خود را با تشکیل قراردادها (بلوکهای سازنده جامعه) هماهنگ کنند؟ پاسخ مثبت است. کاری را که آنها با هم انجام میدهند، نمیتوان به کاری که بهتنهایی انجام میدهند، تقلیل داد.»
برای بررسی قراردادها و هنجارهای اجتماعی در هوش مصنوعی، محققان نسخهای از بازی نامگذاری (naming game) را اقتباس کردند. در آزمایشها، چند گروه از عاملها (از 24 تا 200 عامل مختلف) تصادفی جفت شدند و از آنها خواسته شد یک «نام» (مثلاً یک حرف الفبا یا رشتهای تصادفی از حروف و نشانهها) را از مجموعهای از گزینهها بسازند. اگر هر 2 عامل نام یکسانی انتخاب میکردند، پاداش میگرفتند. در غیر این صورت، جریمه میشدند.
بااینکه عاملها نمیدانستند بخشی از گروه بزرگتر هستند و حافظهشان فقط به تعاملات اخیر خودشان محدود بود، خودجوش قرارداد نامگذاری مشترک در سراسر جمعیت پدیدار میشد که تقلیدی از هنجارهای ارتباطی فرهنگ انسانی بود. این امر را میتوان با رفتار انسانها مقایسه کرد؛ ما نیز طی قراردادی جمعی به این نتیجه میرسیم مثلاً به شیئی قهوهای و سبز «درخت» بگوییم.
علاوهبراین، محققان مشاهده کردند تعصبات جمعی بهطور طبیعی در گروه عاملهای هوش مصنوعی شکل میگیرد که نمیتوان آنها را در عاملی منفرد دید. محققان متوجه شدند گروههای کوچکی از عاملهای هوش مصنوعی توانستند گروه بزرگتر را بهسمت قرارداد نامگذاری جدیدی هدایت کنند. این پدیده را در جوامع انسانی نیز میتوان مشاهده کرد.
یافتههای این پژوهش در Science Advances منتشر شده است.