با اصطلاحات رایج هوش مصنوعی آشنا شوید

 با اصطلاحات رایج هوش مصنوعی آشنا شوید
  «یادگیری انتقالی»(Transfer learning) روشی است که در آن از یک مدل هوش مصنوعی پیشتر آموزش‌دیده، به عنوان نقطه آغاز توسعه یک مدل جدید برای یک کار متفاوت اما معمولا مرتبط استفاده می‌شود که امکان استفاده مجدد از دانش به‌دست‌آمده در چرخه‌های آموزش پیشین را فراهم می‌کند.

این گزارش یک راهنمای ساده برای اصطلاحات رایج هوش مصنوعی است که شما را بیشتر با این فناوری آشنا می‌کند.

به گزارش ایسنا، هوش مصنوعی یک جهان عمیق و پیچیده است. دانشمندانی که در این زمینه کار می‌کنند، اغلب برای توضیح دادن کار خود به اصطلاحات تخصصی و زبان‌های حرفه‌ای متکی هستند. در نتیجه، اغلب از این اصطلاحات فنی برای صحبت کردن درباره هوش مصنوعی استفاده می‌شود. به همین دلیل، داشتن یک واژه‌نامه با تعریف برخی از مهم‌ترین واژه‌ها و عبارت‌ها که در مقاله‌های هوش مصنوعی استفاده می‌شوند، سودمند خواهد بود.

به نقل از تک کرانچ، این واژه‌نامه باید دائما به‌روزرسانی شود تا مطالب جدیدی را در بر بگیرد زیرا پژوهشگران همیشه روش‌های جدیدی را برای پیشبرد مرزهای هوش مصنوعی کشف می‌کنند و در عین حال، خطرات ایمنی این فناوری نوظهور را شناسایی می‌کنند.

هوش مصنوعی جامع

«هوش مصنوعی جامع»(AGI) یک اصطلاح مبهم است اما عموماً به نوعی هوش مصنوعی اشاره دارد که در بسیاری از وظایف - اگر نگوییم بیشتر آنها - از یک انسان معمولی توانمندتر است.

«سم آلتمن»(Sam Altman) مدیرعامل شرکت «اوپن‌ای‌آی»(OpenAI) اخیراً هوش مصنوعی جامع را به عنوان «معادل یک انسان متوسط ​​که می‌توانید به عنوان همکار استخدام کنید» توصیف کرد. منشور اوپن‌ای‌آی نیز هوش مصنوعی جامع را به عنوان «سیستم‌های بسیار خودمختاری که در ارزشمندترین کارهای اقتصادی از انسان‌ها بهتر عمل می‌کنند» تعریف می‌کند.

درک شرکت «دیپ‌مایند»(DeepMind) زیرمجموعه گوگل کمی با این دو تعریف متفاوت است. دیپ‌مایند، هوش مصنوعی جامع را به عنوان «هوش مصنوعی‌ که در بیشتر وظایف شناختی حداقل به اندازه انسان‌ها توانمند است» می‌بیند. اگر گیج شده‌اید، نگران نباشید زیرا متخصصانی که در خط مقدم پژوهش هوش مصنوعی هستند نیز همین احساس را دارند.

عامل هوش مصنوعی

«عامل هوش مصنوعی»(AI agent) به سیستمی اشاره دارد که از فناوری‌های هوش مصنوعی برای انجام دادن مجموعه‌ای از وظایف از طرف کابر استفاده می‌کند و کار آن فراتر از کارهایی مانند ثبت هزینه‌ها، رزرو بلیط یا میز در رستوران یا حتی نوشتن و نگهداری کد است که یک چت‌بات هوش مصنوعی ساده‌تر می‌تواند انجام دهد. با وجود این، بخش‌های متحرک زیادی در این فضای نوظهور وجود دارد.

بنابراین، عامل هوش مصنوعی ممکن است برای افراد گوناگون معانی متفاوتی داشته باشد. زیرساخت‌ها نیز هنوز در حال ساخت هستند تا قابلیت‌های پیش‌بینی‌شده خود را ارائه دهند اما مفهوم اساسی به معنای یک سیستم خودمختار است که امکان دارد از چندین سیستم هوش مصنوعی برای انجام دادن وظایف چندمرحله‌ای استفاده کند.

زنجیره فکر

مغز انسان می‌تواند بدون زیاد فکر کردن، به یک پرسش ساده مانند «کدام حیوان قد بلندتر است؛ زرافه یا گربه؟» پاسخ دهد اما در بسیاری از موارد، اغلب برای رسیدن به پاسخ درست به یک قلم و کاغذ نیاز دارید زیرا مراحل واسطه‌ای وجود دارد. به عنوان مثال، اگر یک کشاورز تعدادی مرغ و گاو دارد و آنها در مجموع ۴۰ سر و ۱۲۰ پا دارند، ممکن است لازم باشد یک معادله ساده بنویسید تا به پاسخ ۲۰ مرغ و ۲۰ گاو برسید.

در زمینه هوش مصنوعی، استدلال زنجیره‌ای برای مدل‌های زبانی بزرگ به معنای تجزیه یک مسئله به مراحل کوچک‌تر و میانی برای بهبود کیفیت نتیجه نهایی است. معمولا رسیدن به پاسخ، زمان بیشتری می‌برد اما احتمال صحیح بودن پاسخ به ویژه در زمینه منطق یا کدنویسی بیشتر است. مدل‌های استدلالی از مدل‌های زبانی بزرگ سنتی توسعه یافته‌اند و به لطف یادگیری تقویتی، برای «زنجیره فکر»(Chain of thought) بهینه شده‌اند.

یادگیری عمیق

«یادگیری عمیق»(Deep learning) زیرمجموعه‌ای از یادگیری ماشینی خودبهبودگر است که در آن الگوریتم‌های هوش مصنوعی با ساختار چندلایه «شبکه عصبی مصنوعی»(ANN) طراحی شده‌اند. این ویژگی به آنها امکان می‌دهد تا در مقایسه با سیستم‌های ساده‌تر مبتنی بر یادگیری ماشینی مانند مدل‌های خطی یا درخت‌های تصمیم‌گیری، همبستگی‌های پیچیده‌تری را ایجاد کنند. ساختار الگوریتم‌های یادگیری عمیق از مسیرهای به‌هم‌پیوسته نورون‌ها در مغز انسان الهام می‌گیرد.

مدل‌های هوش مصنوعی یادگیری عمیق قادر هستند خودشان ویژگی‌های مهم داده‌ها را شناسایی کنند، به جای این که به مهندسان انسان برای تعریف کردن این ویژگی‌ها نیاز داشته باشند. همچنین، این ساختار از الگوریتم‌هایی پشتیبانی می‌کند که می‌توانند از خطاها درس بگیرند و از طریق فرآیند تکرار و تنظیم، خروجی‌های خود را بهبود ببخشند. با وجود این، سیستم‌های یادگیری عمیق برای دستیابی به نتایج خوب به تعداد زیادی داده - میلیون‌ها داده یا بیشتر - نیاز دارند. همچنین، آموزش سیستم‌های یادگیری عمیق معمولاً در مقایسه با الگوریتم‌های ساده‌تر یادگیری ماشینی، زمان بیشتری می‌برد و به همین دلیل، هزینه‌های توسعه آنها معمولاً بیشتر است.

انتشار

«انتشار»(Diffusion) نوعی فناوری‌ است که در قلب بسیاری از مدل‌های هوش مصنوعی تولید متن، هنر و موسیقی قرار دارد. سیستم‌های انتشار با الهام از فیزیک، ساختار داده‌ها مانند عکس‌، موسیقی و مواردی از این دست را با افزودن نویز به آرامی تخریب می‌کنند تا زمانی که چیزی باقی نماند. انتشار در فیزیک، خودبه‌خودی و برگشت‌ناپذیر است. شکر پخش‌شده در قهوه را نمی‌توان به شکل مکعب بازگرداند اما سیستم‌های انتشار در هوش مصنوعی با هدف یادگیری نوعی فرآیند انتشار معکوس برای بازیابی داده‌های تخریب‌شده و به دست آوردن توانایی بازیابی داده‌ها از نویز طراحی شده‌اند.

تقطیر

«تقطیر»(Distillation) روشی است که برای استخراج دانش از یک مدل بزرگ هوش مصنوعی با مدل «آموزگار-دانش‌آموز» استفاده می‌شود. توسعه‌دهندگان، درخواست‌هایی را به مدل آموزگار می‌فرستند و خروجی‌ها را ثبت می‌کنند. پاسخ‌ها گاهی اوقات با یک مجموعه داده مقایسه می‌شوند تا میزان دقت آنها مورد بررسی قرار بگیرد. سپس، از این خروجی‌ها برای آموزش مدل دانش‌آموز استفاده می‌شود که برای نزدیک شدن به رفتار آموزگار آموزش دیده است.

از تقطیر می‌توان برای ایجاد یک مدل کوچک‌تر و کارآمدتر براساس یک مدل بزرگ‌تر با حداقل اتلاف استفاده کرد. احتمالاً به همین دلیل است که اوپن‌ای‌آی مدل «GPT-4 Turbo» - نسخه سریع‌تر GPT-4 - را توسعه داده است.

اگرچه همه شرکت‌های هوش مصنوعی از تقطیر داخلی استفاده می‌کنند اما ممکن است برخی از شرکت‌های هوش مصنوعی نیز از تقطیر داخلی آنها برای رسیدن به مدل‌های پیشرو استفاده کرده باشند. تقطیر از یک رقیب معمولا شرایط خدمات API هوش مصنوعی و چت‌بات‌ها را نقض می‌کند.

تنظیم دقیق

«تنظیم دقیق»(Fine-tuning) به آموزش بیشتر یک مدل هوش مصنوعی برای تنظیم عملکرد یک کار یا حوزه ویژه‌تر از چیزی که پیشتر نقطه کانونی آموزش آن بود، اشاره دارد و معمولاً با تغذیه داده‌های جدید و تخصصی یعنی وظیفه‌محور صورت می‌گیرد.

بسیاری از استارت‌آپ‌های هوش مصنوعی، مدل‌های زبانی بزرگ را به عنوان نقطه آغاز برای ساخت یک محصول تجاری در نظر می‌گیرند اما در عین حال به منظور افزایش کاربردپذیری آن برای یک بخش یا وظیفه مورد نظر، با تکمیل چرخه‌های آموزشی پیشین و تنظیم دقیق براساس دانش و تخصص خاص خود در آن حوزه رقابت می‌کنند.

شبکه‌ زایای دشمن‌گونه

«شبکه زایای دشمن‌گونه»(GAN) نوعی چارچوب یادگیری ماشینی است که زیربنای برخی از پیشرفت‌های مهم در حوزه هوش مصنوعی مولد برای تولید داده‌های واقع‌گرایانه به شمار می‌رود. شبکه‌های زایای دشمن‌گونه شامل استفاده از دو شبکه عصبی هستند که یکی از آنها با استفاده از داده‌های آموزشی خود، خروجی‌ تولید می‌کند و این خروجی برای ارزیابی به شبکه دیگر منتقل می‌شود. شبکه دوم، تفکیک‌کننده است. به این معنا که نقش یک مدل طبقه‌بندی‌کننده را در خروجی مولد ایفا می‌کند و آن را قادر می‌سازد تا به مرور زمان بهبود یابد.

ساختار شبکه زایای دشمن‌گونه به صورت یک رقابت تنظیم شده است و در آن دو شبکه طوری برنامه‌ریزی شده‌اند که تلاش کنند از یکدیگر پیشی بگیرند. شبکه مولد سعی دارد خروجی خود را از شبکه تفکیک‌کننده بگذراند؛ در حالی که شبکه تفکیک‌کننده در تلاش است تا داده‌های مصنوعی را تشخیص دهد. این رقابت ساختاریافته می‌تواند خروجی‌های هوش مصنوعی را بدون نیاز به مداخله اضافی انسان، واقعی‌تر کند. شبکه‌های زایای دشمن‌گونه برای کاربردهای محدودتر مانند تولید عکس‌ها یا ویدیوهای واقع‌گرایانه بهتر از هوش مصنوعی با هدف کلی عمل می‌کنند.

توهم

«توهم»(Hallucination) اصطلاح ترجیحی حوزه هوش مصنوعی برای مدل‌هایی است که چیزهایی را از خودشان در می‌آورند و به معنای واقعی کلمه، اطلاعاتی را تولید می‌کنند که نادرست هستند. بدیهی است که این یک مشکل بزرگ برای کیفیت هوش مصنوعی به شمار می‌رود.

توهمات، خروجی‌های هوش مصنوعی مولد را تولید می‌کنند که می‌توانند گمراه‌کننده باشند و حتی خطراتی را در زندگی واقعی به همراه بیاورند که پیامدهای خطرناکی دارند. برای مثال، به یک پرسش سلامت فکر کنید که توصیه‌های پزشکی مضری در پاسخ به آن ارائه می‌شوند. به همین دلیل است که اکنون در نوشته‌های کوچک بیشتر سیستم‌های هوش مصنوعی مولد به کاربران هشدار داده می‌شود که پاسخ‌های تولیدشده توسط هوش مصنوعی را تأیید کنند.؛اگرچه چنین مواردی از سلب مسئولیت‌ معمولاً بسیار کم‌اهمیت‌تر از اطلاعاتی هستند که با لمس یک دکمه ارائه می‌شوند.

استنتاج

«استنتاج»(Inference) فرآیند اجرای یک مدل هوش مصنوعی است. این فرآیند، مدل را برای پیش‌بینی یا نتیجه‌گیری از داده‌های پیشتر دیده‌شده آزاد می‌کند. استنتاج نمی‌تواند بدون آموزش رخ دهد. یک مدل باید الگوهای موجود در مجموعه‌ای از داده‌ها را یاد بگیرد تا بتواند به طور مؤثر از این داده‌های آموزشی برون‌یابی کند.

انواع گوناگونی از سخت‌افزارها می‌توانند استنتاج را انجام دهند؛ از پردازنده‌های تلفن همراه هوشمند گرفته تا پردازنده‌های گرافیکی قوی و شتاب‌دهنده‌های سفارشی هوش مصنوعی اما همه آنها نمی‌توانند مدل‌ها را به یک اندازه خوب اجرا کنند. مدل‌های بسیار بزرگ به زمان زیادی برای پیش‌بینی نیاز دارند. برای مثال، مدل اجراشده روی لپ‌تاپ در مقایسه با یک سرور فضای ابری با تراشه‌های هوش مصنوعی پیشرفته، بیشتر زمان می‌خواهد.

مدل زبانی بزرگ

«مدل‌های زبانی بزرگ»(LLMs) مدل‌های هوش مصنوعی هستند که توسط دستیاران محبوب هوش مصنوعی مانند «چت‌جی‌پی‌تی»(ChatGPT) شرکت اوپن‌ای‌آی، «کلود»(Claude) شرکت «آنتروپیک»(Anthropic)، «جمینای»(Gemini) گوگل، «لاما»(Llama) شرکت «متا»(Meta)، کوپایلوت»(Copilot) شرکت مایکروسافت یا «Le Chat» شرکت «میسترال ای‌آی»(Mistral AI) استفاده می‌شوند. وقتی با یک دستیار هوش مصنوعی چت می‌کنید، با یک مدل زبانی بزرگ تعامل دارید که درخواست شما را مستقیماً یا با کمک تجهیزات گوناگون موجود مانند مرورگرهای وب یا مفسرهای کد پردازش می‌کند.

دستیاران هوش مصنوعی و مدل‌های زبانی بزرگ می‌توانند نام‌های متفاوتی داشته باشند. برای مثال، «جی‌پی‌تی»(GPT) مدل زبانی بزرگ اوپن‌ای‌آی و چت‌جی‌پی‌تی محصول دستیار هوش مصنوعی آن است.

مدل‌های زبانی بزرگ، شبکه‌های عصبی عمیقی هستند که از میلیاردها پارامتر عددی ساخته شده‌اند و روابط بین واژه‌ها و عبارت‌ها را یاد می‌گیرند و نمایشی را از زبان و نوعی نقشه چندبعدی از واژه‌ها ایجاد می‌کنند.

شبکه عصبی

یک «شبکه عصبی»(neural network) به ساختار الگوریتمی چندلایه‌ای اشاره دارد که زیربنای یادگیری عمیق به شمار می‌رود و به طور گسترده‌تر، رونق محصولات هوش مصنوعی مولد پس از ظهور مدل‌های زبانی بزرگ است.

اگرچه ایده الهام گرفتن از مسیرهای به‌هم‌پیوسته مغز انسان به عنوان یک ساختار طراحی برای الگوریتم‌های پردازش داده به دهه ۱۹۴۰ میلادی بازمی‌گردد اما ظهور سخت‌افزار بسیار جدیدتر «واحدهای پردازش گرافیکی»(GPU)، قدرت واقعی این نظریه را آشکار کرد. این تراشه‌ها برای آموزش الگوریتم‌هایی با لایه‌های بسیار بیشتر از آنچه در دوره‌های پیشین ممکن بود، بسیار مناسب بودند و سیستم‌های هوش مصنوعی مبتنی بر شبکه عصبی را قادر ساختند تا در بسیاری از حوزه‌ها از جمله تشخیص صدا، مسیریابی خودکار و کشف دارو به عملکرد بسیار بهتری دست یابند.

آموزش

توسعه هوش مصنوعی مخصوص یادگیری ماشینی شامل فرآیندی است که به عنوان آموزش شناخته می‌شود. به عبارت ساده، به داده‌هایی اشاره دارد که به مدل داده می‌شوند تا بتواند از الگوها یاد بگیرد و خروجی‌های سودمند را تولید کند.

در این مرحله از هوش مصنوعی، مسائل ممکن است کمی فلسفی شوند زیرا پیش از آموزش، ساختار ریاضی که به عنوان نقطه آغاز توسعه یک سیستم یادگیری استفاده می‌شود، فقط مجموعه‌ای از لایه‌ها و اعداد تصادفی است. تنها از طریق آموزش است که مدل هوش مصنوعی واقعاً شکل می‌گیرد. این فرآیند اساسا پاسخ سیستم به ویژگی‌های موجود در داده‌هاست که آن را قادر می‌سازد تا خروجی‌ها را با هدف مورد نظر تطبیق دهد؛ خواه این هدف شناسایی تصویر گربه‌ها باشد و خواه تولید یک هایکو براساس تقاضا.

یادگیری انتقالی

«یادگیری انتقالی»(Transfer learning) روشی است که در آن از یک مدل هوش مصنوعی پیشتر آموزش‌دیده، به عنوان نقطه آغاز توسعه یک مدل جدید برای یک کار متفاوت اما معمولا مرتبط استفاده می‌شود که امکان استفاده مجدد از دانش به‌دست‌آمده در چرخه‌های آموزش پیشین را فراهم می‌کند.

یادگیری انتقالی می‌تواند با ایجاد میان‌بر در توسعه مدل، به صرفه‌جویی کمک کند. همچنین، این روش زمانی می‌تواند سودمند باشد که داده‌ها تا حدودی به وظیفه‌ مورد نظر مدل محدود باشند اما توجه به این نکته مهم است که این روش با محدودیت‌هایی همراه است. مدل‌هایی که برای دستیابی به قابلیت‌های عمومی به یادگیری انتقالی متکی هستند، احتمالاً برای عملکرد خوب در حوزه تمرکز خود به آموزش با داده‌های اضافی نیاز دارند.

 

 منبع خبر

قیمت روز طلا، سکه و ارز

جدیدترین ها