با عبارات اصلی حوزه هوش مصنوعی آشنا شوید

بهروز فیض
توسط:
0

 هوش مصنوعی دنیایی عمیق و پیچیده است. دانشمندانی که در این حوزه فعالیت می‌کنند، اغلب برای توضیح کارهای خود از اصطلاحات فنی و زبان تخصصی استفاده می‌کنند. در نتیجه، ما نیز ناچاریم هنگام پوشش اخبار صنعت هوش مصنوعی از این واژگان تخصصی استفاده کنیم. به همین دلیل تصمیم گرفتیم واژه‌نامه‌ای تهیه کنیم که تعاریف برخی از مهم‌ترین واژه‌ها و اصطلاحاتی را که در مقالات خود استفاده می‌کنیم، در بر گیرد.



ما این واژه‌نامه را به طور منظم به‌روزرسانی خواهیم کرد تا اصطلاحات جدیدی را که پژوهشگران با روش‌های نوین کشف می‌کنند و همچنین خطرات نوظهور مربوط به ایمنی هوش مصنوعی را شناسایی می‌کنند، به آن اضافه کنیم.


AGI (هوش عمومی مصنوعی)
هوش عمومی مصنوعی یا AGI اصطلاحی مبهم است، اما به طور کلی به هوش مصنوعی‌ای اطلاق می‌شود که در بسیاری (اگر نه اکثر) کارها از انسان معمولی توانمندتر است. سم آلتمن، مدیرعامل OpenAI، اخیراً AGI را معادل «یک انسان متوسط که می‌توان او را به‌عنوان همکار استخدام کرد» توصیف کرده است. منشور OpenAI نیز AGI را «سامانه‌هایی بسیار خودمختار که در اکثر کارهای اقتصادی ارزشمند از انسان‌ها بهتر عمل می‌کنند» تعریف کرده است. تعریف گوگل دیپ‌مایند کمی با این دو متفاوت است؛ این آزمایشگاه AGI را «هوش مصنوعی‌ای که دست‌کم در اکثر وظایف شناختی به اندازه انسان توانمند باشد» می‌داند. گیج‌کننده است؟ نگران نباشید — حتی کارشناسان پیشروی حوزه هوش مصنوعی هم در این زمینه اختلاف نظر دارند.


عامل هوش مصنوعی (AI Agent)
عامل هوش مصنوعی به ابزاری گفته می‌شود که با بهره‌گیری از فناوری‌های هوش مصنوعی مجموعه‌ای از وظایف را به نمایندگی از شما انجام می‌دهد — فراتر از آنچه یک چت‌بات ساده می‌تواند انجام دهد — مانند ثبت هزینه‌ها، رزرو بلیت یا میز در رستوران، یا حتی نوشتن و نگهداری کد. با این حال، همان‌طور که قبلاً هم توضیح داده‌ایم، این حوزه در حال شکل‌گیری است و اجزای مختلفی دارد، بنابراین ممکن است «عامل هوش مصنوعی» برای افراد مختلف معانی متفاوتی داشته باشد. زیرساخت‌های لازم برای تحقق کامل این ایده هنوز در حال توسعه است. اما مفهوم پایه به یک سیستم خودمختار اشاره دارد که ممکن است از چندین سامانه هوش مصنوعی برای انجام وظایف چندمرحله‌ای بهره بگیرد.


زنجیره تفکر (Chain of Thought)
در مواجهه با یک پرسش ساده، مغز انسان اغلب بدون تفکر زیاد پاسخ می‌دهد — مانند این‌که «کدام حیوان بلندتر است؟ زرافه یا گربه؟» اما در بسیاری موارد، نیاز به نوشتن مراحل میانی وجود دارد تا به پاسخ درست برسیم. مثلاً اگر یک کشاورز مرغ و گاو داشته باشد و مجموعاً ۴۰ سر و ۱۲۰ پا وجود داشته باشد، احتمالاً باید یک معادله ساده روی کاغذ بنویسید تا به پاسخ (۲۰ مرغ و ۲۰ گاو) برسید.

در زمینه هوش مصنوعی، «زنجیره تفکر» در مدل‌های زبانی بزرگ به معنای تجزیه یک مسئله به مراحل میانی کوچکتر است تا کیفیت پاسخ نهایی بهتر شود. این فرایند معمولاً زمان‌برتر است، اما احتمال درستی پاسخ را به ویژه در زمینه منطق یا برنامه‌نویسی افزایش می‌دهد. مدل‌های استدلالی از مدل‌های زبانی بزرگ سنتی توسعه یافته‌اند و با استفاده از یادگیری تقویتی برای تفکر زنجیره‌ای بهینه شده‌اند.



یادگیری عمیق (Deep Learning)

زیرمجموعه‌ای از یادگیری ماشین خودبه‌خود بهبوددهنده است که در آن الگوریتم‌های هوش مصنوعی با ساختاری چندلایه و شبکه عصبی مصنوعی (ANN) طراحی می‌شوند. این ساختار به آن‌ها اجازه می‌دهد روابط پیچیده‌تری را نسبت به سیستم‌های ساده‌تر یادگیری ماشین، مانند مدل‌های خطی یا درخت تصمیم، برقرار کنند. ساختار یادگیری عمیق از مسیرهای درهم‌تنیده نورون‌ها در مغز انسان الهام گرفته شده است.

مدل‌های هوش مصنوعی مبتنی بر یادگیری عمیق قادرند ویژگی‌های مهم را از داده‌ها خودشان شناسایی کنند، بدون اینکه نیاز باشد مهندسان انسانی این ویژگی‌ها را به‌صورت دستی تعریف کنند. این ساختار همچنین از الگوریتم‌هایی پشتیبانی می‌کند که می‌توانند از خطاها بیاموزند و از طریق تکرار و اصلاح، خروجی‌های خود را بهبود بخشند. با این حال، سیستم‌های یادگیری عمیق به حجم عظیمی از داده (میلیون‌ها نمونه یا بیشتر) نیاز دارند تا نتایج مطلوبی تولید کنند و معمولاً آموزش آن‌ها زمان‌برتر از الگوریتم‌های ساده‌تر است — بنابراین هزینه توسعه آن‌ها بالاتر است.


انتشار (Diffusion)

انتشار فناوری اصلی بسیاری از مدل‌های هوش مصنوعی تولیدکننده تصویر، موسیقی و متن است. این روش که از فیزیک الهام گرفته شده، به‌صورت تدریجی ساختار داده‌ها — مانند عکس‌ها، آهنگ‌ها و غیره — را با افزودن نویز از بین می‌برد تا جایی که هیچ چیز باقی نمی‌ماند. در فیزیک، انتشار فرایندی خودبه‌خود و غیرقابل بازگشت است — مثل حل شدن شکر در قهوه که دیگر نمی‌توان آن را به قالب مکعبی بازگرداند. اما سیستم‌های انتشار در هوش مصنوعی تلاش دارند نوعی «فرآیند معکوس انتشار» را یاد بگیرند تا داده‌های ازبین‌رفته را بازیابی کنند و توانایی بازسازی داده‌ها از دل نویز را به‌دست آورند.


تقطیر (Distillation)

تقطیر تکنیکی برای استخراج دانش از یک مدل بزرگ هوش مصنوعی از طریق یک مدل «معلم-دانش‌آموز» است. توسعه‌دهندگان پرسش‌هایی را به مدل معلم ارسال کرده و خروجی‌ها را ثبت می‌کنند. گاهی این پاسخ‌ها با یک مجموعه داده برای بررسی دقت‌شان مقایسه می‌شوند. سپس از این خروجی‌ها برای آموزش مدل دانش‌آموز استفاده می‌شود تا رفتاری مشابه مدل معلم داشته باشد.

تقطیر می‌تواند برای ایجاد مدلی کوچک‌تر و کارآمدتر بر اساس یک مدل بزرگ‌تر با حداقل از دست دادن اطلاعات استفاده شود. احتمالاً OpenAI از این روش برای توسعه GPT-4 Turbo، نسخه سریع‌تر GPT-4، استفاده کرده است.

در حالی که همه شرکت‌های هوش مصنوعی از تقطیر به‌صورت داخلی استفاده می‌کنند، برخی ممکن است از آن برای رسیدن به مدل‌های پیشرفته رقبا نیز استفاده کرده باشند — که در چنین مواردی معمولاً با شرایط استفاده از API و دستیارهای چت مغایرت دارد.


تنظیم دقیق (Fine-tuning)

به معنای آموزش بیشتر یک مدل هوش مصنوعی برای بهینه‌سازی عملکرد در یک کار یا حوزه خاص است — معمولاً با استفاده از داده‌های جدید و تخصصی.

بسیاری از استارتاپ‌های هوش مصنوعی، مدل‌های زبانی بزرگ را به‌عنوان پایه برای ساخت محصولات تجاری استفاده می‌کنند و تلاش دارند با تنظیم دقیق و افزودن دانش و داده‌های تخصصی خود، کاربرد مدل را برای بخش خاصی افزایش دهند.


شبکه تقابلی زاینده (GAN)

شبکه تقابلی زاینده یا GAN، نوعی چارچوب یادگیری ماشین است که پایه‌گذار برخی پیشرفت‌های مهم در هوش مصنوعی تولیدی بوده — از جمله تولید داده‌های واقعی مانند عکس، ویدیو یا ابزارهای دیپ‌فیک.

GAN از دو شبکه عصبی استفاده می‌کند: یکی داده تولید می‌کند (تولیدکننده)، و دیگری آن را ارزیابی می‌کند (تمییزدهنده). این مدل دومی نقش قاضی را دارد و سعی می‌کند تشخیص دهد داده تولیدشده واقعی است یا نه — و این روند به مدل تولیدکننده کمک می‌کند بهتر شود.

ساختار GAN به‌صورت رقابتی طراحی شده — دو مدل در تلاش‌اند یکدیگر را شکست دهند. این رقابت باعث می‌شود خروجی‌های هوش مصنوعی واقع‌گرایانه‌تر شوند، بدون اینکه نیاز به مداخله انسانی باشد. البته GAN بیشتر برای کاربردهای خاص مثل تولید عکس یا ویدیو مناسب است تا کاربردهای عمومی.


توهم (Hallucination)

توهم اصطلاحی است که در صنعت هوش مصنوعی برای زمانی به کار می‌رود که مدل‌ها اطلاعات نادرست و ساختگی تولید می‌کنند. این یکی از مشکلات بزرگ در کیفیت خروجی‌های هوش مصنوعی است.

توهم می‌تواند باعث تولید خروجی‌هایی گمراه‌کننده شود — که گاهی تبعات خطرناکی هم دارند (مثلاً در پاسخ به پرسش‌های پزشکی). به همین دلیل اکثر ابزارهای GenAI در بخش شرایط استفاده خود هشدار داده‌اند که پاسخ‌ها باید توسط کاربران بررسی شوند، هرچند این هشدارها معمولاً به چشم نمی‌آیند.

مشکل ساخت اطلاعات معمولاً از کمبود داده‌های آموزشی نشأت می‌گیرد. برای مدل‌های عمومی (که گاهی «مدل‌های پایه» نیز نامیده می‌شوند) این مشکل به‌راحتی حل‌شدنی نیست — چون برای پاسخ به همه پرسش‌های ممکن، به داده‌هایی بیشتر از آنچه فعلاً وجود دارد نیاز داریم. به بیان ساده: ما هنوز «خدا» را اختراع نکرده‌ایم.

توهم‌ها باعث شده‌اند صنعت به‌سمت ساخت مدل‌های خاص‌منظوره و عمودی حرکت کند — یعنی مدل‌هایی که برای حوزه‌های تخصصی طراحی می‌شوند تا احتمال خلأ اطلاعاتی و خطرات ناشی از اطلاعات غلط را کاهش دهند.


استنتاج (Inference)

استنتاج به معنای اجرای یک مدل هوش مصنوعی است. در این مرحله، مدل بر اساس دانشی که قبلاً از داده‌ها آموخته، پیش‌بینی می‌کند یا نتیجه‌گیری می‌نماید.

توجه داشته باشید که استنتاج بدون آموزش ممکن نیست؛ مدل باید ابتدا الگوهای موجود در داده‌ها را یاد بگیرد تا بتواند به‌درستی نتیجه‌گیری کند.

انواع مختلفی از سخت‌افزارها می‌توانند عملیات استنتاج را انجام دهند — از پردازنده‌های موبایل گرفته تا GPUهای قدرتمند یا شتاب‌دهنده‌های اختصاصی AI. ولی همه آن‌ها به یک اندازه مؤثر نیستند. اجرای مدل‌های بزرگ روی لپ‌تاپ ممکن است خیلی کند باشد، در حالی که سرورهای ابری با چیپ‌های پیشرفته عملکرد بسیار بهتری دارند.


مدل زبانی بزرگ (LLM)

مدل‌های زبانی بزرگ یا LLMها، مدل‌هایی هستند که پشت ابزارهای محبوبی چون ChatGPT، Claude، Gemini گوگل، LLaMA متا، Copilot مایکروسافت یا Le Chat از Mistral قرار دارند. وقتی با این دستیارهای هوش مصنوعی چت می‌کنید، در واقع با یک مدل زبانی بزرگ تعامل دارید که ممکن است مستقیماً یا با کمک ابزارهای دیگر (مانند مرورگر وب یا مفسر کد) پاسخ شما را پردازش کند.

نام دستیارهای هوش مصنوعی و مدل‌های زبانی آن‌ها می‌تواند متفاوت باشد. مثلاً GPT مدل زبانی OpenAI است و ChatGPT محصول دستیار آن.

LLMها شبکه‌های عصبی عمیقی هستند که از میلیاردها پارامتر عددی (یا وزن) تشکیل شده‌اند و روابط میان واژه‌ها و عبارات را یاد می‌گیرند تا نوعی نقشه چندبعدی از زبان بسازند.

این مدل‌ها بر اساس الگوهایی که از میلیاردها کتاب، مقاله و مکالمه یاد گرفته‌اند، ساخته شده‌اند. وقتی چیزی را از LLM می‌پرسید، مدل الگویی را تولید می‌کند که بیشترین احتمال را برای تناسب با ورودی شما دارد. سپس واژه بعدی را بر اساس آنچه تاکنون گفته شده، پیش‌بینی می‌کند — و این روند تکرار می‌شود.


شبکه عصبی (Neural Network)

شبکه عصبی به ساختار الگوریتمی چندلایه‌ای گفته می‌شود که پایه یادگیری عمیق و به‌طور گسترده‌تر، رشد چشمگیر ابزارهای هوش مصنوعی تولیدی، به‌ویژه با ظهور مدل‌های زبانی بزرگ است.

اگرچه ایده الگوبرداری از مغز انسان برای طراحی الگوریتم‌های پردازش داده به دهه ۱۹۴۰ بازمی‌گردد، اما این GPUها بودند — که ابتدا در صنعت بازی‌های ویدیویی محبوب شدند — که واقعاً قدرت این نظریه را آزاد کردند. این چیپ‌ها توانایی آموزش الگوریتم‌هایی با لایه‌های بسیار بیشتر را داشتند که قبلاً ممکن نبود — و این امر باعث شد سیستم‌های مبتنی بر شبکه عصبی عملکرد بسیار بهتری در حوزه‌هایی مانند تشخیص صدا، ناوبری خودران و کشف دارو داشته باشند.


آموزش (Training)

توسعه هوش مصنوعی یادگیری ماشینی با فرایندی به نام آموزش انجام می‌شود. به‌طور ساده، این به معنای تغذیه داده به مدل است تا الگوهای موجود را یاد بگیرد و خروجی‌های مفید تولید کند.

قبل از آموزش، ساختار ریاضی مدل صرفاً شامل لایه‌هایی با اعداد تصادفی است. فقط از طریق آموزش است که مدل شکل می‌گیرد — یعنی با واکنش به ویژگی‌های داده، خروجی خود را در جهت هدفی خاص بهینه می‌کند؛ مثلاً شناسایی تصویر گربه یا سرودن هایکو.

نکته مهم: همه انواع هوش مصنوعی نیاز به آموزش ندارند. مثلاً هوش مصنوعی‌های مبتنی بر قواعد (مثل چت‌بات‌های خطی) نیازی به آموزش ندارند و فقط طبق دستورهای از پیش تعریف‌شده عمل می‌کنند — اما این سیستم‌ها معمولاً محدودتر از مدل‌های خودیادگیرنده هستند.

آموزش می‌تواند هزینه‌بر باشد، چون به حجم زیادی از داده نیاز دارد — و این نیاز معمولاً رو به افزایش است.

در برخی موارد از روش‌های ترکیبی استفاده می‌شود تا هزینه‌ها کاهش یابد؛ مثلاً آموزش دقیق داده‌محور روی یک مدل مبتنی بر قواعد، که نسبت به ساخت مدل از صفر به داده، محاسبات و انرژی کمتری نیاز دارد.


یادگیری انتقالی (Transfer Learning)

روشی که در آن از یک مدل آموزش‌دیده به‌عنوان نقطه شروع برای توسعه مدلی جدید در یک کار متفاوت — ولی معمولاً مرتبط — استفاده می‌شود؛ به‌طوری که دانش کسب‌شده از آموزش قبلی مجدداً مورد استفاده قرار گیرد.

یادگیری انتقالی می‌تواند باعث صرفه‌جویی در زمان و منابع شود و زمانی که داده برای کار جدید محدود است، بسیار مفید باشد. با این حال، محدودیت‌هایی هم دارد: مدل‌هایی که با یادگیری انتقالی ساخته می‌شوند برای عملکرد مطلوب در حوزه جدید خود معمولاً نیاز به آموزش تکمیلی دارند.


وزن‌ها (Weights)

وزن‌ها بخش اصلی آموزش مدل‌های هوش مصنوعی هستند، چون مشخص می‌کنند که چه مقدار اهمیت به ویژگی‌ها یا ورودی‌های مختلف داده اختصاص یابد — و در نتیجه خروجی مدل شکل می‌گیرد.

به‌بیان دیگر، وزن‌ها پارامترهای عددی‌ای هستند که مشخص می‌کنند چه چیزهایی در داده برای وظیفه آموزشی اهمیت دارند. آن‌ها این کار را با ضرب ورودی‌ها در ضریب‌های مختلف انجام می‌دهند. آموزش مدل معمولاً با وزن‌های تصادفی آغاز می‌شود و سپس با تکرار، وزن‌ها تنظیم می‌شوند تا خروجی به هدف نزدیک‌تر شود.

برای مثال، یک مدل پیش‌بینی قیمت خانه ممکن است وزن‌هایی به ویژگی‌هایی مانند تعداد اتاق خواب، نوع ملک، داشتن پارکینگ یا گاراژ اختصاص دهد. در نهایت، این وزن‌ها منعکس‌کننده تأثیر هر ویژگی بر قیمت ملک، بر اساس داده‌های آموزشی هستند.

برچسب :

ارسال یک نظر

0نظرات

ارسال یک نظر (0)