هوش مصنوعی دنیایی عمیق و پیچیده است. دانشمندانی که در این حوزه فعالیت میکنند، اغلب برای توضیح کارهای خود از اصطلاحات فنی و زبان تخصصی استفاده میکنند. در نتیجه، ما نیز ناچاریم هنگام پوشش اخبار صنعت هوش مصنوعی از این واژگان تخصصی استفاده کنیم. به همین دلیل تصمیم گرفتیم واژهنامهای تهیه کنیم که تعاریف برخی از مهمترین واژهها و اصطلاحاتی را که در مقالات خود استفاده میکنیم، در بر گیرد.
ما این واژهنامه را به طور منظم بهروزرسانی خواهیم کرد تا اصطلاحات جدیدی را که پژوهشگران با روشهای نوین کشف میکنند و همچنین خطرات نوظهور مربوط به ایمنی هوش مصنوعی را شناسایی میکنند، به آن اضافه کنیم.
AGI (هوش عمومی مصنوعی)
هوش عمومی مصنوعی یا AGI اصطلاحی مبهم است، اما به طور کلی به هوش مصنوعیای اطلاق میشود که در بسیاری (اگر نه اکثر) کارها از انسان معمولی توانمندتر است. سم آلتمن، مدیرعامل OpenAI، اخیراً AGI را معادل «یک انسان متوسط که میتوان او را بهعنوان همکار استخدام کرد» توصیف کرده است. منشور OpenAI نیز AGI را «سامانههایی بسیار خودمختار که در اکثر کارهای اقتصادی ارزشمند از انسانها بهتر عمل میکنند» تعریف کرده است. تعریف گوگل دیپمایند کمی با این دو متفاوت است؛ این آزمایشگاه AGI را «هوش مصنوعیای که دستکم در اکثر وظایف شناختی به اندازه انسان توانمند باشد» میداند. گیجکننده است؟ نگران نباشید — حتی کارشناسان پیشروی حوزه هوش مصنوعی هم در این زمینه اختلاف نظر دارند.
عامل هوش مصنوعی (AI Agent)
عامل هوش مصنوعی به ابزاری گفته میشود که با بهرهگیری از فناوریهای هوش مصنوعی مجموعهای از وظایف را به نمایندگی از شما انجام میدهد — فراتر از آنچه یک چتبات ساده میتواند انجام دهد — مانند ثبت هزینهها، رزرو بلیت یا میز در رستوران، یا حتی نوشتن و نگهداری کد. با این حال، همانطور که قبلاً هم توضیح دادهایم، این حوزه در حال شکلگیری است و اجزای مختلفی دارد، بنابراین ممکن است «عامل هوش مصنوعی» برای افراد مختلف معانی متفاوتی داشته باشد. زیرساختهای لازم برای تحقق کامل این ایده هنوز در حال توسعه است. اما مفهوم پایه به یک سیستم خودمختار اشاره دارد که ممکن است از چندین سامانه هوش مصنوعی برای انجام وظایف چندمرحلهای بهره بگیرد.
زنجیره تفکر (Chain of Thought)
در مواجهه با یک پرسش ساده، مغز انسان اغلب بدون تفکر زیاد پاسخ میدهد — مانند اینکه «کدام حیوان بلندتر است؟ زرافه یا گربه؟» اما در بسیاری موارد، نیاز به نوشتن مراحل میانی وجود دارد تا به پاسخ درست برسیم. مثلاً اگر یک کشاورز مرغ و گاو داشته باشد و مجموعاً ۴۰ سر و ۱۲۰ پا وجود داشته باشد، احتمالاً باید یک معادله ساده روی کاغذ بنویسید تا به پاسخ (۲۰ مرغ و ۲۰ گاو) برسید.
در زمینه هوش مصنوعی، «زنجیره تفکر» در مدلهای زبانی بزرگ به معنای تجزیه یک مسئله به مراحل میانی کوچکتر است تا کیفیت پاسخ نهایی بهتر شود. این فرایند معمولاً زمانبرتر است، اما احتمال درستی پاسخ را به ویژه در زمینه منطق یا برنامهنویسی افزایش میدهد. مدلهای استدلالی از مدلهای زبانی بزرگ سنتی توسعه یافتهاند و با استفاده از یادگیری تقویتی برای تفکر زنجیرهای بهینه شدهاند.
یادگیری عمیق (Deep Learning)
زیرمجموعهای از یادگیری ماشین خودبهخود بهبوددهنده است که در آن الگوریتمهای هوش مصنوعی با ساختاری چندلایه و شبکه عصبی مصنوعی (ANN) طراحی میشوند. این ساختار به آنها اجازه میدهد روابط پیچیدهتری را نسبت به سیستمهای سادهتر یادگیری ماشین، مانند مدلهای خطی یا درخت تصمیم، برقرار کنند. ساختار یادگیری عمیق از مسیرهای درهمتنیده نورونها در مغز انسان الهام گرفته شده است.
مدلهای هوش مصنوعی مبتنی بر یادگیری عمیق قادرند ویژگیهای مهم را از دادهها خودشان شناسایی کنند، بدون اینکه نیاز باشد مهندسان انسانی این ویژگیها را بهصورت دستی تعریف کنند. این ساختار همچنین از الگوریتمهایی پشتیبانی میکند که میتوانند از خطاها بیاموزند و از طریق تکرار و اصلاح، خروجیهای خود را بهبود بخشند. با این حال، سیستمهای یادگیری عمیق به حجم عظیمی از داده (میلیونها نمونه یا بیشتر) نیاز دارند تا نتایج مطلوبی تولید کنند و معمولاً آموزش آنها زمانبرتر از الگوریتمهای سادهتر است — بنابراین هزینه توسعه آنها بالاتر است.
انتشار (Diffusion)
انتشار فناوری اصلی بسیاری از مدلهای هوش مصنوعی تولیدکننده تصویر، موسیقی و متن است. این روش که از فیزیک الهام گرفته شده، بهصورت تدریجی ساختار دادهها — مانند عکسها، آهنگها و غیره — را با افزودن نویز از بین میبرد تا جایی که هیچ چیز باقی نمیماند. در فیزیک، انتشار فرایندی خودبهخود و غیرقابل بازگشت است — مثل حل شدن شکر در قهوه که دیگر نمیتوان آن را به قالب مکعبی بازگرداند. اما سیستمهای انتشار در هوش مصنوعی تلاش دارند نوعی «فرآیند معکوس انتشار» را یاد بگیرند تا دادههای ازبینرفته را بازیابی کنند و توانایی بازسازی دادهها از دل نویز را بهدست آورند.
تقطیر (Distillation)
تقطیر تکنیکی برای استخراج دانش از یک مدل بزرگ هوش مصنوعی از طریق یک مدل «معلم-دانشآموز» است. توسعهدهندگان پرسشهایی را به مدل معلم ارسال کرده و خروجیها را ثبت میکنند. گاهی این پاسخها با یک مجموعه داده برای بررسی دقتشان مقایسه میشوند. سپس از این خروجیها برای آموزش مدل دانشآموز استفاده میشود تا رفتاری مشابه مدل معلم داشته باشد.
تقطیر میتواند برای ایجاد مدلی کوچکتر و کارآمدتر بر اساس یک مدل بزرگتر با حداقل از دست دادن اطلاعات استفاده شود. احتمالاً OpenAI از این روش برای توسعه GPT-4 Turbo، نسخه سریعتر GPT-4، استفاده کرده است.
در حالی که همه شرکتهای هوش مصنوعی از تقطیر بهصورت داخلی استفاده میکنند، برخی ممکن است از آن برای رسیدن به مدلهای پیشرفته رقبا نیز استفاده کرده باشند — که در چنین مواردی معمولاً با شرایط استفاده از API و دستیارهای چت مغایرت دارد.
تنظیم دقیق (Fine-tuning)
به معنای آموزش بیشتر یک مدل هوش مصنوعی برای بهینهسازی عملکرد در یک کار یا حوزه خاص است — معمولاً با استفاده از دادههای جدید و تخصصی.
بسیاری از استارتاپهای هوش مصنوعی، مدلهای زبانی بزرگ را بهعنوان پایه برای ساخت محصولات تجاری استفاده میکنند و تلاش دارند با تنظیم دقیق و افزودن دانش و دادههای تخصصی خود، کاربرد مدل را برای بخش خاصی افزایش دهند.
شبکه تقابلی زاینده (GAN)
شبکه تقابلی زاینده یا GAN، نوعی چارچوب یادگیری ماشین است که پایهگذار برخی پیشرفتهای مهم در هوش مصنوعی تولیدی بوده — از جمله تولید دادههای واقعی مانند عکس، ویدیو یا ابزارهای دیپفیک.
GAN از دو شبکه عصبی استفاده میکند: یکی داده تولید میکند (تولیدکننده)، و دیگری آن را ارزیابی میکند (تمییزدهنده). این مدل دومی نقش قاضی را دارد و سعی میکند تشخیص دهد داده تولیدشده واقعی است یا نه — و این روند به مدل تولیدکننده کمک میکند بهتر شود.
ساختار GAN بهصورت رقابتی طراحی شده — دو مدل در تلاشاند یکدیگر را شکست دهند. این رقابت باعث میشود خروجیهای هوش مصنوعی واقعگرایانهتر شوند، بدون اینکه نیاز به مداخله انسانی باشد. البته GAN بیشتر برای کاربردهای خاص مثل تولید عکس یا ویدیو مناسب است تا کاربردهای عمومی.
توهم (Hallucination)
توهم اصطلاحی است که در صنعت هوش مصنوعی برای زمانی به کار میرود که مدلها اطلاعات نادرست و ساختگی تولید میکنند. این یکی از مشکلات بزرگ در کیفیت خروجیهای هوش مصنوعی است.
توهم میتواند باعث تولید خروجیهایی گمراهکننده شود — که گاهی تبعات خطرناکی هم دارند (مثلاً در پاسخ به پرسشهای پزشکی). به همین دلیل اکثر ابزارهای GenAI در بخش شرایط استفاده خود هشدار دادهاند که پاسخها باید توسط کاربران بررسی شوند، هرچند این هشدارها معمولاً به چشم نمیآیند.
مشکل ساخت اطلاعات معمولاً از کمبود دادههای آموزشی نشأت میگیرد. برای مدلهای عمومی (که گاهی «مدلهای پایه» نیز نامیده میشوند) این مشکل بهراحتی حلشدنی نیست — چون برای پاسخ به همه پرسشهای ممکن، به دادههایی بیشتر از آنچه فعلاً وجود دارد نیاز داریم. به بیان ساده: ما هنوز «خدا» را اختراع نکردهایم.
توهمها باعث شدهاند صنعت بهسمت ساخت مدلهای خاصمنظوره و عمودی حرکت کند — یعنی مدلهایی که برای حوزههای تخصصی طراحی میشوند تا احتمال خلأ اطلاعاتی و خطرات ناشی از اطلاعات غلط را کاهش دهند.
استنتاج (Inference)
استنتاج به معنای اجرای یک مدل هوش مصنوعی است. در این مرحله، مدل بر اساس دانشی که قبلاً از دادهها آموخته، پیشبینی میکند یا نتیجهگیری مینماید.
توجه داشته باشید که استنتاج بدون آموزش ممکن نیست؛ مدل باید ابتدا الگوهای موجود در دادهها را یاد بگیرد تا بتواند بهدرستی نتیجهگیری کند.
انواع مختلفی از سختافزارها میتوانند عملیات استنتاج را انجام دهند — از پردازندههای موبایل گرفته تا GPUهای قدرتمند یا شتابدهندههای اختصاصی AI. ولی همه آنها به یک اندازه مؤثر نیستند. اجرای مدلهای بزرگ روی لپتاپ ممکن است خیلی کند باشد، در حالی که سرورهای ابری با چیپهای پیشرفته عملکرد بسیار بهتری دارند.
مدل زبانی بزرگ (LLM)
مدلهای زبانی بزرگ یا LLMها، مدلهایی هستند که پشت ابزارهای محبوبی چون ChatGPT، Claude، Gemini گوگل، LLaMA متا، Copilot مایکروسافت یا Le Chat از Mistral قرار دارند. وقتی با این دستیارهای هوش مصنوعی چت میکنید، در واقع با یک مدل زبانی بزرگ تعامل دارید که ممکن است مستقیماً یا با کمک ابزارهای دیگر (مانند مرورگر وب یا مفسر کد) پاسخ شما را پردازش کند.
نام دستیارهای هوش مصنوعی و مدلهای زبانی آنها میتواند متفاوت باشد. مثلاً GPT مدل زبانی OpenAI است و ChatGPT محصول دستیار آن.
LLMها شبکههای عصبی عمیقی هستند که از میلیاردها پارامتر عددی (یا وزن) تشکیل شدهاند و روابط میان واژهها و عبارات را یاد میگیرند تا نوعی نقشه چندبعدی از زبان بسازند.
این مدلها بر اساس الگوهایی که از میلیاردها کتاب، مقاله و مکالمه یاد گرفتهاند، ساخته شدهاند. وقتی چیزی را از LLM میپرسید، مدل الگویی را تولید میکند که بیشترین احتمال را برای تناسب با ورودی شما دارد. سپس واژه بعدی را بر اساس آنچه تاکنون گفته شده، پیشبینی میکند — و این روند تکرار میشود.
شبکه عصبی (Neural Network)
شبکه عصبی به ساختار الگوریتمی چندلایهای گفته میشود که پایه یادگیری عمیق و بهطور گستردهتر، رشد چشمگیر ابزارهای هوش مصنوعی تولیدی، بهویژه با ظهور مدلهای زبانی بزرگ است.
اگرچه ایده الگوبرداری از مغز انسان برای طراحی الگوریتمهای پردازش داده به دهه ۱۹۴۰ بازمیگردد، اما این GPUها بودند — که ابتدا در صنعت بازیهای ویدیویی محبوب شدند — که واقعاً قدرت این نظریه را آزاد کردند. این چیپها توانایی آموزش الگوریتمهایی با لایههای بسیار بیشتر را داشتند که قبلاً ممکن نبود — و این امر باعث شد سیستمهای مبتنی بر شبکه عصبی عملکرد بسیار بهتری در حوزههایی مانند تشخیص صدا، ناوبری خودران و کشف دارو داشته باشند.
آموزش (Training)
توسعه هوش مصنوعی یادگیری ماشینی با فرایندی به نام آموزش انجام میشود. بهطور ساده، این به معنای تغذیه داده به مدل است تا الگوهای موجود را یاد بگیرد و خروجیهای مفید تولید کند.
قبل از آموزش، ساختار ریاضی مدل صرفاً شامل لایههایی با اعداد تصادفی است. فقط از طریق آموزش است که مدل شکل میگیرد — یعنی با واکنش به ویژگیهای داده، خروجی خود را در جهت هدفی خاص بهینه میکند؛ مثلاً شناسایی تصویر گربه یا سرودن هایکو.
نکته مهم: همه انواع هوش مصنوعی نیاز به آموزش ندارند. مثلاً هوش مصنوعیهای مبتنی بر قواعد (مثل چتباتهای خطی) نیازی به آموزش ندارند و فقط طبق دستورهای از پیش تعریفشده عمل میکنند — اما این سیستمها معمولاً محدودتر از مدلهای خودیادگیرنده هستند.
آموزش میتواند هزینهبر باشد، چون به حجم زیادی از داده نیاز دارد — و این نیاز معمولاً رو به افزایش است.
در برخی موارد از روشهای ترکیبی استفاده میشود تا هزینهها کاهش یابد؛ مثلاً آموزش دقیق دادهمحور روی یک مدل مبتنی بر قواعد، که نسبت به ساخت مدل از صفر به داده، محاسبات و انرژی کمتری نیاز دارد.
یادگیری انتقالی (Transfer Learning)
روشی که در آن از یک مدل آموزشدیده بهعنوان نقطه شروع برای توسعه مدلی جدید در یک کار متفاوت — ولی معمولاً مرتبط — استفاده میشود؛ بهطوری که دانش کسبشده از آموزش قبلی مجدداً مورد استفاده قرار گیرد.
یادگیری انتقالی میتواند باعث صرفهجویی در زمان و منابع شود و زمانی که داده برای کار جدید محدود است، بسیار مفید باشد. با این حال، محدودیتهایی هم دارد: مدلهایی که با یادگیری انتقالی ساخته میشوند برای عملکرد مطلوب در حوزه جدید خود معمولاً نیاز به آموزش تکمیلی دارند.
وزنها (Weights)
وزنها بخش اصلی آموزش مدلهای هوش مصنوعی هستند، چون مشخص میکنند که چه مقدار اهمیت به ویژگیها یا ورودیهای مختلف داده اختصاص یابد — و در نتیجه خروجی مدل شکل میگیرد.
بهبیان دیگر، وزنها پارامترهای عددیای هستند که مشخص میکنند چه چیزهایی در داده برای وظیفه آموزشی اهمیت دارند. آنها این کار را با ضرب ورودیها در ضریبهای مختلف انجام میدهند. آموزش مدل معمولاً با وزنهای تصادفی آغاز میشود و سپس با تکرار، وزنها تنظیم میشوند تا خروجی به هدف نزدیکتر شود.
برای مثال، یک مدل پیشبینی قیمت خانه ممکن است وزنهایی به ویژگیهایی مانند تعداد اتاق خواب، نوع ملک، داشتن پارکینگ یا گاراژ اختصاص دهد. در نهایت، این وزنها منعکسکننده تأثیر هر ویژگی بر قیمت ملک، بر اساس دادههای آموزشی هستند.