دلیل واقعی رفتن یان لوکان از متا چیست؟

بهروز فیض
0

 یان لوکان، یکی از مهم‌ترین دانشمندان هوش مصنوعی در شرکت‌های بزرگ فناوری، قصد دارد رویکرد فعلی ساخت هوش در سطح انسان را کنار بگذارد. او معتقد است آنچه نیاز داریم «مدل‌های جهان» است، نه مدل‌های زبانی بزرگ.



لوکان، دانشمند ارشد بخش تحقیقات بنیادی هوش مصنوعی در متا، طبق گزارش‌های معتبر به‌زودی از این شرکت کناره‌گیری خواهد کرد. او ۶۵ سال دارد و سال‌ها به‌عنوان مغز اصلی هوش مصنوعی در یکی از بزرگ‌ترین شرکت‌های فناوری جهان فعالیت کرده است.

این پرسش مطرح است که چرا او شرکتی را ترک می‌کند که هزینه‌های هنگفتی صرف کرده، متخصصان برجسته را جذب کرده و طبق گفته مارک زاکربرگ، مدیرعامل، به پیشرفت‌هایی رسیده که «ابرهوش» را نزدیک می‌داند. لوکان مدت‌هاست پاسخ را به‌طور غیرمستقیم داده است. او بارها تأکید کرده مدل‌های زبانی بزرگ در مسیر رسیدن به هوش انسانی بی‌فایده‌اند و حتی آن‌ها را «انحراف» و «بن‌بست» خوانده است.

تحلیل وال‌استریت ژورنال از کارنامه او نشان می‌دهد دلایل دیگری هم وجود دارد. تابستان گذشته، الکساندر وانگ ۲۸ ساله، یکی از سازندگان چت‌جی‌پی‌تی، به‌عنوان رئیس بخش هوش مصنوعی متا منصوب شد و عملاً بالادست لوکان شد. همچنین امسال شنگجیا ژائو، دانشمند جوان دیگری، به‌عنوان دانشمند ارشد بالاتر از لوکان معرفی شد؛ متا در اطلاعیه خود از «پیشرفت در مقیاس‌پذیری» توسط ژائو سخن گفت، در حالی که لوکان اعتماد خود را به مقیاس‌پذیری از دست داده است.

ساختار سازمانی متا در بخش هوش مصنوعی نیز غیرمعمول توصیف شده و به چند گروه جداگانه تقسیم شده است. ماه گذشته صدها نفر اخراج شدند تا این ساختار ساماندهی شود.


یان لوکان که روی عینک هوشمند متا کار کرده اما در پروژه مدل زبانی لاما نقش چندانی نداشته، باور زیادی به فناوری‌های پوشیدنی دارد. او معتقد است در آینده باید با این ابزارها مانند انسان تعامل کنیم، در حالی که مدل‌های زبانی بزرگ توانایی درک جهان مانند انسان را ندارند. به گفته او، این مدل‌ها حتی نمی‌توانند هوش یک گربه یا موش را بازتولید کنند چه برسد به سگ؛ حیواناتی که توانایی‌های پیچیده دارند، جهان فیزیکی را می‌فهمند و مدل‌های علّی از محیط خود دارند.

لوکان برای توضیح تفاوت میان مدل‌های زبانی و «مدل‌های جهان» مثالی ساده می‌زند: اگر به انسانی بگویید مکعبی را در ذهن تصور کند که در هوا شناور است و سپس آن را ۹۰ درجه حول محور عمودی بچرخاند، به‌راحتی می‌تواند تصویر ذهنی آن را شکل دهد. اما یک مدل زبانی تنها می‌تواند درباره چنین مکعبی شعر طنز بنویسد، نه اینکه واقعاً به شما در تعامل با آن کمک کند. او این محدودیت را ناشی از تفاوت میان داده‌های متنی و داده‌های حسی می‌داند. به گفته او، یک کودک چهار ساله که حدود ۱۶ هزار ساعت بیدار بوده، از طریق دیدن و لمس کردن حدود (1.4 ضربدر 10 به توان 14 ) بایت داده حسی پردازش کرده است؛ رقمی که از داده‌های متنی آموزش مدل‌های زبانی بیشتر است.

لوکان در سخنرانی خود در اجلاس «AI Action Summit» توضیح داد که مدل مورد نظرش باید بتواند «برآوردی از وضعیت کنونی جهان» ارائه دهد؛ نوعی بازنمایی انتزاعی از همه چیز یا دست‌کم آنچه در زمینه فعلی اهمیت دارد. این مدل به جای پیش‌بینی متوالی و توکنی، وضعیت آینده جهان پس از انجام یک رشته کنش‌ها را پیش‌بینی می‌کند.

به باور او، چنین مدل‌هایی امکان ساخت سیستم‌هایی را فراهم می‌کنند که بتوانند برای رسیدن به هدف برنامه‌ریزی کنند، حتی به‌صورت سلسله‌مراتبی، و توانایی استدلال داشته باشند. لوکان همچنین تأکید می‌کند این سیستم‌ها ویژگی‌های ایمنی قوی‌تری خواهند داشت، زیرا روش‌های کنترل درون خودشان تعبیه می‌شود و دیگر مانند جعبه سیاه مرموزی نیستند که تنها متن تولید کنند و نیازمند اصلاح مداوم باشند.



برچسب ها

ارسال یک نظر

0 نظرات

ارسال یک نظر (0)
3/related/default