به هوش مصنوعی وظیفه تولید رمز را ندهید

بهروز فیض
0

 مدل‌های زبانی بزرگ می‌توانند رمزهایی تولید کنند که در ظاهر پیچیده‌اند، اما آزمایش‌های اخیر نشان می‌دهد این رشته‌ها چندان هم تصادفی نیستند.



یک مطالعه توسط شرکت Irregular خروجی رمزهای تولیدشده توسط سیستم‌های هوش مصنوعی مانند Claude، ChatGPT و Gemini را بررسی کرد. از هرکدام خواسته شد رمزهای ۱۶ کاراکتری شامل نمادها، اعداد و حروف بزرگ و کوچک بسازند.

در نگاه اول، این رمزها قوی به‌نظر می‌رسیدند و حتی در بسیاری از تست‌های رایج سنجش قدرت رمز عبور قبول می‌شدند؛ برخی ابزارها تخمین می‌زدند شکستن آن‌ها قرن‌ها طول می‌کشد. اما بررسی دقیق‌تر نشان داد ماجرا چیز دیگری است.


پژوهشگران وقتی ۵۰ رمز عبور تولیدشده در نشست‌های جداگانه را بررسی کردند، متوجه شدند بسیاری از آن‌ها تکراری‌اند و تعدادی هم الگوهای ساختاری تقریباً یکسانی دارند.

بیشتر رمزها با نوع مشابهی از کاراکترها شروع و تمام می‌شدند و هیچ‌کدام شامل کاراکتر تکراری نبودند.

نبودِ تکرار شاید در نگاه اول نشانه‌ای از امنیت به‌نظر برسد، اما در واقع نشان می‌دهد خروجی‌ها از الگوهای آموخته‌شده پیروی می‌کنند، نه از تصادفی‌بودن واقعی.

با استفاده از محاسبات آنتروپی بر اساس آمار کاراکترها و احتمال‌های مدل، پژوهشگران برآورد کردند رمزهای تولیدشده توسط هوش مصنوعی تنها حدود ۲۰ تا ۲۷ بیت آنتروپی دارند.


یک رمز ۱۶ کاراکتری واقعاً تصادفی معمولاً بین ۹۸ تا ۱۲۰ بیت آنتروپی دارد، اگر با همین روش‌ها اندازه‌گیری شود.

این اختلاف بسیار زیاد است و در عمل می‌تواند به این معنا باشد که چنین رمزهایی روی سخت‌افزارهای قدیمی هم ممکن است طی چند ساعت با حملهٔ brute‑force شکسته شوند.

سنجشگرهای آنلاین قدرت رمز عبور فقط ظاهر پیچیدگی را بررسی می‌کنند، نه الگوهای آماری پنهان در رشتهٔ کاراکترها. از آنجا که این ابزارها در نظر نمی‌گیرند رمزهای تولیدشده توسط هوش مصنوعی چگونه ساخته می‌شوند، ممکن است خروجی‌های قابل پیش‌بینی را «ایمن» ارزیابی کنند.


برچسب ها

ارسال یک نظر

0 نظرات

ارسال یک نظر (0)
3/related/default