مطالب این بخش از سایر خبرگزاری‌ها جمع‌آوری شده است و صرفا جهت افزایش آگاهی شما قرار گرفته است و لزوما به معنای تایید آن توسط چنج‌کن نیست.

گوگل از کشف اولین حفره امنیتی تولیدشده توسط هوش مصنوعی خبر داد

گروه تحلیل تهدیدات گوگل در گزارشی اعلام کرد که مجرمان سایبری با استفاده از مدل‌های هوش مصنوعی موفق به شناسایی و بهره‌برداری از یک آسیب‌پذیری «روز صفر» (Zero-day) در یک ابزار مدیریت وب متن‌باز شده‌اند.

این اولین‌بار است که گوگل به طور رسمی تایید می‌کند مهاجمان از هوش مصنوعی برای توسعه حملات پیچیده در دنیای واقعی استفاده کرده‌اند. این نقص امنیتی به هکرها اجازه می‌داد تا احراز هویت دو مرحله‌ای را دور بزنند و پیش از دخالت گوگل، در حال آماده‌سازی یک کارزار گسترده برای سوءاستفاده بودند.

طبق گزارش گوگل، مهاجمان ناشناس از هوش مصنوعی برای شناسایی یک نقص منطقی استفاده کردند که در آن نرم‌افزار به شرایطی اعتماد می‌کرد که حفاظ‌های امنیتی را دور می‌زد. برخلاف اسکنرهای سنتی که به دنبال کدهای شکسته می‌گردند، هوش مصنوعی با تحلیل نیت توسعه‌دهنده و منطق برنامه، موفق به شناسایی تناقضاتی شد که از نظر امنیتی فاجعه‌بار بودند.

گوگل هشدار داده است که با پیشرفت قابلیت‌های کدنویسی مدل‌های هوش مصنوعی، این ابزارها به «ضریب قدرت» برای مهاجمان در جهت مهندسی معکوس برنامه‌ها و ایجاد اکسپلویت‌های پیچیده تبدیل شده‌اند.

گوگل در گزارش خود به نقش بازیگران دولتی نیز اشاره کرده است. گروه‌های تهدید وابسته به چین و کره شمالی از هوش مصنوعی برای یافتن نقاط ضعف نرم‌افزاری استفاده می‌کنند، در حالی که گروه‌های روسی از این فناوری برای مخفی‌سازی بدافزارها و ایجاد شبکه‌های فریب بهره می‌برند.

این گزارش تاکید می‌کند که مدل‌های زبانی بزرگ (LLM) با وجود دشواری در درک منطق‌های پیچیده سازمانی، در استدلال‌های متنی و تطبیق استثناهای کدنویسی با قوانین امنیتی بسیار توانمند شده‌اند.

با وجود هشدارهای جدی گوگل، برخی پژوهشگران معتقدند که ترس از حملات سایبری مبتنی بر هوش مصنوعی تا حدی اغراق‌آمیز است. مطالعه‌ای از دانشگاه کمبریج بر روی فروم‌های جرایم سایبری نشان می‌دهد که اکثر مجرمان در حال حاضر از هوش مصنوعی بیشتر برای فیشینگ و تولید هرزنامه استفاده می‌کنند تا نگارش کدهای مخرب پیچیده.

با این حال، یافته‌های گوگل نشان‌دهنده تغییر فصل در امنیت سایبری و ورود به دورانی است که در آن سرعت شناسایی باگ‌ها توسط هوش مصنوعی، ممکن است از توان پاسخگویی مدافعان پیشی بگیرد.