
هوش مصنوعی؛ از ابزار نوین تا تهدید سایبری پنهان !
مدلهای زبانی هوش مصنوعی میتوانند به ابزارهای مخفی برای حملات سایبری تبدیل شوند؛ حتی اگر بهظاهر بیخطر طراحی شده باشند.
به گزارش سبک ایدهآل، این روزها که مدلهای زبانی پیشرفته مانند ChatGPT در صدر نوآوریهای دیجیتال قرار گرفتهاند، پرسشی جدی مطرح است: آیا این سیستمهای قدرتمند میتوانند وسیلهای برای حملههای سایبری شوند؟ پاسخ نگرانکننده است: «بله، و این امر هماکنون در حال وقوع است.»
نگار علی- گرچه بسیاری از مدلهای هوش مصنوعی بهگونهای ساخته شدهاند که از ارائه محتوای خطرناک مانند روش ساخت تسلیحات یا حمله سایبری خودداری کنند، ولی در عمل، این محدودیتها میتواند بهسادگی دور زده شود. بهعبارتی، اگر نتوانید بپرسید «چطور حمله کنم؟»، میتوانید بپرسید «چطور بهتر سؤال طراحی کنم؟» و با ترکیب ابزارها، به نتیجه برسید.
برخی پروژهها از API مدلهای زبانی برای طراحی حملاتی با هدف نفوذ کامل به سرورها استفاده میکنند. برخی دیگر از این فناوریها برای کشف نقاط حمله در فضای آنلاین بهره میگیرند.
در ترکیب این مدلها با نرمافزارهایی که برای دور زدن IP طراحی شدهاند، مهاجمان قادرند آسیبپذیریها را شناسایی و از آنها بهرهبرداری کنند. نکته جالب اینجاست که مدلها متوجه کاربرد مخرب خود نمیشوند چون هر یک، تنها بخشی از کار را انجام میدهند.
این شیوه که به «طراحی پاک» شهرت دارد، همچون پازلیست که با ترکیب اجزا، ابزار مخرب نهایی را میسازد.
درحالیکه برخی نهادها مشغول تدوین قوانین محدودکننده برای جلوگیری از سوءاستفاده از AI هستند. هنوز مشخص نیست مسئولیت قانونی در این موارد برعهده چه کسی است. اثبات این مسئولیتها در دادگاهها بسیار دشوار و زمانبر است.