متخصص امنیت سایبری که با استفاده از ابزارهای هوش مصنوعی مولد، تهدیدات را تجزیه و تحلیل می‌کند.

چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟

مقدمه

هوش مصنوعی مولد - سیستم‌های هوش مصنوعی که قادر به ایجاد محتوا یا پیش‌بینی‌های جدید هستند - به عنوان یک نیروی متحول‌کننده در امنیت سایبری در حال ظهور هستند. ابزارهایی مانند GPT-4 شرکت OpenAI توانایی تجزیه و تحلیل داده‌های پیچیده و تولید متن شبیه به انسان را نشان داده‌اند و رویکردهای جدیدی را برای دفاع در برابر تهدیدات سایبری ممکن می‌سازند. متخصصان امنیت سایبری و تصمیم‌گیرندگان تجاری در صنایع مختلف در حال بررسی این موضوع هستند که چگونه هوش مصنوعی مولد می‌تواند دفاع در برابر حملات در حال تحول را تقویت کند. از امور مالی و مراقبت‌های بهداشتی گرفته تا خرده‌فروشی و دولت، سازمان‌ها در هر بخش با تلاش‌های پیچیده فیشینگ، بدافزار و سایر تهدیداتی روبرو هستند که هوش مصنوعی مولد می‌تواند به مقابله با آنها کمک کند. در این مقاله سفید، ما بررسی می‌کنیم که چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد و کاربردهای دنیای واقعی، احتمالات آینده و ملاحظات مهم برای پذیرش را برجسته می‌کنیم.

در ایجاد نیز با هوش مصنوعی تحلیلی سنتی متفاوت است - چه شبیه‌سازی حملات برای آموزش دفاع یا تولید توضیحات به زبان طبیعی برای داده‌های امنیتی پیچیده. این قابلیت دوگانه، آن را به یک شمشیر دولبه تبدیل می‌کند: ابزارهای دفاعی جدید و قدرتمندی ارائه می‌دهد، اما عاملان تهدید نیز می‌توانند از آن سوءاستفاده کنند. بخش‌های بعدی طیف گسترده‌ای از موارد استفاده هوش مصنوعی مولد در امنیت سایبری را بررسی می‌کنند، از خودکارسازی تشخیص فیشینگ گرفته تا افزایش پاسخ به حوادث. ما همچنین در مورد مزایایی که این نوآوری‌های هوش مصنوعی نوید می‌دهند، در کنار خطراتی (مانند "توهمات" هوش مصنوعی یا سوءاستفاده خصمانه) که سازمان‌ها باید مدیریت کنند، بحث می‌کنیم. در نهایت، نکات کاربردی را برای کمک به کسب‌وکارها در ارزیابی و ادغام مسئولانه هوش مصنوعی مولد در استراتژی‌های امنیت سایبری خود ارائه می‌دهیم.

هوش مصنوعی مولد در امنیت سایبری: یک مرور کلی

هوش مصنوعی مولد در امنیت سایبری به مدل‌های هوش مصنوعی - اغلب مدل‌های زبانی بزرگ یا سایر شبکه‌های عصبی - اشاره دارد که می‌توانند بینش، توصیه، کد یا حتی داده‌های مصنوعی را برای کمک به وظایف امنیتی تولید کنند. برخلاف مدل‌های صرفاً پیش‌بینی‌کننده، هوش مصنوعی مولد می‌تواند سناریوها را شبیه‌سازی کرده و بر اساس داده‌های آموزشی خود، خروجی‌های قابل خواندن توسط انسان (مانند گزارش‌ها، هشدارها یا حتی نمونه‌های کد مخرب) تولید کند. این قابلیت برای پیش‌بینی، شناسایی و پاسخ به تهدیدها به روش‌های پویاتر از قبل مورد استفاده قرار می‌گیرد ( هوش مصنوعی مولد در امنیت سایبری چیست؟ - شبکه‌های پالو آلتو ). به عنوان مثال، مدل‌های مولد می‌توانند لاگ‌های گسترده یا مخازن اطلاعات تهدید را تجزیه و تحلیل کرده و خلاصه‌ای مختصر یا اقدام پیشنهادی ارائه دهند، که تقریباً مانند یک "دستیار" هوش مصنوعی برای تیم‌های امنیتی عمل می‌کند.

پیاده‌سازی‌های اولیه هوش مصنوعی مولد برای دفاع سایبری نویدبخش بوده‌اند. در سال ۲۰۲۳، مایکروسافت Security Copilot ، یک دستیار مبتنی بر GPT-4 برای تحلیلگران امنیتی، را معرفی کرد تا به شناسایی نقض‌ها و بررسی ۶۵ تریلیون سیگنالی که مایکروسافت روزانه پردازش می‌کند، کمک کند ( Microsoft Security Copilot یک دستیار هوش مصنوعی جدید GPT-4 برای امنیت سایبری است | The Verge ). تحلیلگران می‌توانند این سیستم را با زبان طبیعی فراخوانی کنند (مثلاً "خلاصه کردن تمام حوادث امنیتی در ۲۴ ساعت گذشته" ) و کمک خلبان خلاصه‌ای مفید از روایت را ارائه می‌دهد. به طور مشابه، هوش مصنوعی هوش تهدید از یک مدل مولد به نام Gemini برای فعال کردن جستجوی مکالمه‌ای از طریق پایگاه داده عظیم اطلاعات تهدید گوگل استفاده می‌کند، کد مشکوک را به سرعت تجزیه و تحلیل می‌کند و یافته‌ها را برای کمک به شکارچیان بدافزار خلاصه می‌کند ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ ۱۰ مثال در دنیای واقعی ). این مثال‌ها پتانسیل را نشان می‌دهند: هوش مصنوعی مولد می‌تواند داده‌های امنیت سایبری پیچیده و در مقیاس بزرگ را هضم کند و بینش‌ها را به شکلی قابل دسترس ارائه دهد و تصمیم‌گیری را تسریع کند.

در عین حال، هوش مصنوعی مولد می‌تواند محتوای جعلی بسیار واقع‌گرایانه‌ای ایجاد کند که برای شبیه‌سازی و آموزش (و متأسفانه برای مهاجمانی که مهندسی اجتماعی را طراحی می‌کنند) یک مزیت است. همانطور که به موارد استفاده خاص می‌پردازیم، خواهیم دید که توانایی هوش مصنوعی مولد در ترکیب و تجزیه و تحلیل اطلاعات، زیربنای بسیاری از کاربردهای امنیت سایبری آن است. در ادامه، به موارد استفاده کلیدی می‌پردازیم که همه چیز را از پیشگیری از فیشینگ گرفته تا توسعه نرم‌افزار امن، با مثال‌هایی از نحوه کاربرد هر یک در صنایع مختلف، پوشش می‌دهد.

کاربردهای کلیدی هوش مصنوعی مولد در امنیت سایبری

شکل: موارد استفاده کلیدی برای هوش مصنوعی مولد در امنیت سایبری شامل کمک خلبانان هوش مصنوعی برای تیم‌های امنیتی، تجزیه و تحلیل آسیب‌پذیری کد، تشخیص تطبیقی ​​تهدید، شبیه‌سازی حمله روز صفر، امنیت بیومتریک پیشرفته و تشخیص فیشینگ است ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثال‌ها] ).

تشخیص و پیشگیری از فیشینگ

فیشینگ همچنان یکی از فراگیرترین تهدیدات سایبری است که کاربران را فریب می‌دهد تا روی لینک‌های مخرب کلیک کنند یا اطلاعات کاربری خود را فاش کنند. هوش مصنوعی مولد برای شناسایی تلاش‌های فیشینگ و تقویت آموزش کاربر برای جلوگیری از حملات موفق به کار گرفته می‌شود. در سمت دفاعی، مدل‌های هوش مصنوعی می‌توانند محتوای ایمیل و رفتارهای فرستنده را تجزیه و تحلیل کنند تا علائم ظریف فیشینگ را که فیلترهای مبتنی بر قانون ممکن است از دست بدهند، تشخیص دهند. با یادگیری از مجموعه داده‌های بزرگ ایمیل‌های قانونی در مقابل ایمیل‌های جعلی، یک مدل مولد می‌تواند ناهنجاری‌ها را در لحن، کلمات یا متن که نشان دهنده کلاهبرداری است، حتی زمانی که دستور زبان و املا دیگر آن را لو نمی‌دهند، علامت‌گذاری کند. در واقع، محققان Palo Alto Networks خاطرنشان می‌کنند که هوش مصنوعی مولد می‌تواند «نشانه‌های ظریف ایمیل‌های فیشینگ را که در غیر این صورت ممکن است کشف نشوند» و به سازمان‌ها کمک کند تا یک قدم جلوتر از کلاهبرداران باشند ( هوش مصنوعی مولد در امنیت سایبری چیست؟ - Palo Alto Networks ).

تیم‌های امنیتی همچنین از هوش مصنوعی مولد برای شبیه‌سازی حملات فیشینگ برای آموزش و تجزیه و تحلیل استفاده می‌کنند. به عنوان مثال، Ironscales یک ابزار شبیه‌سازی فیشینگ مبتنی بر GPT معرفی کرد که به طور خودکار ایمیل‌های فیشینگ جعلی متناسب با کارمندان یک سازمان تولید می‌کند ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). این ایمیل‌های ساخته شده توسط هوش مصنوعی، جدیدترین تاکتیک‌های مهاجم را منعکس می‌کنند و به کارکنان تمرین واقع‌بینانه‌ای در تشخیص محتوای فیشینگ می‌دهند. چنین آموزش شخصی‌سازی شده‌ای بسیار مهم است زیرا خود مهاجمان از هوش مصنوعی برای ایجاد طعمه‌های قانع‌کننده‌تر استفاده می‌کنند. نکته قابل توجه این است که در حالی که هوش مصنوعی مولد می‌تواند پیام‌های فیشینگ بسیار شسته رفته‌ای تولید کند (روزهای انگلیسی شکسته که به راحتی قابل تشخیص بودند، گذشته است)، مدافعان دریافته‌اند که هوش مصنوعی شکست‌ناپذیر نیست. در سال 2024، محققان IBM Security آزمایشی را انجام دادند که ایمیل‌های فیشینگ نوشته شده توسط انسان را با ایمیل‌های تولید شده توسط هوش مصنوعی مقایسه می‌کرد و "به طرز شگفت‌آوری، ایمیل‌های تولید شده توسط هوش مصنوعی با وجود دستور زبان صحیحشان، همچنان به راحتی قابل تشخیص بودند" ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثال‌ها] ). این نشان می‌دهد که شهود انسانی همراه با تشخیص به کمک هوش مصنوعی هنوز هم می‌تواند ناسازگاری‌های ظریف یا سیگنال‌های فراداده را در کلاهبرداری‌های نوشته شده توسط هوش مصنوعی تشخیص دهد.

هوش مصنوعی مولد به روش‌های دیگری نیز به دفاع در برابر فیشینگ کمک می‌کند. می‌توان از مدل‌ها برای تولید پاسخ‌های خودکار یا فیلترهایی که ایمیل‌های مشکوک را آزمایش می‌کنند، استفاده کرد. به عنوان مثال، یک سیستم هوش مصنوعی می‌تواند به یک ایمیل با پرس‌وجوهای خاص پاسخ دهد تا مشروعیت فرستنده را تأیید کند یا از یک LLM برای تجزیه و تحلیل لینک‌ها و پیوست‌های ایمیل در یک جعبه شنی استفاده کند، سپس هرگونه نیت مخرب را خلاصه کند. پلتفرم امنیتی NVIDIA، Morpheus، قدرت هوش مصنوعی را در این عرصه نشان می‌دهد - از مدل‌های NLP مولد برای تجزیه و تحلیل سریع و طبقه‌بندی ایمیل‌ها استفاده می‌کند و مشخص شد که تشخیص ایمیل‌های فیشینگ هدفمند را در مقایسه با ابزارهای امنیتی سنتی 21٪ 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثال‌ها] ). Morpheus حتی الگوهای ارتباطی کاربر را برای تشخیص رفتار غیرمعمول (مانند ارسال ناگهانی ایمیل توسط کاربر به آدرس‌های خارجی متعدد) پروفایل می‌کند، که می‌تواند نشان‌دهنده یک حساب کاربری آسیب‌دیده باشد که ایمیل‌های فیشینگ ارسال می‌کند.

در عمل، شرکت‌ها در صنایع مختلف شروع به اعتماد به هوش مصنوعی برای فیلتر کردن ایمیل و ترافیک وب در برابر حملات مهندسی اجتماعی کرده‌اند. به عنوان مثال، شرکت‌های مالی از هوش مصنوعی مولد برای اسکن ارتباطات جهت یافتن تلاش‌های جعل هویت که می‌تواند منجر به کلاهبرداری شود، استفاده می‌کنند، در حالی که ارائه دهندگان خدمات درمانی از هوش مصنوعی برای محافظت از داده‌های بیمار در برابر نقض‌های مربوط به فیشینگ استفاده می‌کنند. هوش مصنوعی مولد با ایجاد سناریوهای واقع‌گرایانه فیشینگ و شناسایی نشانه‌های پیام‌های مخرب، لایه‌ای قدرتمند به استراتژی‌های پیشگیری از فیشینگ اضافه می‌کند. نکته کلیدی: هوش مصنوعی می‌تواند به شناسایی و خنثی‌سازی سریع‌تر و دقیق‌تر حملات فیشینگ کمک کند ، حتی اگر مهاجمان از همان فناوری برای پیشرفت خود استفاده کنند.

تشخیص بدافزار و تحلیل تهدید

بدافزارهای مدرن دائماً در حال تکامل هستند - مهاجمان انواع جدیدی از بدافزارها را تولید می‌کنند یا کدها را مبهم می‌کنند تا از امضاهای آنتی‌ویروس عبور کنند. هوش مصنوعی مولد تکنیک‌های جدیدی را هم برای تشخیص بدافزار و هم برای درک رفتار آن ارائه می‌دهد. یک رویکرد، استفاده از هوش مصنوعی برای تولید "دوقلوهای شیطانی" بدافزار است : محققان امنیتی می‌توانند یک نمونه بدافزار شناخته شده را به یک مدل مولد وارد کنند تا انواع جهش‌یافته زیادی از آن بدافزار ایجاد شود. با انجام این کار، آنها به طور مؤثر تغییراتی را که یک مهاجم ممکن است ایجاد کند، پیش‌بینی می‌کنند. سپس می‌توان از این انواع تولید شده توسط هوش مصنوعی برای آموزش سیستم‌های آنتی‌ویروس و تشخیص نفوذ استفاده کرد، به طوری که حتی نسخه‌های اصلاح‌شده بدافزار نیز در عمل شناسایی شوند ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثال‌ها] ). این استراتژی پیشگیرانه به شکستن چرخه‌ای کمک می‌کند که در آن هکرها بدافزار خود را کمی تغییر می‌دهند تا از شناسایی فرار کنند و مدافعان باید هر بار برای نوشتن امضاهای جدید تلاش کنند. همانطور که در یک پادکست صنعتی ذکر شده است، کارشناسان امنیتی اکنون از هوش مصنوعی مولد برای "شبیه‌سازی ترافیک شبکه و تولید بارهای مخربی که حملات پیچیده را تقلید می‌کنند" می‌کنند و دفاع خود را در برابر کل خانواده تهدیدات به جای یک نمونه واحد، آزمایش می‌کنند. این تشخیص تهدید تطبیقی ​​به این معنی است که ابزارهای امنیتی در برابر بدافزارهای چندریختی که در غیر این صورت از دسترس خارج می‌شدند، مقاوم‌تر می‌شوند.

فراتر از تشخیص، هوش مصنوعی مولد در تحلیل بدافزار و مهندسی معکوس ، که به طور سنتی وظایف پرزحمتی برای تحلیلگران تهدید هستند، کمک می‌کند. مدل‌های زبانی بزرگ می‌توانند وظیفه بررسی کد یا اسکریپت‌های مشکوک و توضیح به زبان ساده هدف کد را بر عهده داشته باشند. یک مثال در دنیای واقعی، VirusTotal Code Insight ، ویژگی‌ای از VirusTotal گوگل که از یک مدل هوش مصنوعی مولد (Sec-PaLM گوگل) برای تولید خلاصه‌های زبان طبیعی از کدهای بالقوه مخرب استفاده می‌کند ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). این اساساً "نوعی ChatGPT است که به کدگذاری امنیتی اختصاص داده شده است" و به عنوان یک تحلیلگر بدافزار هوش مصنوعی عمل می‌کند که 24 ساعته و 7 روز هفته کار می‌کند تا به تحلیلگران انسانی در درک تهدیدها کمک کند ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثال‌ها] ). به جای بررسی دقیق اسکریپت یا کد باینری ناآشنا، یک عضو تیم امنیتی می‌تواند توضیح فوری از هوش مصنوعی دریافت کند - به عنوان مثال، "این اسکریپت سعی می‌کند فایلی را از سرور XYZ دانلود کند و سپس تنظیمات سیستم را تغییر دهد، که نشان دهنده رفتار بدافزار است." این امر به طور چشمگیری سرعت پاسخ به حادثه را افزایش می‌دهد، زیرا تحلیلگران می‌توانند بدافزارهای جدید را سریع‌تر از همیشه شناسایی و درک کنند.

هوش مصنوعی مولد همچنین برای شناسایی بدافزار در مجموعه داده‌های عظیم . موتورهای آنتی‌ویروس سنتی فایل‌ها را برای یافتن امضاهای شناخته‌شده اسکن می‌کنند، اما یک مدل مولد می‌تواند ویژگی‌های یک فایل را ارزیابی کند و حتی بر اساس الگوهای آموخته‌شده، مخرب بودن آن را پیش‌بینی کند. با تجزیه و تحلیل ویژگی‌های میلیاردها فایل (مخرب و خوش‌خیم)، یک هوش مصنوعی ممکن است نیت مخرب را در جایی که هیچ امضای صریحی وجود ندارد، تشخیص دهد. به عنوان مثال، یک مدل مولد می‌تواند یک فایل اجرایی را به عنوان مشکوک علامت‌گذاری کند زیرا مشخصات رفتاری آن "شبیه" یک تغییر جزئی از باج‌افزاری است که در طول آموزش دیده است، حتی اگر فایل باینری جدید باشد. این تشخیص مبتنی بر رفتار به مقابله با بدافزارهای جدید یا روز صفر کمک می‌کند. طبق گزارش‌ها، هوش مصنوعی هوش تهدید گوگل (بخشی از Chronicle/Mandiant) از مدل مولد خود برای تجزیه و تحلیل کد بالقوه مخرب استفاده می‌کند و "به طور مؤثرتر و کارآمدتری به متخصصان امنیتی در مبارزه با بدافزارها و سایر انواع تهدیدات کمک می‌کند." ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ).

از طرف دیگر، باید بپذیریم که مهاجمان می‌توانند در اینجا نیز از هوش مصنوعی مولد استفاده کنند - برای ایجاد خودکار بدافزارهایی که خود را تطبیق می‌دهند. در واقع، کارشناسان امنیتی هشدار می‌دهند که هوش مصنوعی مولد می‌تواند به مجرمان سایبری کمک کند تا بدافزارهایی را توسعه دهند که تشخیص آنها دشوارتر است ( هوش مصنوعی مولد در امنیت سایبری چیست؟ - شبکه‌های پالو آلتو ). می‌توان به یک مدل هوش مصنوعی دستور داد که یک بدافزار را بارها و بارها تغییر شکل دهد (ساختار فایل، روش‌های رمزگذاری و غیره آن را تغییر دهد) تا زمانی که از همه بررسی‌های آنتی‌ویروس شناخته شده فرار کند. این استفاده خصمانه یک نگرانی رو به رشد است (که گاهی اوقات به عنوان "بدافزار مبتنی بر هوش مصنوعی" یا بدافزار چندریختی به عنوان یک سرویس شناخته می‌شود). ما بعداً در مورد چنین خطراتی بحث خواهیم کرد، اما این نشان می‌دهد که هوش مصنوعی مولد ابزاری در این بازی موش و گربه است که هم مدافعان و هم مهاجمان از آن استفاده می‌کنند.

به طور کلی، هوش مصنوعی مولد با قادر ساختن تیم‌های امنیتی به تفکر مانند یک مهاجم - ایجاد تهدیدات و راه‌حل‌های جدید در داخل سازمان - دفاع در برابر بدافزار را بهبود می‌بخشد. چه تولید بدافزار مصنوعی برای بهبود نرخ تشخیص باشد و چه استفاده از هوش مصنوعی برای توضیح و مهار بدافزار واقعی موجود در شبکه‌ها، این تکنیک‌ها در صنایع مختلف کاربرد دارند. یک بانک ممکن است از تجزیه و تحلیل بدافزار مبتنی بر هوش مصنوعی برای تجزیه و تحلیل سریع یک ماکرو مشکوک در یک صفحه گسترده استفاده کند، در حالی که یک شرکت تولیدی ممکن است برای تشخیص بدافزارهایی که سیستم‌های کنترل صنعتی را هدف قرار می‌دهند، به هوش مصنوعی متکی باشد. با تقویت تجزیه و تحلیل بدافزار سنتی با هوش مصنوعی مولد، سازمان‌ها می‌توانند سریع‌تر و پیشگیرانه‌تر از قبل به کمپین‌های بدافزار پاسخ دهند.

هوش تهدید و تحلیل خودکار

هر روز، سازمان‌ها با داده‌های هوش تهدید بمباران می‌شوند - از فیدهای شاخص‌های تازه کشف‌شده‌ی سازش (IOC) گرفته تا گزارش‌های تحلیلگران در مورد تاکتیک‌های نوظهور هکرها. چالش تیم‌های امنیتی، غربال کردن این سیل اطلاعات و استخراج بینش‌های عملی است. هوش مصنوعی مولد در خودکارسازی تحلیل و مصرف هوش تهدید، . تحلیلگران می‌توانند به جای خواندن دستی ده‌ها گزارش یا ورودی پایگاه داده، از هوش مصنوعی برای خلاصه‌سازی و زمینه‌سازی اطلاعات تهدید با سرعت ماشین استفاده کنند.

هوش تهدید گوگل است که هوش مصنوعی مولد (مدل Gemini) را با گنجینه داده‌های تهدید گوگل از Mandiant و VirusTotal ادغام می‌کند. این هوش مصنوعی «جستجوی محاوره‌ای در مخزن عظیم هوش تهدید گوگل» و به کاربران اجازه می‌دهد تا سوالات طبیعی در مورد تهدیدها بپرسند و پاسخ‌های خلاصه‌شده دریافت کنند ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). به عنوان مثال، یک تحلیلگر می‌تواند بپرسد: «آیا بدافزاری مرتبط با گروه تهدید X دیده‌ایم که صنعت ما را هدف قرار دهد؟» و هوش مصنوعی اطلاعات مرتبط را استخراج می‌کند، شاید به این نکته اشاره کند که «بله، گروه تهدید X ماه گذشته با استفاده از بدافزار Y به یک کمپین فیشینگ مرتبط بوده است» و خلاصه‌ای از رفتار آن بدافزار را ارائه می‌دهد. این امر به طور چشمگیری زمان جمع‌آوری بینش‌هایی را که در غیر این صورت نیاز به پرس‌وجو از چندین ابزار یا خواندن گزارش‌های طولانی داشت، کاهش می‌دهد.

روندهای تهدید را مرتبط و . این هوش مصنوعی ممکن است هزاران پست وبلاگ امنیتی، اخبار نقض امنیتی و گفتگوهای وب تاریک را بررسی کند و سپس خلاصه‌ای از «تهدیدهای سایبری برتر این هفته» را برای جلسه توجیهی یک مدیر ارشد امنیت اطلاعات (CISO) تهیه کند. به طور سنتی، این سطح از تحلیل و گزارش‌دهی به تلاش انسانی قابل توجهی نیاز داشت. اکنون یک مدل تنظیم‌شده می‌تواند آن را در عرض چند ثانیه تهیه کند و انسان‌ها فقط خروجی را اصلاح می‌کنند. شرکت‌هایی مانند ZeroFox، FoxGPT ، یک ابزار هوش مصنوعی مولد که به طور خاص برای «تسریع تحلیل و خلاصه‌سازی اطلاعات در مجموعه داده‌های بزرگ»، از جمله محتوای مخرب و داده‌های فیشینگ طراحی شده است ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). هوش مصنوعی با خودکارسازی عملیات سنگین خواندن و ارجاع متقابل داده‌ها، تیم‌های اطلاعاتی تهدید را قادر می‌سازد تا بر تصمیم‌گیری و پاسخ تمرکز کنند.

یکی دیگر از موارد استفاده، شکار تهدید مکالمه‌ای . تصور کنید یک تحلیلگر امنیتی با یک دستیار هوش مصنوعی تعامل دارد: «نشانه‌ای از خروج داده‌ها در ۴۸ ساعت گذشته به من نشان دهید» یا «مهم‌ترین آسیب‌پذیری‌های جدیدی که مهاجمان این هفته از آنها سوءاستفاده می‌کنند چیست؟» هوش مصنوعی می‌تواند پرس‌وجو را تفسیر کند، گزارش‌های داخلی یا منابع اطلاعاتی خارجی را جستجو کند و با یک پاسخ روشن یا حتی فهرستی از حوادث مرتبط پاسخ دهد. این دور از ذهن نیست - سیستم‌های مدرن مدیریت اطلاعات و رویدادهای امنیتی (SIEM) شروع به گنجاندن پرس‌وجو به زبان طبیعی کرده‌اند. به عنوان مثال، مجموعه امنیتی QRadar شرکت IBM در سال ۲۰۲۴ ویژگی‌های هوش مصنوعی مولد را اضافه می‌کند تا به تحلیلگران اجازه دهد «[سوالات خاصی در مورد مسیر حمله خلاصه شده» یک حادثه بپرسند و پاسخ‌های دقیقی دریافت کنند. همچنین می‌تواند «اطلاعات تهدید بسیار مرتبط را تفسیر و خلاصه کند» ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ ۱۰ مثال در دنیای واقعی ). اساساً، هوش مصنوعی مولد، انبوهی از داده‌های فنی را به بینش‌هایی در حد چت تبدیل می‌کند.

این موضوع در صنایع مختلف، پیامدهای بزرگی دارد. یک ارائه‌دهنده خدمات درمانی می‌تواند از هوش مصنوعی برای به‌روز ماندن در مورد جدیدترین گروه‌های باج‌افزاری که بیمارستان‌ها را هدف قرار می‌دهند، بدون اختصاص دادن یک تحلیلگر به تحقیقات تمام‌وقت، استفاده کند. مرکز عملیات امنیت (SOC) یک شرکت خرده‌فروشی می‌تواند هنگام ارائه گزارش به کارکنان فناوری اطلاعات فروشگاه، به سرعت تاکتیک‌های جدید بدافزارهای POS را خلاصه کند. و در دولت، جایی که داده‌های تهدید از آژانس‌های مختلف باید ترکیب شوند، هوش مصنوعی می‌تواند گزارش‌های یکپارچه‌ای تولید کند که هشدارهای کلیدی را برجسته می‌کند. با خودکارسازی جمع‌آوری و تفسیر اطلاعات تهدید ، هوش مصنوعی مولد به سازمان‌ها کمک می‌کند تا سریع‌تر به تهدیدهای نوظهور واکنش نشان دهند و خطر از دست دادن هشدارهای حیاتی پنهان در میان نویز را کاهش می‌دهد.

بهینه‌سازی مرکز عملیات امنیتی (SOC)

مراکز عملیات امنیتی به دلیل حجم زیاد داده‌ها و هشدارهای خسته‌کننده، بدنام هستند. یک تحلیلگر SOC معمولی ممکن است هر روز هزاران هشدار و رویداد را بررسی کند و حوادث احتمالی را بررسی کند. هوش مصنوعی مولد با خودکارسازی کارهای روزمره، ارائه خلاصه‌های هوشمند و حتی هماهنگ‌سازی برخی پاسخ‌ها، به عنوان یک عامل تقویت‌کننده نیرو در SOCها عمل می‌کند. هدف، بهینه‌سازی گردش‌های کاری SOC است تا تحلیلگران انسانی بتوانند بر مهم‌ترین مسائل تمرکز کنند، در حالی که کمک‌خلبان هوش مصنوعی بقیه را مدیریت می‌کند.

یکی از کاربردهای اصلی، استفاده از هوش مصنوعی مولد به عنوان «کمک خلبان تحلیلگر» . کمک خلبان امنیتی مایکروسافت، که قبلاً به آن اشاره شد، نمونه‌ای از این مورد است: این کمک خلبان «برای کمک به کار تحلیلگر امنیتی طراحی شده است تا جایگزینی آن»، و به تحقیقات و گزارش‌دهی حوادث کمک می‌کند ( کمک خلبان امنیتی مایکروسافت یک دستیار هوش مصنوعی جدید GPT-4 برای امنیت سایبری است | The Verge ). در عمل، این بدان معناست که یک تحلیلگر می‌تواند داده‌های خام - گزارش‌های فایروال، جدول زمانی رویداد یا شرح حادثه - را وارد کند و از هوش مصنوعی بخواهد که آن را تجزیه و تحلیل یا خلاصه کند. کمک خلبان ممکن است روایتی مانند این را ارائه دهد: «به نظر می‌رسد که ساعت 2:35 بامداد، یک ورود مشکوک از IP X به سرور Y با موفقیت انجام شده و به دنبال آن انتقال داده‌های غیرمعمول رخ داده است که نشان‌دهنده نقض احتمالی آن سرور است.» این نوع زمینه‌سازی فوری زمانی که زمان بسیار مهم است، بسیار ارزشمند است.

کمک‌خلبانان هوش مصنوعی همچنین به کاهش بار اولویت‌بندی سطح ۱ کمک می‌کنند. طبق داده‌های صنعت، یک تیم امنیتی می‌تواند ۱۵ ساعت در هفته صرف مرتب‌سازی حدود ۲۲۰۰۰ هشدار و هشدارهای مثبت کاذب کند ( ۶ مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثال‌ها] ). با هوش مصنوعی مولد، بسیاری از این هشدارها می‌توانند به طور خودکار اولویت‌بندی شوند - هوش مصنوعی می‌تواند مواردی را که به وضوح بی‌خطر هستند (با استدلال ارائه شده) رد کند و مواردی را که واقعاً نیاز به توجه دارند برجسته کند، و گاهی اوقات حتی اولویت را پیشنهاد دهد. در واقع، قدرت هوش مصنوعی مولد در درک زمینه به این معنی است که می‌تواند هشدارهایی را که ممکن است به صورت جداگانه بی‌ضرر به نظر برسند اما در کنار هم نشان دهنده یک حمله چند مرحله‌ای باشند، با هم مرتبط کند. این امر احتمال از دست دادن یک حمله به دلیل «خستگی هشدار» را کاهش می‌دهد.

تحلیلگران SOC همچنین از زبان طبیعی با هوش مصنوعی برای سرعت بخشیدن به شکار و تحقیقات استفاده می‌کنند. هوش مصنوعی Purple ، یک رابط مبتنی بر LLM را با داده‌های امنیتی بلادرنگ ترکیب می‌کند و به تحلیلگران اجازه می‌دهد تا «سوالات پیچیده شکار تهدید را به زبان انگلیسی ساده بپرسند و پاسخ‌های سریع و دقیقی دریافت کنند» ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). یک تحلیلگر می‌تواند تایپ کند: «آیا در ماه گذشته هیچ نقطه پایانی با دامنه badguy123[.]com ارتباط برقرار کرده است؟» و Purple AI برای پاسخ دادن، لاگ‌ها را جستجو می‌کند. این امر تحلیلگر را از نوشتن پرس‌وجوها یا اسکریپت‌های پایگاه داده نجات می‌دهد - هوش مصنوعی این کار را در پشت صحنه انجام می‌دهد. همچنین به این معنی است که تحلیلگران جوان می‌توانند وظایفی را انجام دهند که قبلاً به یک مهندس باتجربه و ماهر در زبان‌های پرس‌وجو نیاز داشت و به طور مؤثر تیم را از طریق کمک هوش مصنوعی ارتقا می‌دهد . در واقع، تحلیلگران گزارش می‌دهند که راهنمایی هوش مصنوعی مولد «مهارت‌ها و کارایی آنها را افزایش می‌دهد» ، زیرا کارکنان جوان اکنون می‌توانند از هوش مصنوعی پشتیبانی کدنویسی یا نکات تحلیلی را در صورت نیاز دریافت کنند و وابستگی به درخواست همیشگی کمک از اعضای ارشد تیم را کاهش دهند ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثال‌ها] ).

یکی دیگر از بهینه‌سازی‌های SOC، خلاصه‌سازی و مستندسازی خودکار حادثه . پس از رسیدگی به یک حادثه، شخصی باید گزارش را بنویسد - کاری که بسیاری آن را خسته‌کننده می‌دانند. هوش مصنوعی مولد می‌تواند داده‌های پزشکی قانونی (گزارش‌های سیستم، تجزیه و تحلیل بدافزار، جدول زمانی اقدامات) را دریافت کرده و یک گزارش اولیه از حادثه تولید کند. IBM در حال ایجاد این قابلیت در QRadar است تا با "یک کلیک" خلاصه‌ای از حادثه برای ذینفعان مختلف (مدیران اجرایی، تیم‌های فناوری اطلاعات و غیره) تهیه شود ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). این امر نه تنها در زمان صرفه‌جویی می‌کند، بلکه تضمین می‌کند که هیچ چیز در گزارش نادیده گرفته نمی‌شود، زیرا هوش مصنوعی می‌تواند تمام جزئیات مربوطه را به طور مداوم در بر بگیرد. به همین ترتیب، برای انطباق و حسابرسی، هوش مصنوعی می‌تواند فرم‌ها یا جداول شواهد را بر اساس داده‌های حادثه پر کند.

نتایج دنیای واقعی قانع‌کننده هستند. استفاده‌کنندگان اولیه از SOAR (هماهنگی، اتوماسیون و پاسخ امنیتی) مبتنی بر هوش مصنوعی Swimlane، از افزایش چشمگیر بهره‌وری خبر می‌دهند - به عنوان مثال، Global Data Systems شاهد بود که تیم SecOps آنها حجم پرونده‌های بسیار بیشتری را مدیریت می‌کند؛ یکی از مدیران گفت اتوماسیون مبتنی بر هوش مصنوعی، 20 کارمند را درگیر می‌کند» . به عبارت دیگر، هوش مصنوعی در SOC می‌تواند ظرفیت را چند برابر کند . در صنایع مختلف، چه یک شرکت فناوری باشد که با هشدارهای امنیتی ابری سروکار دارد و چه یک کارخانه تولیدی که سیستم‌های OT را رصد می‌کند، تیم‌های SOC با پذیرش دستیاران هوش مصنوعی مولد، می‌توانند تشخیص و پاسخ سریع‌تر، حوادث از دست رفته کمتر و عملیات کارآمدتر را به دست آورند. این در مورد کار هوشمندانه‌تر است - به ماشین‌ها اجازه می‌دهد تا وظایف تکراری و سنگین داده را انجام دهند تا انسان‌ها بتوانند شهود و تخصص خود را در جایی که بیشترین اهمیت را دارد، به کار گیرند.

مدیریت آسیب‌پذیری و شبیه‌سازی تهدید

شناسایی و مدیریت آسیب‌پذیری‌ها - نقاط ضعف در نرم‌افزارها یا سیستم‌هایی که مهاجمان می‌توانند از آنها سوءاستفاده کنند - یک عملکرد اصلی امنیت سایبری است. هوش مصنوعی مولد با تسریع کشف، کمک به اولویت‌بندی وصله‌ها و حتی شبیه‌سازی حملات به آن آسیب‌پذیری‌ها برای بهبود آمادگی، مدیریت آسیب‌پذیری را بهبود می‌بخشد. در اصل، هوش مصنوعی به سازمان‌ها کمک می‌کند تا سریع‌تر حفره‌های امنیتی خود را پیدا و برطرف کنند و به طور فعال دفاع‌ها را آزمایش کنند.

یکی از کاربردهای مهم، استفاده از هوش مصنوعی مولد برای بررسی خودکار کد و کشف آسیب‌پذیری . پایگاه‌های کد بزرگ (به‌ویژه سیستم‌های قدیمی) اغلب دارای نقص‌های امنیتی هستند که مورد توجه قرار نمی‌گیرند. مدل‌های هوش مصنوعی مولد را می‌توان بر اساس شیوه‌های کدنویسی ایمن و الگوهای رایج باگ آموزش داد، سپس آنها را روی کد منبع یا فایل‌های باینری کامپایل شده پیاده‌سازی کرد تا آسیب‌پذیری‌های بالقوه را پیدا کنند. به عنوان مثال، محققان NVIDIA یک خط لوله هوش مصنوعی مولد ایجاد کردند که می‌تواند کانتینرهای نرم‌افزار قدیمی را تجزیه و تحلیل کند و آسیب‌پذیری‌ها را "با دقت بالا - تا 4 برابر سریع‌تر از متخصصان انسانی" شناسایی کند. ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثال‌ها] ). هوش مصنوعی اساساً یاد گرفت که کد ناامن چگونه به نظر می‌رسد و توانست نرم‌افزارهای چند دهه‌ای را اسکن کند تا توابع و کتابخانه‌های پرخطر را علامت‌گذاری کند و روند معمولاً کند حسابرسی دستی کد را به میزان قابل توجهی سرعت بخشد. این نوع ابزار می‌تواند برای صنایعی مانند امور مالی یا دولتی که به پایگاه‌های کد بزرگ و قدیمی متکی هستند، یک عامل تغییر دهنده بازی باشد - هوش مصنوعی با کشف مسائلی که کارکنان ممکن است ماه‌ها یا سال‌ها برای یافتن آنها (اگر هرگز) زمان صرف کنند، به مدرن‌سازی امنیت کمک می‌کند.

هوش مصنوعی مولد همچنین با پردازش نتایج اسکن آسیب‌پذیری و اولویت‌بندی آنها، به گردش‌های کاری مدیریت آسیب‌پذیری . ابزارهایی مانند ExposureAI از هوش مصنوعی مولد استفاده می‌کنند تا تحلیلگران بتوانند داده‌های آسیب‌پذیری را به زبان ساده جستجو کنند و پاسخ‌های فوری دریافت کنند ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). ExposureAI می‌تواند «مسیر حمله کامل را در یک روایت خلاصه کند» برای یک آسیب‌پذیری بحرانی مشخص، توضیح دهد که چگونه یک مهاجم می‌تواند آن را با سایر نقاط ضعف مرتبط کند تا یک سیستم را به خطر بیندازد. این ابزار حتی اقداماتی را برای اصلاح توصیه می‌کند و به سؤالات بعدی در مورد خطر پاسخ می‌دهد. این بدان معناست که وقتی یک CVE بحرانی جدید (آسیب‌پذیری‌ها و آسیب‌پذیری‌های رایج) اعلام می‌شود، یک تحلیلگر می‌تواند از هوش مصنوعی بپرسد: «آیا هیچ یک از سرورهای ما تحت تأثیر این CVE قرار دارند و بدترین سناریو در صورت عدم به‌روزرسانی چیست؟» و ارزیابی روشنی از داده‌های اسکن خود سازمان دریافت کند. با زمینه‌سازی آسیب‌پذیری‌ها (مثلاً این یکی در معرض اینترنت و روی یک سرور با ارزش بالا قرار دارد، بنابراین اولویت اصلی است)، هوش مصنوعی مولد به تیم‌ها کمک می‌کند تا با منابع محدود، هوشمندانه به‌روزرسانی کنند.

علاوه بر یافتن و مدیریت آسیب‌پذیری‌های شناخته‌شده، هوش مصنوعی مولد در آزمایش نفوذ و شبیه‌سازی حمله - اساساً کشف ناشناخته یا آزمایش کنترل‌های امنیتی - نقش دارد. شبکه‌های مولد تخاصمی (GAN)، نوعی هوش مصنوعی مولد، برای ایجاد داده‌های مصنوعی که ترافیک شبکه واقعی یا رفتار کاربر را تقلید می‌کنند، استفاده شده‌اند که می‌تواند شامل الگوهای حمله پنهان باشد. یک مطالعه در سال 2023 پیشنهاد کرد که از GANها برای تولید ترافیک حمله روز صفر واقع‌بینانه برای آموزش سیستم‌های تشخیص نفوذ استفاده شود ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثال‌ها] ). با تغذیه IDS با سناریوهای حمله ساخته شده توسط هوش مصنوعی (که خطر استفاده از بدافزار واقعی در شبکه‌های تولیدی را ندارند)، سازمان‌ها می‌توانند دفاع خود را برای شناسایی تهدیدات جدید بدون انتظار برای برخورد با آنها در واقعیت آموزش دهند. به طور مشابه، هوش مصنوعی می‌تواند یک مهاجم را در حال کاوش یک سیستم شبیه‌سازی کند - به عنوان مثال، به طور خودکار تکنیک‌های مختلف بهره‌برداری را در یک محیط امن امتحان کند تا ببیند آیا موفق می‌شوند یا خیر. آژانس پروژه‌های تحقیقاتی پیشرفته دفاعی ایالات متحده (DARPA) در اینجا نویدبخش است: چالش سایبری هوش مصنوعی ۲۰۲۳ این آژانس، به صراحت از هوش مصنوعی مولد (مانند مدل‌های زبانی بزرگ) برای «یافتن و رفع خودکار آسیب‌پذیری‌ها در نرم‌افزارهای متن‌باز» به عنوان بخشی از یک مسابقه استفاده می‌کند ( DARPA قصد دارد هوش مصنوعی، برنامه‌های خودمختاری را توسعه دهد که جنگجویان می‌توانند به آنها اعتماد کنند > وزارت دفاع ایالات متحده > اخبار وزارت دفاع ). این ابتکار تأکید می‌کند که هوش مصنوعی فقط به رفع حفره‌های شناخته شده کمک نمی‌کند؛ بلکه به طور فعال حفره‌های جدید را کشف کرده و راه‌حل‌هایی را پیشنهاد می‌دهد، وظیفه‌ای که به طور سنتی محدود به محققان امنیتی ماهر (و پرهزینه) است.

هوش مصنوعی مولد حتی می‌تواند هانی‌پات‌های هوشمند و دوقلوهای دیجیتال را برای دفاع ایجاد کند. استارتاپ‌ها در حال توسعه سیستم‌های طعمه مبتنی بر هوش مصنوعی هستند که به طور قانع‌کننده‌ای سرورها یا دستگاه‌های واقعی را تقلید می‌کنند. همانطور که یکی از مدیران عامل توضیح داد، هوش مصنوعی مولد می‌تواند «سیستم‌های دیجیتال را شبیه‌سازی کند تا از سیستم‌های واقعی تقلید کند و هکرها را به دام بیندازد» ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثال‌ها] ). این هانی‌پات‌های تولید شده توسط هوش مصنوعی مانند محیط واقعی رفتار می‌کنند (مثلاً یک دستگاه اینترنت اشیا جعلی که تله‌متری معمولی ارسال می‌کند) اما صرفاً برای جذب مهاجمان وجود دارند. هنگامی که یک مهاجم طعمه را هدف قرار می‌دهد، هوش مصنوعی اساساً آنها را فریب داده است تا روش‌های خود را آشکار کنند، که مدافعان می‌توانند آنها را مطالعه کرده و برای تقویت سیستم‌های واقعی استفاده کنند. این مفهوم، که توسط مدل‌سازی مولد پشتیبانی می‌شود، روشی آینده‌نگر برای تغییر ورق به نفع مهاجمان ، با استفاده از فریب تقویت‌شده توسط هوش مصنوعی، ارائه می‌دهد.

در صنایع مختلف، مدیریت سریع‌تر و هوشمندانه‌تر آسیب‌پذیری به معنای نقض‌های امنیتی کمتر است. به عنوان مثال، در فناوری اطلاعات مراقبت‌های بهداشتی، هوش مصنوعی ممکن است به سرعت یک کتابخانه آسیب‌پذیر و قدیمی را در یک دستگاه پزشکی شناسایی کند و قبل از اینکه هر مهاجمی از آن سوءاستفاده کند، آن را برطرف کند. در بانکداری، هوش مصنوعی می‌تواند یک حمله داخلی به یک برنامه جدید را شبیه‌سازی کند تا اطمینان حاصل شود که داده‌های مشتری تحت همه سناریوها ایمن باقی می‌مانند. بنابراین، هوش مصنوعی مولد هم به عنوان یک میکروسکوپ و هم یک آزمایش‌کننده استرس برای وضعیت امنیتی سازمان‌ها عمل می‌کند: نقص‌های پنهان را روشن می‌کند و سیستم‌ها را به روش‌های خلاقانه‌ای تحت فشار قرار می‌دهد تا از انعطاف‌پذیری اطمینان حاصل شود.

تولید کد امن و توسعه نرم‌افزار

استعدادهای هوش مصنوعی مولد به تشخیص حملات محدود نمی‌شود - آنها همچنین به ایجاد سیستم‌های امن‌تر از ابتدا . در توسعه نرم‌افزار، مولدهای کد هوش مصنوعی (مانند GitHub Copilot، OpenAI Codex و غیره) می‌توانند با پیشنهاد قطعه کد یا حتی کل توابع، به توسعه‌دهندگان کمک کنند تا سریع‌تر کد بنویسند. زاویه امنیت سایبری، تضمین می‌کند که این قطعات کد پیشنهادی هوش مصنوعی ایمن هستند و از هوش مصنوعی برای بهبود شیوه‌های کدنویسی استفاده می‌کنند.

از یک سو، هوش مصنوعی مولد می‌تواند به عنوان یک دستیار کدنویسی عمل کند که بهترین شیوه‌های امنیتی را در خود جای داده است . توسعه‌دهندگان می‌توانند یک ابزار هوش مصنوعی را فعال کنند، "یک تابع تنظیم مجدد رمز عبور در پایتون ایجاد کنید" و در حالت ایده‌آل کدی را دریافت کنند که نه تنها کاربردی است، بلکه از دستورالعمل‌های ایمن نیز پیروی می‌کند (مثلاً اعتبارسنجی ورودی مناسب، ثبت وقایع، مدیریت خطا بدون نشت اطلاعات و غیره). چنین دستیاری که بر روی نمونه‌های گسترده کد امن آموزش دیده است، می‌تواند به کاهش خطاهای انسانی که منجر به آسیب‌پذیری می‌شوند، کمک کند. به عنوان مثال، اگر یک توسعه‌دهنده فراموش کند که ورودی کاربر را پاکسازی کند (در را برای تزریق SQL یا موارد مشابه باز کند)، یک هوش مصنوعی می‌تواند آن را به طور پیش‌فرض در نظر بگیرد یا به آنها هشدار دهد. برخی از ابزارهای کدنویسی هوش مصنوعی اکنون با داده‌های متمرکز بر امنیت تنظیم می‌شوند تا دقیقاً به همین هدف خدمت کنند - اساساً، برنامه‌نویسی جفتی هوش مصنوعی با وجدان امنیتی .

با این حال، یک روی دیگر سکه هم وجود دارد: هوش مصنوعی مولد اگر به درستی مدیریت نشود، می‌تواند به راحتی آسیب‌پذیری‌هایی را ایجاد کند. همانطور که بن ورشارن، متخصص امنیت سوفوس، اشاره کرد، استفاده از هوش مصنوعی مولد برای کدنویسی «برای کد کوتاه و قابل تأیید خوب است، اما وقتی کد بررسی نشده در سیستم‌های تولیدی ادغام شود، خطرناک است». خطر این است که یک هوش مصنوعی ممکن است کد منطقی صحیحی تولید کند که به گونه‌ای ناامن باشد که یک فرد غیرمتخصص ممکن است متوجه آن نشود. علاوه بر این، بازیگران مخرب می‌توانند با قرار دادن الگوهای کد آسیب‌پذیر (نوعی مسمومیت داده) در مدل‌های هوش مصنوعی عمومی، عمداً بر آنها تأثیر بگذارند، به طوری که هوش مصنوعی کد ناامن را پیشنهاد کند. اکثر توسعه‌دهندگان متخصص امنیت نیستند ، بنابراین اگر یک هوش مصنوعی یک راه‌حل مناسب پیشنهاد کند، ممکن است کورکورانه از آن استفاده کنند، بدون اینکه متوجه شوند که دارای نقص است ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثال‌ها] ). این نگرانی واقعی است - در واقع، اکنون یک لیست 10 مورد برتر OWASP برای LLMها (مدل‌های زبان بزرگ) وجود دارد که خطرات رایج مانند این را در استفاده از هوش مصنوعی برای کدنویسی مشخص می‌کند.

برای مقابله با این مشکلات، کارشناسان پیشنهاد می‌کنند که در حوزه کدنویسی، «با هوش مصنوعی مولد به جنگ هوش مصنوعی مولد بروید» بررسی و آزمایش کدی است که سایر هوش‌های مصنوعی (یا انسان‌ها) نوشته‌اند. یک هوش مصنوعی می‌تواند کدهای جدید را بسیار سریع‌تر از یک بررسی‌کننده کد انسانی اسکن کند و آسیب‌پذیری‌های بالقوه یا مشکلات منطقی را شناسایی کند. ما در حال حاضر شاهد ظهور ابزارهایی هستیم که در چرخه حیات توسعه نرم‌افزار ادغام می‌شوند: کد نوشته می‌شود (شاید با کمک هوش مصنوعی)، سپس یک مدل مولد که بر اساس اصول کد امن آموزش دیده است، آن را بررسی می‌کند و گزارشی از هرگونه نگرانی (مثلاً استفاده از توابع منسوخ شده، بررسی‌های احراز هویت از دست رفته و غیره) تهیه می‌کند. تحقیقات NVIDIA که قبلاً به آن اشاره شد و به تشخیص آسیب‌پذیری ۴ برابر سریع‌تر در کد دست یافت، نمونه‌ای از مهار هوش مصنوعی برای تجزیه و تحلیل کد امن است ( ۶ مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثال‌ها] ).

علاوه بر این، هوش مصنوعی مولد می‌تواند در ایجاد پیکربندی‌ها و اسکریپت‌های امن . به عنوان مثال، اگر شرکتی نیاز به استقرار یک زیرساخت ابری امن داشته باشد، یک مهندس می‌تواند از یک هوش مصنوعی بخواهد اسکریپت‌های پیکربندی (زیرساخت به عنوان کد) را با کنترل‌های امنیتی (مانند تقسیم‌بندی مناسب شبکه، نقش‌های IAM با حداقل امتیاز) که در آن گنجانده شده است، تولید کند. هوش مصنوعی، که بر روی هزاران پیکربندی از این دست آموزش دیده است، می‌تواند یک خط پایه ایجاد کند که سپس مهندس آن را تنظیم دقیق می‌کند. این امر راه‌اندازی ایمن سیستم‌ها را تسریع می‌کند و خطاهای پیکربندی نادرست را کاهش می‌دهد - منبع مشترک حوادث امنیتی ابری.

برخی سازمان‌ها همچنین از هوش مصنوعی مولد برای حفظ پایگاه دانش الگوهای کدنویسی امن استفاده می‌کنند. اگر یک توسعه‌دهنده مطمئن نیست که چگونه یک ویژگی خاص را به صورت ایمن پیاده‌سازی کند، می‌تواند از یک هوش مصنوعی داخلی که از پروژه‌های گذشته و دستورالعمل‌های امنیتی شرکت آموخته است، پرس‌وجو کند. هوش مصنوعی ممکن است یک رویکرد پیشنهادی یا حتی قطعه کدی را که هم با الزامات عملکردی و هم با استانداردهای امنیتی شرکت همسو است، بازگرداند. این رویکرد توسط ابزارهایی مانند اتوماسیون پرسشنامه Secureframe که پاسخ‌ها را از سیاست‌های یک شرکت و راه‌حل‌های گذشته استخراج می‌کند تا پاسخ‌های سازگار و دقیق (اساساً تولید مستندات امن) را تضمین کند ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). این مفهوم به کدنویسی ترجمه می‌شود: هوش مصنوعی که "به یاد می‌آورد" که چگونه قبلاً چیزی را به صورت ایمن پیاده‌سازی کرده‌اید و شما را راهنمایی می‌کند تا دوباره آن را به همان روش انجام دهید.

به طور خلاصه، هوش مصنوعی مولد با در دسترس‌تر کردن کمک به کدنویسی امن، . صنایعی که نرم‌افزارهای سفارشی زیادی - فناوری، مالی، دفاعی و غیره - توسعه می‌دهند، از داشتن دستیاران هوش مصنوعی که نه تنها سرعت کدنویسی را افزایش می‌دهند، بلکه به عنوان یک بررسی‌کننده امنیتی همیشه هوشیار عمل می‌کنند، سود می‌برند. این ابزارهای هوش مصنوعی، در صورت مدیریت صحیح، می‌توانند ورود آسیب‌پذیری‌های جدید را کاهش داده و به تیم‌های توسعه کمک کنند تا به بهترین شیوه‌ها پایبند باشند، حتی اگر تیم در هر مرحله یک متخصص امنیتی نداشته باشد. نتیجه، نرم‌افزاری است که از روز اول در برابر حملات مقاوم‌تر است.

پشتیبانی واکنش به حوادث

وقتی یک حادثه امنیت سایبری رخ می‌دهد - چه شیوع بدافزار، نقض داده‌ها یا قطع سیستم در اثر حمله - زمان بسیار مهم است. هوش مصنوعی مولد به طور فزاینده‌ای برای پشتیبانی از تیم‌های واکنش به حادثه (IR) در مهار و اصلاح سریع‌تر حوادث و با اطلاعات بیشتر در دسترس، مورد استفاده قرار می‌گیرد. ایده این است که هوش مصنوعی می‌تواند بخشی از بار تحقیقات و مستندسازی را در طول یک حادثه بر عهده بگیرد و حتی برخی از اقدامات واکنشی را پیشنهاد یا خودکار کند.

یکی از نقش‌های کلیدی هوش مصنوعی در بازیابی اطلاعات ، تحلیل و خلاصه‌سازی بلادرنگ حوادث . در بحبوحه یک حادثه، پاسخ‌دهندگان ممکن است به پاسخ‌هایی برای سؤالاتی مانند «مهاجم چگونه وارد شده است؟» ، «کدام سیستم‌ها تحت تأثیر قرار گرفته‌اند؟» و «چه داده‌هایی ممکن است به خطر افتاده باشند؟» . هوش مصنوعی مولد می‌تواند گزارش‌ها، هشدارها و داده‌های پزشکی قانونی را از سیستم‌های آسیب‌دیده تجزیه و تحلیل کند و به سرعت بینش‌هایی ارائه دهد. به عنوان مثال، Microsoft Security Copilot به یک پاسخ‌دهنده حادثه اجازه می‌دهد تا شواهد مختلفی (فایل‌ها، URLها، گزارش‌های رویداد) را ارائه دهد و یک جدول زمانی یا خلاصه درخواست کند ( Microsoft Security Copilot یک دستیار هوش مصنوعی جدید GPT-4 برای امنیت سایبری است | The Verge ). هوش مصنوعی ممکن است اینگونه پاسخ دهد: «احتمالاً این نقض امنیتی با یک ایمیل فیشینگ به کاربر JohnDoe در ساعت 10:53 به وقت گرینویچ حاوی بدافزار X آغاز شده است. پس از اجرا، بدافزار یک در پشتی ایجاد کرد که دو روز بعد برای انتقال جانبی به سرور مالی، جایی که داده‌ها را جمع‌آوری می‌کرد، استفاده شد.» داشتن این تصویر منسجم در عرض چند دقیقه به جای چند ساعت، تیم را قادر می‌سازد تا تصمیمات آگاهانه‌ای (مانند اینکه کدام سیستم‌ها باید ایزوله شوند) را بسیار سریع‌تر اتخاذ کند.

هوش مصنوعی مولد همچنین می‌تواند اقدامات مهار و اصلاح را پیشنهاد دهد . به عنوان مثال، اگر یک نقطه پایانی توسط باج‌افزار آلوده شود، یک ابزار هوش مصنوعی می‌تواند یک اسکریپت یا مجموعه‌ای از دستورالعمل‌ها را برای ایزوله کردن آن دستگاه، غیرفعال کردن حساب‌های خاص و مسدود کردن IP های مخرب شناخته شده در فایروال تولید کند - اساساً یک اجرای دستورالعمل. Palo Alto Networks خاطرنشان می‌کند که هوش مصنوعی مولد قادر به "تولید اقدامات یا اسکریپت‌های مناسب بر اساس ماهیت حادثه" و مراحل اولیه پاسخ را خودکار می‌کند ( هوش مصنوعی مولد در امنیت سایبری چیست؟ - Palo Alto Networks ). در سناریویی که تیم امنیتی دچار مشکل شده است (مثلاً یک حمله گسترده در صدها دستگاه)، هوش مصنوعی حتی ممکن است مستقیماً برخی از این اقدامات را تحت شرایط از پیش تأیید شده اجرا کند و مانند یک پاسخ‌دهنده جوان که خستگی‌ناپذیر کار می‌کند، عمل کند. به عنوان مثال، یک عامل هوش مصنوعی می‌تواند به طور خودکار اعتبارنامه‌هایی را که به نظر می‌رسد به خطر افتاده‌اند، بازنشانی کند یا میزبان‌هایی را که فعالیت مخربی مطابق با مشخصات حادثه نشان می‌دهند، قرنطینه کند.

در طول پاسخ به حادثه، ارتباطات حیاتی است - چه در داخل تیم و چه با ذینفعان. هوش مصنوعی مولد می‌تواند با تهیه گزارش‌های به‌روزرسانی حادثه یا خلاصه‌های فوری . به جای اینکه یک مهندس عیب‌یابی خود را برای نوشتن یک به‌روزرسانی ایمیل متوقف کند، می‌تواند از هوش مصنوعی بپرسد: «خلاصه‌ای از آنچه تاکنون در این حادثه اتفاق افتاده است را برای اطلاع مدیران ارائه دهید.» هوش مصنوعی، پس از دریافت داده‌های حادثه، می‌تواند خلاصه‌ای مختصر ارائه دهد: «تا ساعت 3 بعد از ظهر، مهاجمان به 2 حساب کاربری و 5 سرور دسترسی پیدا کرده‌اند. داده‌های آسیب‌دیده شامل سوابق مشتری در پایگاه داده X است. اقدامات مهار: دسترسی VPN برای حساب‌های آسیب‌دیده لغو شده و سرورها ایزوله شده‌اند. مراحل بعدی: اسکن هرگونه مکانیسم پایداری.» سپس پاسخ‌دهنده می‌تواند به سرعت این را تأیید یا اصلاح کند و آن را ارسال کند و اطمینان حاصل کند که ذینفعان با اطلاعات دقیق و به‌روز در جریان امور قرار می‌گیرند.

پس از فروکش کردن گرد و غبار، معمولاً یک گزارش حادثه دقیق برای تهیه و درس‌های آموخته شده برای گردآوری وجود دارد. این حوزه دیگری است که پشتیبانی هوش مصنوعی در آن می‌درخشد. این فناوری می‌تواند تمام داده‌های حادثه را بررسی کرده و یک گزارش پس از حادثه شامل علت اصلی، وقایع‌نگاری، تأثیر و توصیه‌ها ایجاد کند. به عنوان مثال، IBM در حال ادغام هوش مصنوعی مولد است تا با فشار یک دکمه «خلاصه‌های ساده‌ای از موارد امنیتی و حوادثی که می‌توانند با ذینفعان به اشتراک گذاشته شوند» چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). با ساده‌سازی گزارش‌های پس از اقدام، سازمان‌ها می‌توانند سریع‌تر بهبودها را پیاده‌سازی کنند و همچنین مستندات بهتری برای اهداف انطباق داشته باشند.

یکی از کاربردهای نوآورانه و آینده‌نگر، شبیه‌سازی‌های حادثه مبتنی بر هوش مصنوعی . مشابه نحوه اجرای مانور آتش‌نشانی، برخی از شرکت‌ها از هوش مصنوعی مولد برای اجرای سناریوهای حادثه «چه می‌شود اگر» استفاده می‌کنند. هوش مصنوعی ممکن است شبیه‌سازی کند که چگونه یک باج‌افزار ممکن است با توجه به طرح شبکه گسترش یابد، یا چگونه یک نفوذی می‌تواند داده‌ها را استخراج کند، و سپس اثربخشی برنامه‌های واکنش فعلی را ارزیابی کند. این به تیم‌ها کمک می‌کند تا قبل از وقوع یک حادثه واقعی، دستورالعمل‌ها را آماده و اصلاح کنند. مانند داشتن یک مشاور واکنش به حادثه است که دائماً آمادگی شما را آزمایش می‌کند.

در صنایع پرریسک مانند امور مالی یا مراقبت‌های بهداشتی، که در آن‌ها خرابی یا از دست دادن داده‌ها در اثر حوادث بسیار پرهزینه است، این قابلیت‌های بازیابی اطلاعات مبتنی بر هوش مصنوعی بسیار جذاب هستند. بیمارستانی که دچار یک حادثه سایبری می‌شود، نمی‌تواند از پس قطعی طولانی مدت سیستم برآید - هوش مصنوعی که به سرعت در مهار آن کمک کند، می‌تواند به معنای واقعی کلمه نجات‌بخش باشد. به طور مشابه، یک موسسه مالی می‌تواند از هوش مصنوعی برای رسیدگی به تریاژ اولیه یک حمله مشکوک به کلاهبرداری در ساعت ۳ بامداد استفاده کند، به طوری که تا زمانی که افراد حاضر در محل آنلاین می‌شوند، بسیاری از کارهای مقدماتی (خروج از حساب‌های آسیب‌دیده، مسدود کردن تراکنش‌ها و غیره) از قبل انجام شده باشد. با تقویت تیم‌های واکنش به حادثه با هوش مصنوعی مولد ، سازمان‌ها می‌توانند زمان پاسخگویی را به میزان قابل توجهی کاهش داده و دقت رسیدگی خود را بهبود بخشند و در نهایت آسیب‌های ناشی از حوادث سایبری را کاهش دهند.

تجزیه و تحلیل رفتاری و تشخیص ناهنجاری

بسیاری از حملات سایبری را می‌توان با توجه به انحراف چیزی از رفتار «عادی» تشخیص داد - چه دانلود حجم غیرمعمولی از داده‌ها توسط یک حساب کاربری باشد و چه ارتباط ناگهانی یک دستگاه شبکه با یک میزبان ناآشنا. هوش مصنوعی مولد تکنیک‌های پیشرفته‌ای را برای تحلیل رفتاری و تشخیص ناهنجاری ، الگوهای عادی کاربران و سیستم‌ها را یاد می‌گیرد و سپس در صورت بروز هرگونه مشکل، آن را علامت‌گذاری می‌کند.

تشخیص ناهنجاری سنتی اغلب از آستانه‌های آماری یا یادگیری ماشینی ساده بر روی معیارهای خاص (افزایش ناگهانی مصرف CPU، ورود به سیستم در ساعات نامناسب و غیره) استفاده می‌کند. هوش مصنوعی مولد می‌تواند با ایجاد پروفایل‌های رفتاری ظریف‌تر، این کار را فراتر ببرد. به عنوان مثال، یک مدل هوش مصنوعی می‌تواند ورودها، الگوهای دسترسی به فایل‌ها و عادات ایمیل یک کارمند را در طول زمان دریافت کند و درک چندبعدی از «عادی» آن کاربر ایجاد کند. اگر آن حساب بعداً کاری به شدت خارج از هنجار خود انجام دهد (مانند ورود از یک کشور جدید و دسترسی به مجموعه‌ای از فایل‌های منابع انسانی در نیمه‌شب)، هوش مصنوعی انحراف را نه تنها در یک معیار، بلکه به عنوان یک الگوی رفتاری کلی که با نمایه کاربر مطابقت ندارد، تشخیص می‌دهد. از نظر فنی، مدل‌های مولد (مانند رمزگذارهای خودکار یا مدل‌های توالی) می‌توانند آنچه را که «عادی» به نظر می‌رسد مدل‌سازی کنند و سپس طیف وسیعی از رفتار مورد انتظار را ایجاد کنند. وقتی واقعیت خارج از آن محدوده قرار می‌گیرد، به عنوان یک ناهنجاری علامت‌گذاری می‌شود ( هوش مصنوعی مولد در امنیت سایبری چیست؟ - شبکه‌های پالو آلتو ).

یکی از کاربردهای عملی آن در نظارت بر ترافیک شبکه . طبق یک نظرسنجی در سال ۲۰۲۴، ۵۴٪ از سازمان‌های آمریکایی، نظارت بر ترافیک شبکه را به عنوان یکی از موارد استفاده برتر هوش مصنوعی در امنیت سایبری ذکر کردند ( آمریکای شمالی: موارد استفاده برتر هوش مصنوعی در امنیت سایبری در سراسر جهان در سال ۲۰۲۴ ). هوش مصنوعی مولد می‌تواند الگوهای ارتباطی عادی شبکه یک سازمان را یاد بگیرد - اینکه کدام سرورها معمولاً با یکدیگر صحبت می‌کنند، چه حجمی از داده‌ها در ساعات کاری در مقابل شب جابجا می‌شوند و غیره. اگر یک مهاجم شروع به استخراج داده‌ها از یک سرور کند، حتی به آرامی برای جلوگیری از شناسایی، یک سیستم مبتنی بر هوش مصنوعی ممکن است متوجه شود که "سرور A هرگز ۵۰۰ مگابایت داده را در ساعت ۲ بامداد به یک IP خارجی ارسال نمی‌کند" و هشداری را اعلام کند. از آنجا که هوش مصنوعی فقط از قوانین ایستا استفاده نمی‌کند، بلکه از یک مدل در حال تکامل از رفتار شبکه استفاده می‌کند، می‌تواند ناهنجاری‌های ظریفی را که قوانین ایستا (مانند "هشدار اگر داده > X مگابایت") ممکن است از دست بدهند یا به اشتباه علامت‌گذاری کنند، تشخیص دهد. این ماهیت تطبیقی ​​همان چیزی است که تشخیص ناهنجاری مبتنی بر هوش مصنوعی را در محیط‌هایی مانند شبکه‌های تراکنش بانکی، زیرساخت‌های ابری یا ناوگان دستگاه‌های IoT قدرتمند می‌کند، جایی که تعریف قوانین ثابت برای عادی در مقابل غیرعادی بسیار پیچیده است.

تجزیه و تحلیل رفتار کاربر (UBA) کمک می‌کند ، که کلید تشخیص تهدیدات داخلی یا حساب‌های کاربری در معرض خطر است. با ایجاد یک خط پایه از هر کاربر یا نهاد، هوش مصنوعی می‌تواند مواردی مانند سوءاستفاده از اعتبارنامه را تشخیص دهد. به عنوان مثال، اگر باب از بخش حسابداری ناگهان شروع به پرس و جو از پایگاه داده مشتری کند (کاری که قبلاً هرگز انجام نداده بود)، مدل هوش مصنوعی برای رفتار باب، این را به عنوان غیرمعمول علامت‌گذاری می‌کند. ممکن است بدافزار نباشد - می‌تواند موردی از سرقت و استفاده از اعتبارنامه‌های باب توسط یک مهاجم باشد، یا باب در جایی که نباید، کاوش می‌کند. در هر صورت، تیم امنیتی برای بررسی، هشدار دریافت می‌کند. چنین سیستم‌های UBA مبتنی بر هوش مصنوعی در محصولات امنیتی مختلف وجود دارند و تکنیک‌های مدل‌سازی مولد با در نظر گرفتن زمینه (شاید باب در یک پروژه خاص است و غیره، که هوش مصنوعی گاهی اوقات می‌تواند از داده‌های دیگر استنباط کند) دقت خود را افزایش داده و هشدارهای کاذب را کاهش می‌دهند.

در حوزه مدیریت هویت و دسترسی، تشخیص دیپ‌فیک یک نیاز رو به رشد است - هوش مصنوعی مولد می‌تواند صداها و ویدیوهای مصنوعی ایجاد کند که امنیت بیومتریک را فریب می‌دهد. جالب اینجاست که هوش مصنوعی مولد همچنین می‌تواند با تجزیه و تحلیل مصنوعات ظریف در صدا یا تصویر که برای انسان دشوار است، به تشخیص این دیپ‌فیک‌ها کمک کند. ما نمونه‌ای را با Accenture دیدیم که از هوش مصنوعی مولد برای شبیه‌سازی حالات و شرایط بی‌شماری از چهره برای آموزش سیستم‌های بیومتریک خود برای تشخیص کاربران واقعی از دیپ‌فیک‌های تولید شده توسط هوش مصنوعی استفاده کرد. طی پنج سال، این رویکرد به Accenture کمک کرد تا رمزهای عبور را برای 90٪ از سیستم‌های خود حذف کند (به سمت بیومتریک و سایر عوامل حرکت کند) و حملات را 60٪ کاهش دهد ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثال‌ها] ). اساساً، آنها از هوش مصنوعی مولد برای تقویت احراز هویت بیومتریک استفاده کردند و آن را در برابر حملات مولد مقاوم ساختند (یک نمونه عالی از هوش مصنوعی در برابر هوش مصنوعی). این نوع مدل‌سازی رفتاری - در این مورد تشخیص تفاوت بین چهره زنده انسان در مقابل چهره مصنوعی ساخته شده توسط هوش مصنوعی - بسیار مهم است زیرا ما در احراز هویت بیشتر به هوش مصنوعی متکی هستیم.

تشخیص ناهنجاری که توسط هوش مصنوعی مولد ارائه می‌شود، در صنایع مختلف قابل اجرا است: در مراقبت‌های بهداشتی، نظارت بر رفتار دستگاه‌های پزشکی برای یافتن نشانه‌های هک؛ در امور مالی، نظارت بر سیستم‌های معاملاتی برای یافتن الگوهای نامنظم که می‌تواند نشان‌دهنده کلاهبرداری یا دستکاری الگوریتمی باشد؛ در انرژی/خدمات رفاهی، مشاهده سیگنال‌های سیستم کنترل برای یافتن نشانه‌های نفوذ. ترکیب وسعت (نگاه کردن به تمام جنبه‌های رفتار) و عمق (درک الگوهای پیچیده) که هوش مصنوعی مولد ارائه می‌دهد، آن را به ابزاری قدرتمند برای تشخیص نشانه‌های یک حادثه سایبری تبدیل می‌کند. با پنهان شدن تهدیدات در میان عملیات عادی، این توانایی برای توصیف دقیق «عادی» و فریاد زدن هنگام انحراف، حیاتی می‌شود. بنابراین، هوش مصنوعی مولد به عنوان یک نگهبان خستگی‌ناپذیر عمل می‌کند، همیشه در حال یادگیری و به‌روزرسانی تعریف خود از عادی بودن است تا با تغییرات محیط همگام باشد و تیم‌های امنیتی را از ناهنجاری‌هایی که نیاز به بررسی دقیق‌تر دارند، آگاه کند.

فرصت‌ها و مزایای هوش مصنوعی مولد در امنیت سایبری

کاربرد هوش مصنوعی مولد در امنیت سایبری، فرصت‌ها و مزایای برای سازمان‌هایی که مایل به پذیرش این ابزارها هستند، به ارمغان می‌آورد. در زیر، مزایای کلیدی که هوش مصنوعی مولد را به یک افزودنی جذاب برای برنامه‌های امنیت سایبری تبدیل می‌کند، خلاصه می‌کنیم:

  • تشخیص و پاسخ سریع‌تر به تهدید: سیستم‌های هوش مصنوعی مولد می‌توانند حجم عظیمی از داده‌ها را در زمان واقعی تجزیه و تحلیل کنند و تهدیدها را بسیار سریع‌تر از تجزیه و تحلیل دستی انسان تشخیص دهند. این مزیت سرعت به معنای تشخیص زودهنگام حملات و مهار سریع‌تر حادثه است. در عمل، نظارت امنیتی مبتنی بر هوش مصنوعی می‌تواند تهدیدهایی را که برای انسان بسیار طولانی‌تر است، شناسایی کند. با پاسخ سریع به حوادث (یا حتی اجرای خودکار پاسخ‌های اولیه)، سازمان‌ها می‌توانند زمان حضور مهاجمان در شبکه‌های خود را به طور چشمگیری کاهش دهند و آسیب را به حداقل برسانند.

  • بهبود دقت و پوشش تهدید: از آنجا که مدل‌های مولد به طور مداوم از داده‌های جدید یاد می‌گیرند، می‌توانند با تهدیدهای در حال تکامل سازگار شوند و نشانه‌های ظریف‌تری از فعالیت‌های مخرب را تشخیص دهند. این امر منجر به بهبود دقت تشخیص (کاهش منفی کاذب و مثبت کاذب) در مقایسه با قوانین ایستا می‌شود. به عنوان مثال، یک هوش مصنوعی که نشانه‌های یک ایمیل فیشینگ یا رفتار بدافزار را یاد گرفته است، می‌تواند انواعی را که قبلاً هرگز دیده نشده بودند، شناسایی کند. نتیجه، پوشش گسترده‌تری از انواع تهدید - از جمله حملات جدید - است که وضعیت کلی امنیت را تقویت می‌کند. تیم‌های امنیتی همچنین از تجزیه و تحلیل هوش مصنوعی (مثلاً توضیحات رفتار بدافزار) بینش دقیقی به دست می‌آورند و امکان دفاع دقیق‌تر و هدفمندتر را فراهم می‌کنند ( هوش مصنوعی مولد در امنیت سایبری چیست؟ - شبکه‌های پالو آلتو ).

  • خودکارسازی وظایف تکراری: هوش مصنوعی مولد در خودکارسازی وظایف امنیتی روتین و پرزحمت - از بررسی لاگ‌ها و گردآوری گزارش‌ها گرفته تا نوشتن اسکریپت‌های پاسخ به حادثه - عالی عمل می‌کند. این خودکارسازی، بار تحلیلگران انسانی را کاهش می‌دهد و آنها را آزاد می‌کند تا بر استراتژی سطح بالا و تصمیم‌گیری‌های پیچیده تمرکز کنند ( هوش مصنوعی مولد در امنیت سایبری چیست؟ - شبکه‌های پالو آلتو ). کارهای روزمره اما مهم مانند اسکن آسیب‌پذیری، حسابرسی پیکربندی، تجزیه و تحلیل فعالیت کاربر و گزارش انطباق را می‌توان توسط هوش مصنوعی انجام داد (یا حداقل از ابتدا طراحی کرد). با انجام این وظایف با سرعت ماشین، هوش مصنوعی نه تنها کارایی را بهبود می‌بخشد، بلکه خطای انسانی (عامل مهمی در نقض‌ها) را نیز کاهش می‌دهد.

  • دفاع و شبیه‌سازی پیشگیرانه: هوش مصنوعی مولد به سازمان‌ها اجازه می‌دهد تا از امنیت واکنشی به امنیت پیشگیرانه تغییر کنند. از طریق تکنیک‌هایی مانند شبیه‌سازی حمله، تولید داده‌های مصنوعی و آموزش مبتنی بر سناریو، مدافعان می‌توانند تهدیدات را قبل از وقوع در دنیای واقعی پیش‌بینی و برای آنها آماده شوند. تیم‌های امنیتی می‌توانند حملات سایبری (کمپین‌های فیشینگ، شیوع بدافزارها، DDoS و غیره) را در محیط‌های امن شبیه‌سازی کنند تا پاسخ‌های خود را آزمایش کرده و هرگونه ضعف را برطرف کنند. این آموزش مداوم، که اغلب انجام کامل آن فقط با تلاش انسانی غیرممکن است، دفاع‌ها را تیز و به‌روز نگه می‌دارد. این شبیه به یک "تمرین آتش" سایبری است - هوش مصنوعی می‌تواند تهدیدهای فرضی زیادی را به سمت دفاع شما پرتاب کند تا بتوانید تمرین کرده و بهبود یابید.

  • افزایش تخصص انسانی (هوش مصنوعی به عنوان یک تقویت‌کننده نیرو): هوش مصنوعی مولد به عنوان یک تحلیلگر، مشاور و دستیار خستگی‌ناپذیر در یک واحد عمل می‌کند. این هوش مصنوعی می‌تواند به اعضای کم‌تجربه‌تر تیم، راهنمایی و توصیه‌هایی را که معمولاً از متخصصان باتجربه انتظار می‌رود، ارائه دهد و به طور مؤثر تخصص را در سراسر تیم دموکراتیزه کند ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثال‌ها] ). این امر به ویژه با توجه به کمبود استعداد در امنیت سایبری ارزشمند است - هوش مصنوعی به تیم‌های کوچک‌تر کمک می‌کند تا با کمترین هزینه، کار بیشتری انجام دهند. از سوی دیگر، تحلیلگران باتجربه از مدیریت کارهای طاقت‌فرسا توسط هوش مصنوعی و آشکار کردن بینش‌های غیرواضح بهره‌مند می‌شوند که می‌توانند آنها را اعتبارسنجی کرده و بر اساس آنها عمل کنند. نتیجه کلی، یک تیم امنیتی است که بسیار پربارتر و توانمندتر است و هوش مصنوعی تأثیر هر عضو انسانی را تقویت می‌کند ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد ).

  • پشتیبانی و گزارش‌دهی پیشرفته از تصمیم‌گیری: هوش مصنوعی مولد با ترجمه داده‌های فنی به بینش‌های زبان طبیعی، ارتباطات و تصمیم‌گیری را بهبود می‌بخشد. رهبران امنیتی از طریق خلاصه‌های تولید شده توسط هوش مصنوعی، دید واضح‌تری نسبت به مسائل پیدا می‌کنند و می‌توانند بدون نیاز به تجزیه داده‌های خام، تصمیمات استراتژیک آگاهانه‌ای بگیرند. به همین ترتیب، ارتباطات بین بخشی (با مدیران، مسئولین انطباق و غیره) زمانی بهبود می‌یابد که هوش مصنوعی گزارش‌های قابل فهمی از وضعیت امنیتی و حوادث تهیه کند ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). این امر نه تنها باعث ایجاد اعتماد و هماهنگی در مورد مسائل امنیتی در سطح رهبری می‌شود، بلکه با بیان واضح خطرات و شکاف‌های کشف شده توسط هوش مصنوعی، به توجیه سرمایه‌گذاری‌ها و تغییرات نیز کمک می‌کند.

در مجموع، این مزایا به این معنی است که سازمان‌هایی که از هوش مصنوعی مولد در امنیت سایبری استفاده می‌کنند، می‌توانند با هزینه‌های عملیاتی بالقوه پایین‌تر، به وضعیت امنیتی قوی‌تری دست یابند. آن‌ها می‌توانند به تهدیدهایی که قبلاً طاقت‌فرسا بودند، پاسخ دهند، شکاف‌هایی را که تحت نظارت نبودند، پوشش دهند و از طریق حلقه‌های بازخورد مبتنی بر هوش مصنوعی، به طور مداوم بهبود یابند. در نهایت، هوش مصنوعی مولد با تطبیق سرعت ، مقیاس و پیچیدگی حملات مدرن با دفاع‌های به همان اندازه پیچیده، فرصتی برای پیشی گرفتن از دشمنان ارائه می‌دهد. همانطور که یک نظرسنجی نشان داد، بیش از نیمی از رهبران کسب‌وکار و سایبری پیش‌بینی می‌کنند که از طریق استفاده از هوش مصنوعی مولد، تشخیص سریع‌تر تهدید و افزایش دقت انجام شود ( [PDF] چشم‌انداز امنیت سایبری جهانی 2025 | مجمع جهانی اقتصاد ) ( هوش مصنوعی مولد در امنیت سایبری: بررسی جامع LLM ... ) - گواهی بر خوش‌بینی در مورد مزایای این فناوری‌ها.

خطرات و چالش‌های استفاده از هوش مصنوعی مولد در امنیت سایبری

اگرچه فرصت‌ها قابل توجه هستند، اما بسیار مهم است که با چشمانی باز به خطرات و چالش‌های موجود در امنیت سایبری به هوش مصنوعی مولد نزدیک شویم. اعتماد کورکورانه به هوش مصنوعی یا سوءاستفاده از آن می‌تواند آسیب‌پذیری‌های جدیدی را ایجاد کند. در زیر، نگرانی‌ها و مشکلات اصلی را به همراه زمینه برای هر یک شرح می‌دهیم:

  • استفاده خصمانه توسط مجرمان سایبری: همان قابلیت‌های تولیدی که به مدافعان کمک می‌کند، می‌تواند مهاجمان را نیز توانمند سازد. عاملان تهدید در حال حاضر از هوش مصنوعی تولیدی برای ایجاد ایمیل‌های فیشینگ قانع‌کننده‌تر، ایجاد شخصیت‌های جعلی و ویدیوهای دیپ‌فیک برای مهندسی اجتماعی، توسعه بدافزارهای چندریختی که دائماً برای فرار از تشخیص تغییر می‌کنند و حتی خودکارسازی جنبه‌های هک استفاده می‌کنند ( هوش مصنوعی تولیدی در امنیت سایبری چیست؟ - شبکه‌های پالو آلتو ). تقریباً نیمی (46٪) از رهبران امنیت سایبری نگران این هستند که هوش مصنوعی تولیدی منجر به حملات خصمانه پیشرفته‌تری شود ( امنیت هوش مصنوعی تولیدی: روندها، تهدیدها و استراتژی‌های کاهش ). این «مسابقه تسلیحاتی هوش مصنوعی» به این معنی است که با پذیرش هوش مصنوعی توسط مدافعان، مهاجمان خیلی عقب نخواهند ماند (در واقع، آنها ممکن است در برخی زمینه‌ها با استفاده از ابزارهای هوش مصنوعی تنظیم نشده، جلوتر باشند). سازمان‌ها باید برای تهدیدات تقویت‌شده با هوش مصنوعی که مکررتر، پیچیده‌تر و ردیابی آنها دشوار است، آماده باشند.

  • توهمات و عدم دقت هوش مصنوعی: مدل‌های هوش مصنوعی مولد می‌توانند خروجی‌هایی تولید کنند که قابل قبول اما نادرست یا گمراه‌کننده - پدیده‌ای که به عنوان توهم شناخته می‌شود. در زمینه امنیتی، یک هوش مصنوعی ممکن است یک حادثه را تجزیه و تحلیل کند و به اشتباه نتیجه بگیرد که یک آسیب‌پذیری خاص علت آن بوده است، یا ممکن است یک اسکریپت اصلاح ناقص ایجاد کند که نتواند حمله را مهار کند. اگر این اشتباهات به صورت ظاهری در نظر گرفته شوند، می‌توانند خطرناک باشند. همانطور که NTT Data هشدار می‌دهد، "هوش مصنوعی مولد ممکن است به طور قابل قبولی محتوای نادرستی را تولید کند و این پدیده توهم نامیده می‌شود... در حال حاضر حذف کامل آنها دشوار است" ( خطرات امنیتی هوش مصنوعی مولد و اقدامات متقابل و تأثیر آن بر امنیت سایبری | گروه NTT DATA ). اتکای بیش از حد به هوش مصنوعی بدون تأیید می‌تواند منجر به تلاش‌های نادرست یا احساس امنیت کاذب شود. به عنوان مثال، یک هوش مصنوعی ممکن است یک سیستم حیاتی را به اشتباه به عنوان ایمن علامت‌گذاری کند در حالی که اینطور نیست، یا برعکس، با "تشخیص" نقضی که هرگز اتفاق نیفتاده است، باعث ایجاد وحشت شود. اعتبارسنجی دقیق خروجی‌های هوش مصنوعی و مشارکت دادن انسان‌ها در تصمیم‌گیری‌های حیاتی برای کاهش این خطر ضروری است.

  • مثبت و منفی کاذب: در رابطه با توهمات، اگر یک مدل هوش مصنوعی به طور ضعیف آموزش دیده یا پیکربندی شده باشد، ممکن است فعالیت خوش‌خیم را بیش از حد به عنوان فعالیت مخرب گزارش کند (مثبت کاذب) یا بدتر از آن، تهدیدهای واقعی را از دست بدهد (منفی کاذب) ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد ). هشدارهای کاذب بیش از حد می‌تواند تیم‌های امنیتی را تحت الشعاع قرار دهد و منجر به خستگی ناشی از هشدار شود (که همان افزایش بهره‌وری وعده داده شده توسط هوش مصنوعی را خنثی می‌کند)، در حالی که تشخیص‌های از دست رفته، سازمان را در معرض خطر قرار می‌دهد. تنظیم مدل‌های مولد برای تعادل مناسب چالش برانگیز است. هر محیط منحصر به فرد است و یک هوش مصنوعی ممکن است بلافاصله به طور بهینه و خارج از چارچوب عمل نکند. یادگیری مداوم نیز یک شمشیر دولبه است - اگر هوش مصنوعی از بازخوردی که منحرف شده یا از محیطی که تغییر می‌کند یاد بگیرد، دقت آن می‌تواند نوسان کند. تیم‌های امنیتی باید عملکرد هوش مصنوعی را رصد کنند و آستانه‌ها را تنظیم کنند یا بازخورد اصلاحی به مدل‌ها ارائه دهند. در زمینه‌های حساس (مانند تشخیص نفوذ برای زیرساخت‌های حیاتی)، شاید عاقلانه باشد که پیشنهادهای هوش مصنوعی برای مدتی به موازات سیستم‌های موجود اجرا شوند تا اطمینان حاصل شود که آنها به جای تضاد، با هم هماهنگ و مکمل هستند.

  • حریم خصوصی و نشت داده‌ها: سیستم‌های هوش مصنوعی مولد اغلب برای آموزش و بهره‌برداری به حجم زیادی از داده‌ها نیاز دارند. اگر این مدل‌ها مبتنی بر ابر باشند یا به درستی سیلو نشده باشند، خطر نشت اطلاعات حساس وجود دارد. کاربران ممکن است سهواً داده‌های اختصاصی یا داده‌های شخصی را به یک سرویس هوش مصنوعی وارد کنند (فکر کنید از ChatGPT بخواهید یک گزارش حادثه محرمانه را خلاصه کند) و آن داده‌ها می‌توانند بخشی از دانش مدل شوند. در واقع، یک مطالعه اخیر نشان داد که ۵۵٪ از ورودی‌های ابزارهای هوش مصنوعی مولد حاوی اطلاعات حساس یا قابل شناسایی شخصی هستند که نگرانی‌های جدی در مورد نشت داده‌ها ایجاد می‌کند ( امنیت هوش مصنوعی مولد: روندها، تهدیدها و استراتژی‌های کاهش ). علاوه بر این، اگر یک هوش مصنوعی بر اساس داده‌های داخلی آموزش دیده باشد و به روش‌های خاصی مورد پرسش قرار گیرد، ممکن است ارسال کند . سازمان‌ها باید سیاست‌های سختگیرانه‌ای در مورد مدیریت داده‌ها (مثلاً استفاده از نمونه‌های هوش مصنوعی داخلی یا خصوصی برای مطالب حساس) اجرا کنند و به کارمندان در مورد عدم چسباندن اطلاعات محرمانه به ابزارهای هوش مصنوعی عمومی آموزش دهند. مقررات حفظ حریم خصوصی (GDPR و غیره) نیز وارد عمل می‌شوند - استفاده از داده‌های شخصی برای آموزش هوش مصنوعی بدون رضایت یا حفاظت مناسب می‌تواند مغایر با قوانین باشد.

  • امنیت مدل و دستکاری: مدل‌های هوش مصنوعی مولد خود می‌توانند به هدف تبدیل شوند. دشمنان ممکن است در طول مرحله آموزش یا بازآموزی، با تغذیه داده‌های مخرب یا گمراه‌کننده، مسموم کردن مدل چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد ). به عنوان مثال، یک مهاجم ممکن است به طور نامحسوس داده‌های اطلاعاتی تهدیدآمیز را مسموم کند تا هوش مصنوعی نتواند بدافزار خود مهاجم را به عنوان مخرب تشخیص دهد. تاکتیک دیگر، تزریق سریع یا دستکاری خروجی است، جایی که یک مهاجم راهی برای صدور ورودی به هوش مصنوعی پیدا می‌کند که باعث می‌شود به روش‌های ناخواسته رفتار کند - شاید برای نادیده گرفتن محافظ‌های ایمنی آن یا فاش کردن اطلاعاتی که نباید (مانند اعلان‌ها یا داده‌های داخلی) باشد. علاوه بر این، خطر فرار از مدل : مهاجمان ورودی‌هایی را ایجاد می‌کنند که به طور خاص برای فریب هوش مصنوعی طراحی شده‌اند. ما این را در نمونه‌های خصمانه می‌بینیم - داده‌های کمی آشفته که انسان آنها را طبیعی می‌بیند اما هوش مصنوعی آنها را به اشتباه طبقه‌بندی می‌کند. اطمینان از ایمن بودن زنجیره تأمین هوش مصنوعی (یکپارچگی داده‌ها، کنترل دسترسی مدل، آزمایش مقاومت خصمانه) بخش جدید اما ضروری امنیت سایبری هنگام استقرار این ابزارها است ( هوش مصنوعی مولد در امنیت سایبری چیست؟ - شبکه‌های پالو آلتو ).

  • اتکای بیش از حد و فرسایش مهارت: خطر ملایم‌تری وجود دارد که سازمان‌ها می‌توانند بیش از حد به هوش مصنوعی متکی شوند و اجازه دهند مهارت‌های انسانی تحلیل بروند. اگر تحلیلگران جوان کورکورانه به خروجی‌های هوش مصنوعی اعتماد کنند، ممکن است تفکر انتقادی و شهود لازم برای زمانی که هوش مصنوعی در دسترس نیست یا اشتباه می‌کند را توسعه ندهند. سناریویی که باید از آن اجتناب کرد، یک تیم امنیتی است که ابزارهای عالی دارد اما نمی‌داند در صورت از کار افتادن آن ابزارها چگونه عمل کند (شبیه به خلبانانی که بیش از حد به خلبان خودکار متکی هستند). تمرین‌های آموزشی منظم بدون کمک هوش مصنوعی و پرورش این طرز فکر که هوش مصنوعی یک دستیار است، نه یک پیشگوی مصون از خطا، برای تیزهوش نگه داشتن تحلیلگران انسانی مهم است. انسان‌ها باید تصمیم‌گیرندگان نهایی باقی بمانند، به خصوص برای قضاوت‌های با تأثیر بالا.

  • چالش‌های اخلاقی و انطباق: استفاده از هوش مصنوعی در امنیت سایبری، سوالات اخلاقی را مطرح می‌کند و می‌تواند منجر به مسائل مربوط به انطباق با مقررات شود. به عنوان مثال، اگر یک سیستم هوش مصنوعی به اشتباه یک کارمند را به دلیل یک ناهنجاری به عنوان یک عامل داخلی مخرب معرفی کند، می‌تواند به ناحق به اعتبار یا شغل آن شخص آسیب برساند. تصمیمات گرفته شده توسط هوش مصنوعی می‌تواند مبهم باشد (مشکل "جعبه سیاه")، و توضیح دلیل انجام برخی اقدامات را برای حسابرسان یا تنظیم‌کنندگان دشوار می‌کند. با رواج بیشتر محتوای تولید شده توسط هوش مصنوعی، اطمینان از شفافیت و حفظ پاسخگویی بسیار مهم است. تنظیم‌کنندگان شروع به بررسی دقیق هوش مصنوعی کرده‌اند - به عنوان مثال، قانون هوش مصنوعی اتحادیه اروپا الزاماتی را برای سیستم‌های هوش مصنوعی "پرخطر" اعمال می‌کند و هوش مصنوعی امنیت سایبری ممکن است در آن دسته قرار گیرد. شرکت‌ها باید این مقررات را مرور کنند و احتمالاً به استانداردهایی مانند چارچوب مدیریت ریسک هوش مصنوعی NIST پایبند باشند تا از هوش مصنوعی مولد به طور مسئولانه استفاده کنند ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). انطباق به صدور مجوز نیز گسترش می‌یابد: استفاده از مدل‌های منبع باز یا شخص ثالث ممکن است شرایطی داشته باشد که کاربردهای خاصی را محدود کند یا نیاز به بهبود اشتراک‌گذاری داشته باشد.

به طور خلاصه، هوش مصنوعی مولد یک راه حل جادویی نیست - اگر با دقت اجرا نشود، می‌تواند نقاط ضعف جدیدی را حتی در حین حل نقاط ضعف دیگر ایجاد کند. یک مطالعه مجمع جهانی اقتصاد در سال 2024 نشان داد که تقریباً 47٪ از سازمان‌ها پیشرفت‌های هوش مصنوعی مولد توسط مهاجمان را به عنوان یک نگرانی اصلی ذکر می‌کنند، و آن را به "نگران‌کننده‌ترین تأثیر هوش مصنوعی مولد" در امنیت سایبری تبدیل می‌کنند ( [PDF] چشم‌انداز امنیت سایبری جهانی 2025 | مجمع جهانی اقتصاد ) ( هوش مصنوعی مولد در امنیت سایبری: بررسی جامع LLM ... ). بنابراین، سازمان‌ها باید یک رویکرد متعادل اتخاذ کنند: از مزایای هوش مصنوعی بهره ببرند و در عین حال این خطرات را از طریق حاکمیت، آزمایش و نظارت انسانی به طور دقیق مدیریت کنند. در ادامه در مورد چگونگی دستیابی عملی به این تعادل بحث خواهیم کرد.

چشم‌انداز آینده: نقش در حال تکامل هوش مصنوعی مولد در امنیت سایبری

با نگاهی به آینده، هوش مصنوعی مولد آماده است تا به بخش جدایی‌ناپذیری از استراتژی امنیت سایبری تبدیل شود - و به همین ترتیب، ابزاری که دشمنان سایبری همچنان از آن سوءاستفاده خواهند کرد. پویایی موش و گربه با هوش مصنوعی در هر دو طرف حصار، سرعت خواهد گرفت. در اینجا به برخی از بینش‌های آینده‌نگر در مورد چگونگی شکل‌گیری امنیت سایبری در سال‌های آینده توسط هوش مصنوعی مولد اشاره می‌کنیم:

  • دفاع سایبری تقویت‌شده با هوش مصنوعی استاندارد می‌شود: تا سال ۲۰۲۵ و پس از آن، می‌توانیم انتظار داشته باشیم که اکثر سازمان‌های متوسط ​​تا بزرگ، ابزارهای مبتنی بر هوش مصنوعی را در عملیات امنیتی خود بگنجانند. همانطور که امروزه آنتی‌ویروس‌ها و فایروال‌ها استاندارد هستند، دستیارهای هوش مصنوعی و سیستم‌های تشخیص ناهنجاری ممکن است به اجزای پایه معماری‌های امنیتی تبدیل شوند. این ابزارها احتمالاً تخصصی‌تر خواهند شد - به عنوان مثال، مدل‌های متمایز هوش مصنوعی که برای امنیت ابری، نظارت بر دستگاه‌های اینترنت اشیا، امنیت کد برنامه و غیره تنظیم شده‌اند و همه با هم کار می‌کنند. همانطور که در یک پیش‌بینی ذکر شده است، "در سال ۲۰۲۵، هوش مصنوعی مولد بخش جدایی‌ناپذیر امنیت سایبری خواهد بود و سازمان‌ها را قادر می‌سازد تا به طور پیشگیرانه در برابر تهدیدات پیچیده و در حال تکامل دفاع کنند" ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد ). هوش مصنوعی تشخیص تهدید در زمان واقعی را بهبود می‌بخشد، بسیاری از اقدامات واکنشی را خودکار می‌کند و به تیم‌های امنیتی کمک می‌کند تا حجم بسیار بیشتری از داده‌ها را نسبت به آنچه که به صورت دستی می‌توانستند، مدیریت کنند.

  • یادگیری و سازگاری مداوم: سیستم‌های هوش مصنوعی مولد آینده در فضای سایبری، در یادگیری در لحظه از حوادث و اطلاعات تهدید جدید، بهتر عمل خواهند کرد و پایگاه دانش خود را تقریباً به صورت بلادرنگ به‌روزرسانی خواهند کرد. این می‌تواند منجر به دفاع‌های واقعاً تطبیقی ​​شود - تصور کنید یک هوش مصنوعی که صبح از یک کمپین فیشینگ جدید که به شرکت دیگری حمله می‌کند، مطلع می‌شود و تا بعد از ظهر فیلترهای ایمیل شرکت شما را در پاسخ تنظیم کرده است. سرویس‌های امنیتی هوش مصنوعی مبتنی بر ابر ممکن است این نوع یادگیری جمعی را تسهیل کنند، جایی که بینش‌های ناشناس از یک سازمان به نفع همه مشترکین است (شبیه به اشتراک‌گذاری اطلاعات تهدید، اما خودکار). با این حال، این امر نیاز به مدیریت دقیق دارد تا از به اشتراک گذاشتن اطلاعات حساس جلوگیری شود و از ورود داده‌های بد توسط مهاجمان به مدل‌های مشترک جلوگیری شود.

  • همگرایی هوش مصنوعی و استعدادهای امنیت سایبری: مجموعه مهارت‌های متخصصان امنیت سایبری به گونه‌ای تکامل خواهد یافت که شامل مهارت در هوش مصنوعی و علوم داده شود. همانطور که تحلیلگران امروز زبان‌های پرس‌وجو و اسکریپت‌نویسی را یاد می‌گیرند، تحلیلگران فردا ممکن است مرتباً مدل‌های هوش مصنوعی را تنظیم کنند یا «کتابچه‌های راهنما» برای اجرای هوش مصنوعی بنویسند. ممکن است شاهد نقش‌های جدیدی مانند «مربی امنیت هوش مصنوعی» یا «مهندس هوش مصنوعی امنیت سایبری» باشیم - افرادی که در تطبیق ابزارهای هوش مصنوعی با نیازهای یک سازمان، اعتبارسنجی عملکرد آنها و اطمینان از عملکرد ایمن آنها تخصص دارند. از طرف دیگر، ملاحظات امنیت سایبری به طور فزاینده‌ای بر توسعه هوش مصنوعی تأثیر خواهد گذاشت. سیستم‌های هوش مصنوعی از ابتدا با ویژگی‌های امنیتی (معماری امن، تشخیص دستکاری، گزارش‌های حسابرسی برای تصمیمات هوش مصنوعی و غیره) ساخته خواهند شد و چارچوب‌هایی برای هوش مصنوعی قابل اعتماد (منصفانه، قابل توضیح، قوی و ایمن) استقرار آنها را در زمینه‌های حساس امنیتی هدایت خواهد کرد.

  • حملات پیچیده‌تر مبتنی بر هوش مصنوعی: متأسفانه، چشم‌انداز تهدید نیز با هوش مصنوعی تکامل خواهد یافت. ما پیش‌بینی می‌کنیم که استفاده مکرر از هوش مصنوعی برای کشف آسیب‌پذیری‌های روز صفر، ایجاد فیشینگ هدفمند (مثلاً هوش مصنوعی که رسانه‌های اجتماعی را برای ایجاد یک طعمه کاملاً سفارشی اسکن می‌کند) و تولید صداها یا ویدیوهای جعلی عمیق قانع‌کننده برای دور زدن احراز هویت بیومتریک یا ارتکاب کلاهبرداری، افزایش یابد. ممکن است عوامل هک خودکاری ظهور کنند که بتوانند به طور مستقل حملات چند مرحله‌ای (شناسایی، بهره‌برداری، حرکت جانبی و غیره) را با حداقل نظارت انسانی انجام دهند. این امر مدافعان را تحت فشار قرار می‌دهد تا به هوش مصنوعی نیز تکیه کنند - اساساً اتوماسیون در مقابل اتوماسیون . برخی از حملات ممکن است با سرعت ماشین رخ دهند، مانند ربات‌های هوش مصنوعی که هزاران تغییر ایمیل فیشینگ را امتحان می‌کنند تا ببینند کدام یک از فیلترها عبور می‌کند. دفاع سایبری برای همگام شدن با این روند باید با سرعت و انعطاف‌پذیری مشابهی عمل کند ( هوش مصنوعی مولد در امنیت سایبری چیست؟ - شبکه‌های پالو آلتو ).

  • مقررات و هوش مصنوعی اخلاقی در امنیت: با نفوذ عمیق هوش مصنوعی در کارکردهای امنیت سایبری، بررسی دقیق‌تر و احتمالاً مقررات بیشتری برای اطمینان از استفاده مسئولانه از این سیستم‌های هوش مصنوعی وجود خواهد داشت. می‌توانیم انتظار چارچوب‌ها و استانداردهای خاص هوش مصنوعی در امنیت را داشته باشیم. دولت‌ها ممکن است دستورالعمل‌هایی برای شفافیت تعیین کنند - مثلاً الزام کنند که تصمیمات مهم امنیتی (مانند قطع دسترسی یک کارمند به دلیل فعالیت‌های مشکوک مخرب) نمی‌تواند به تنهایی توسط هوش مصنوعی و بدون بررسی انسانی گرفته شود. همچنین ممکن است گواهینامه‌هایی برای محصولات امنیتی هوش مصنوعی وجود داشته باشد تا به خریداران اطمینان دهد که هوش مصنوعی از نظر سوگیری، استحکام و ایمنی ارزیابی شده است. علاوه بر این، همکاری‌های بین‌المللی ممکن است پیرامون تهدیدات سایبری مرتبط با هوش مصنوعی افزایش یابد. به عنوان مثال، توافقاتی در مورد مدیریت اطلاعات نادرست ایجاد شده توسط هوش مصنوعی یا هنجارهایی علیه برخی از سلاح‌های سایبری مبتنی بر هوش مصنوعی.

  • ادغام با اکوسیستم‌های گسترده‌تر هوش مصنوعی و فناوری اطلاعات: هوش مصنوعی مولد در امنیت سایبری احتمالاً با سایر سیستم‌های هوش مصنوعی و ابزارهای مدیریت فناوری اطلاعات ادغام خواهد شد. به عنوان مثال، یک هوش مصنوعی که بهینه‌سازی شبکه را مدیریت می‌کند، می‌تواند با هوش مصنوعی امنیتی همکاری کند تا اطمینان حاصل شود که تغییرات، نقاط ضعف ایجاد نمی‌کنند. تجزیه و تحلیل کسب‌وکار مبتنی بر هوش مصنوعی ممکن است داده‌ها را با هوش مصنوعی امنیتی به اشتراک بگذارد تا ناهنجاری‌ها (مانند افت ناگهانی فروش با مشکل احتمالی وب‌سایت به دلیل حمله) را مرتبط کند. در اصل، هوش مصنوعی در یک سیلو قرار نخواهد گرفت - بلکه بخشی از یک ساختار هوشمند بزرگتر از عملیات یک سازمان خواهد بود. این امر فرصت‌هایی را برای مدیریت ریسک جامع ایجاد می‌کند که در آن داده‌های عملیاتی، داده‌های تهدید و حتی داده‌های امنیت فیزیکی می‌توانند توسط هوش مصنوعی ترکیب شوند تا یک نمای ۳۶۰ درجه از وضعیت امنیتی سازمان ارائه دهند.

در درازمدت، امید است که هوش مصنوعی مولد به تغییر موازنه به نفع مدافعان کمک کند. هوش مصنوعی با مدیریت مقیاس و پیچیدگی محیط‌های فناوری اطلاعات مدرن، می‌تواند فضای سایبری را قابل دفاع‌تر کند. با این حال، این یک سفر است و با اصلاح این فناوری‌ها و یادگیری اعتماد مناسب به آنها، با مشکلات فزاینده‌ای روبرو خواهیم شد. سازمان‌هایی که آگاه می‌مانند و در پذیرش مسئولانه هوش مصنوعی برای امنیت سرمایه‌گذاری می‌کنند، احتمالاً بهترین موقعیت را برای مقابله با تهدیدات آینده خواهند داشت.

همانطور که گزارش اخیر گارتنر در مورد روندهای امنیت سایبری اشاره کرده است، «ظهور موارد استفاده (و خطرات) هوش مصنوعی مولد، فشاری برای تحول ایجاد می‌کند» ( روندهای امنیت سایبری: تاب‌آوری از طریق تحول - گارتنر ). کسانی که خود را وفق دهند، هوش مصنوعی را به عنوان یک متحد قدرتمند مهار خواهند کرد؛ کسانی که عقب می‌مانند، ممکن است خود را در برابر رقبای قدرتمند هوش مصنوعی عقب ببینند. چند سال آینده، زمان محوری در تعریف چگونگی تغییر شکل میدان نبرد سایبری توسط هوش مصنوعی خواهد بود.

نکات کاربردی برای به‌کارگیری هوش مصنوعی مولد در امنیت سایبری

برای کسب‌وکارهایی که چگونگی استفاده از هوش مصنوعی مولد را در استراتژی امنیت سایبری خود ارزیابی می‌کنند، در اینجا چند نکته و توصیه عملی برای هدایت یک پذیرش مسئولانه و مؤثر ارائه شده است:

  1. با آموزش و پرورش شروع کنید: اطمینان حاصل کنید که تیم امنیتی شما (و کارکنان فناوری اطلاعات گسترده‌تر) می‌دانند که هوش مصنوعی مولد چه کارهایی می‌تواند و چه کارهایی نمی‌تواند انجام دهد. آموزش‌هایی در مورد اصول اولیه ابزارهای امنیتی مبتنی بر هوش مصنوعی ارائه دهید و برنامه‌های آگاهی‌بخشی امنیتی را برای همه کارمندان به‌روزرسانی کنید تا تهدیدات مبتنی بر هوش مصنوعی را پوشش دهند. به عنوان مثال، به کارکنان آموزش دهید که چگونه هوش مصنوعی می‌تواند کلاهبرداری‌های فیشینگ بسیار قانع‌کننده و تماس‌های جعلی عمیق ایجاد کند. همزمان، کارمندان را در مورد استفاده ایمن و تأیید شده از ابزارهای هوش مصنوعی در کارشان آموزش دهید. کاربران آگاه کمتر احتمال دارد که هوش مصنوعی را به اشتباه مدیریت کنند یا قربانی حملات تقویت‌شده با هوش مصنوعی شوند ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ).

  2. سیاست‌های استفاده از هوش مصنوعی را شفاف تعریف کنید: با هوش مصنوعی مولد مانند هر فناوری قدرتمندی رفتار کنید - با مدیریت. سیاست‌هایی را تدوین کنید که مشخص کند چه کسی می‌تواند از ابزارهای هوش مصنوعی استفاده کند، کدام ابزارها مجاز هستند و برای چه اهدافی. دستورالعمل‌هایی را در مورد نحوه برخورد با داده‌های حساس (مثلاً عدم ارسال داده‌های محرمانه به سرویس‌های هوش مصنوعی خارجی) برای جلوگیری از نشت اطلاعات درج کنید. به عنوان مثال، ممکن است فقط به اعضای تیم امنیتی اجازه دهید از یک دستیار هوش مصنوعی داخلی برای پاسخ به حوادث استفاده کنند و بازاریابی می‌تواند از یک هوش مصنوعی تأیید شده برای محتوا استفاده کند - هر کس دیگری محدود است. بسیاری از سازمان‌ها اکنون به صراحت در سیاست‌های فناوری اطلاعات خود به هوش مصنوعی مولد می‌پردازند و نهادهای استاندارد پیشرو، سیاست‌های استفاده ایمن را به جای ممنوعیت‌های آشکار تشویق می‌کنند ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). حتماً این قوانین و منطق پشت آنها را به همه کارمندان ابلاغ کنید.

  3. کاهش «هوش مصنوعی سایه» و نظارت بر استفاده: مشابه فناوری اطلاعات سایه، «هوش مصنوعی سایه» زمانی ایجاد می‌شود که کارمندان بدون اطلاع فناوری اطلاعات شروع به استفاده از ابزارها یا خدمات هوش مصنوعی می‌کنند (مثلاً یک توسعه‌دهنده که از یک دستیار کد هوش مصنوعی غیرمجاز استفاده می‌کند). این می‌تواند خطرات نامرئی را ایجاد کند. اقداماتی را برای شناسایی و کنترل استفاده غیرمجاز از هوش مصنوعی اجرا کنید. نظارت بر شبکه می‌تواند اتصالات به APIهای محبوب هوش مصنوعی را علامت‌گذاری کند و نظرسنجی‌ها یا ممیزی‌های ابزار می‌توانند آنچه را که کارکنان استفاده می‌کنند کشف کنند. جایگزین‌های تأیید شده ارائه دهید تا کارمندان خوش‌نیت وسوسه نشوند که سرکش شوند (به عنوان مثال، اگر افراد آن را مفید بدانند، یک حساب رسمی ChatGPT Enterprise ارائه دهید). با آشکار کردن استفاده از هوش مصنوعی، تیم‌های امنیتی می‌توانند ریسک را ارزیابی و مدیریت کنند. نظارت نیز کلیدی است - فعالیت‌ها و خروجی‌های ابزار هوش مصنوعی را تا حد امکان ثبت کنید، بنابراین یک مسیر ممیزی برای تصمیماتی که هوش مصنوعی بر آنها تأثیر گذاشته است، وجود دارد ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ).

  4. از هوش مصنوعی به صورت دفاعی استفاده کنید - عقب نمانید: بدانید که مهاجمان از هوش مصنوعی استفاده خواهند کرد، بنابراین دفاع شما نیز باید از آن استفاده کند. چند حوزه با تأثیر بالا را شناسایی کنید که هوش مصنوعی مولد می‌تواند بلافاصله به عملیات امنیتی شما کمک کند (شاید اولویت‌بندی هشدار یا تجزیه و تحلیل خودکار گزارش‌ها) و پروژه‌های آزمایشی را اجرا کنید. دفاع خود را با سرعت و مقیاس هوش مصنوعی تقویت کنید تا با تهدیدهای سریع مقابله کنید ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). حتی ادغام‌های ساده، مانند استفاده از هوش مصنوعی برای خلاصه کردن گزارش‌های بدافزار یا ایجاد پرس‌وجوهای شکار تهدید، می‌تواند ساعت‌ها در وقت تحلیلگران صرفه‌جویی کند. از کوچک شروع کنید، نتایج را ارزیابی کنید و تکرار کنید. موفقیت‌ها، زمینه را برای پذیرش گسترده‌تر هوش مصنوعی فراهم می‌کنند. هدف، استفاده از هوش مصنوعی به عنوان یک عامل افزایش دهنده نیرو است - به عنوان مثال، اگر حملات فیشینگ بخش پشتیبانی شما را تحت الشعاع قرار داده است، یک طبقه‌بندی کننده ایمیل هوش مصنوعی را برای کاهش فعال آن حجم مستقر کنید.

  5. سرمایه‌گذاری در شیوه‌های ایمن و اخلاقی هوش مصنوعی: هنگام پیاده‌سازی هوش مصنوعی مولد، از شیوه‌های توسعه و استقرار ایمن پیروی کنید. از مدل‌های خصوصی یا خود-میزبانی شده تا کنترل داده‌ها را حفظ کنید. در صورت استفاده از سرویس‌های هوش مصنوعی شخص ثالث، اقدامات امنیتی و حریم خصوصی آنها (رمزگذاری، سیاست‌های نگهداری داده‌ها و غیره) را بررسی کنید. چارچوب‌های مدیریت ریسک هوش مصنوعی (مانند چارچوب مدیریت ریسک هوش مصنوعی NIST یا راهنمای ISO/IEC) را برای رسیدگی سیستماتیک به مواردی مانند سوگیری، قابلیت توضیح و استحکام در ابزارهای هوش مصنوعی خود بگنجانید ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). همچنین برای به‌روزرسانی‌ها/وصله‌های مدل به عنوان بخشی از نگهداری برنامه‌ریزی کنید - مدل‌های هوش مصنوعی می‌توانند "آسیب‌پذیری" نیز داشته باشند (به عنوان مثال، اگر شروع به انحراف کنند یا نوع جدیدی از حمله خصمانه به مدل کشف شود، ممکن است نیاز به آموزش مجدد داشته باشند). با گنجاندن امنیت و اخلاق در استفاده از هوش مصنوعی خود، به نتایج اعتماد ایجاد می‌کنید و از رعایت مقررات نوظهور اطمینان حاصل می‌کنید.

  6. انسان‌ها را در جریان امور قرار دهید: از هوش مصنوعی برای کمک به قضاوت انسانی در امنیت سایبری استفاده کنید، نه اینکه کاملاً جایگزین آن شود. نقاط تصمیم‌گیری را که در آن‌ها اعتبارسنجی انسانی مورد نیاز است، تعیین کنید (برای مثال، یک هوش مصنوعی ممکن است گزارشی از حادثه تهیه کند، اما یک تحلیلگر قبل از توزیع آن را بررسی کند؛ یا یک هوش مصنوعی ممکن است پیشنهاد مسدود کردن یک حساب کاربری را بدهد، اما یک انسان آن اقدام را تأیید کند). این کار نه تنها از بررسی نشدن خطاهای هوش مصنوعی جلوگیری می‌کند، بلکه به تیم شما کمک می‌کند تا از هوش مصنوعی و برعکس یاد بگیرد. یک گردش کار مشارکتی را تشویق کنید: تحلیلگران باید در زیر سوال بردن خروجی‌های هوش مصنوعی و انجام بررسی‌های سلامت احساس راحتی کنند. با گذشت زمان، این گفتگو می‌تواند هم هوش مصنوعی (از طریق بازخورد) و هم مهارت‌های تحلیلگران را بهبود بخشد. اساساً، فرآیندهای خود را طوری طراحی کنید که هوش مصنوعی و نقاط قوت انسان مکمل یکدیگر باشند - هوش مصنوعی حجم و سرعت را مدیریت می‌کند، انسان‌ها ابهام و تصمیمات نهایی را مدیریت می‌کنند.

  7. اندازه‌گیری، نظارت و تنظیم: در نهایت، ابزارهای هوش مصنوعی مولد خود را به عنوان اجزای زنده اکوسیستم امنیتی خود در نظر بگیرید. به طور مداوم عملکرد آنها را اندازه‌گیری کنید - آیا آنها زمان پاسخ به حوادث را کاهش می‌دهند؟ تهدیدات را زودتر تشخیص می‌دهند؟ روند نرخ مثبت کاذب چگونه است؟ از تیم بازخورد بخواهید: آیا توصیه‌های هوش مصنوعی مفید است یا باعث ایجاد اختلال می‌شود؟ از این معیارها برای اصلاح مدل‌ها، به‌روزرسانی داده‌های آموزشی یا تنظیم نحوه ادغام هوش مصنوعی استفاده کنید. تهدیدات سایبری و نیازهای تجاری در حال تکامل هستند و مدل‌های هوش مصنوعی شما باید به صورت دوره‌ای به‌روزرسانی یا بازآموزی شوند تا مؤثر بمانند. برنامه‌ای برای مدیریت مدل داشته باشید، از جمله اینکه چه کسی مسئول نگهداری آن است و چند وقت یکبار بررسی می‌شود. با مدیریت فعال چرخه عمر هوش مصنوعی، اطمینان حاصل می‌کنید که آن یک دارایی باقی می‌ماند، نه یک بدهی.

در نتیجه، هوش مصنوعی مولد می‌تواند قابلیت‌های امنیت سایبری را به طور قابل توجهی افزایش دهد، اما پذیرش موفقیت‌آمیز آن نیازمند برنامه‌ریزی متفکرانه و نظارت مداوم است. کسب‌وکارهایی که افراد خود را آموزش می‌دهند، دستورالعمل‌های روشنی تعیین می‌کنند و هوش مصنوعی را به روشی متعادل و ایمن ادغام می‌کنند، از مزایای مدیریت سریع‌تر و هوشمندانه‌تر تهدیدات بهره‌مند خواهند شد. این نکات کلیدی یک نقشه راه ارائه می‌دهند: تخصص انسانی را با اتوماسیون هوش مصنوعی ترکیب کنید، اصول اولیه حاکمیت را پوشش دهید و چابکی را همزمان با تکامل اجتناب‌ناپذیر فناوری هوش مصنوعی و چشم‌انداز تهدیدات حفظ کنید.

با برداشتن این گام‌های عملی، سازمان‌ها می‌توانند با اطمینان به این سوال پاسخ دهند که «چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟» - نه فقط در تئوری، بلکه در عمل روزمره - و از این طریق دفاع خود را در دنیای دیجیتال و هوش مصنوعی ما تقویت کنند. ( چگونه می‌توان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد ؟)

گزارش‌های رسمی که ممکن است بعد از این یکی دوست داشته باشید بخوانید:

🔗 مشاغلی که هوش مصنوعی نمی‌تواند جایگزین آنها شود و هوش مصنوعی جایگزین چه مشاغلی خواهد شد؟
چشم‌انداز جهانی در مورد اینکه کدام نقش‌ها از اتوماسیون در امان هستند و کدام‌ها نیستند را بررسی کنید.

🔗 آیا هوش مصنوعی می‌تواند بازار سهام را پیش‌بینی کند؟
نگاهی دقیق‌تر به محدودیت‌ها، پیشرفت‌ها و افسانه‌های پیرامون توانایی هوش مصنوعی در پیش‌بینی حرکات بازار.

🔗 در چه مواردی می‌توان بدون دخالت انسان به هوش مصنوعی مولد تکیه کرد؟
بفهمید که هوش مصنوعی در کجا می‌تواند مستقل عمل کند و در کجا نظارت انسانی همچنان ضروری است.

بازگشت به وبلاگ