مقدمه
هوش مصنوعی مولد - سیستمهای هوش مصنوعی که قادر به ایجاد محتوا یا پیشبینیهای جدید هستند - به عنوان یک نیروی متحولکننده در امنیت سایبری در حال ظهور هستند. ابزارهایی مانند GPT-4 شرکت OpenAI توانایی تجزیه و تحلیل دادههای پیچیده و تولید متن شبیه به انسان را نشان دادهاند و رویکردهای جدیدی را برای دفاع در برابر تهدیدات سایبری ممکن میسازند. متخصصان امنیت سایبری و تصمیمگیرندگان تجاری در صنایع مختلف در حال بررسی این موضوع هستند که چگونه هوش مصنوعی مولد میتواند دفاع در برابر حملات در حال تحول را تقویت کند. از امور مالی و مراقبتهای بهداشتی گرفته تا خردهفروشی و دولت، سازمانها در هر بخش با تلاشهای پیچیده فیشینگ، بدافزار و سایر تهدیداتی روبرو هستند که هوش مصنوعی مولد میتواند به مقابله با آنها کمک کند. در این مقاله سفید، ما بررسی میکنیم که چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد و کاربردهای دنیای واقعی، احتمالات آینده و ملاحظات مهم برای پذیرش را برجسته میکنیم.
در ایجاد نیز با هوش مصنوعی تحلیلی سنتی متفاوت است - چه شبیهسازی حملات برای آموزش دفاع یا تولید توضیحات به زبان طبیعی برای دادههای امنیتی پیچیده. این قابلیت دوگانه، آن را به یک شمشیر دولبه تبدیل میکند: ابزارهای دفاعی جدید و قدرتمندی ارائه میدهد، اما عاملان تهدید نیز میتوانند از آن سوءاستفاده کنند. بخشهای بعدی طیف گستردهای از موارد استفاده هوش مصنوعی مولد در امنیت سایبری را بررسی میکنند، از خودکارسازی تشخیص فیشینگ گرفته تا افزایش پاسخ به حوادث. ما همچنین در مورد مزایایی که این نوآوریهای هوش مصنوعی نوید میدهند، در کنار خطراتی (مانند "توهمات" هوش مصنوعی یا سوءاستفاده خصمانه) که سازمانها باید مدیریت کنند، بحث میکنیم. در نهایت، نکات کاربردی را برای کمک به کسبوکارها در ارزیابی و ادغام مسئولانه هوش مصنوعی مولد در استراتژیهای امنیت سایبری خود ارائه میدهیم.
هوش مصنوعی مولد در امنیت سایبری: یک مرور کلی
هوش مصنوعی مولد در امنیت سایبری به مدلهای هوش مصنوعی - اغلب مدلهای زبانی بزرگ یا سایر شبکههای عصبی - اشاره دارد که میتوانند بینش، توصیه، کد یا حتی دادههای مصنوعی را برای کمک به وظایف امنیتی تولید کنند. برخلاف مدلهای صرفاً پیشبینیکننده، هوش مصنوعی مولد میتواند سناریوها را شبیهسازی کرده و بر اساس دادههای آموزشی خود، خروجیهای قابل خواندن توسط انسان (مانند گزارشها، هشدارها یا حتی نمونههای کد مخرب) تولید کند. این قابلیت برای پیشبینی، شناسایی و پاسخ به تهدیدها به روشهای پویاتر از قبل مورد استفاده قرار میگیرد ( هوش مصنوعی مولد در امنیت سایبری چیست؟ - شبکههای پالو آلتو ). به عنوان مثال، مدلهای مولد میتوانند لاگهای گسترده یا مخازن اطلاعات تهدید را تجزیه و تحلیل کرده و خلاصهای مختصر یا اقدام پیشنهادی ارائه دهند، که تقریباً مانند یک "دستیار" هوش مصنوعی برای تیمهای امنیتی عمل میکند.
پیادهسازیهای اولیه هوش مصنوعی مولد برای دفاع سایبری نویدبخش بودهاند. در سال ۲۰۲۳، مایکروسافت Security Copilot ، یک دستیار مبتنی بر GPT-4 برای تحلیلگران امنیتی، را معرفی کرد تا به شناسایی نقضها و بررسی ۶۵ تریلیون سیگنالی که مایکروسافت روزانه پردازش میکند، کمک کند ( Microsoft Security Copilot یک دستیار هوش مصنوعی جدید GPT-4 برای امنیت سایبری است | The Verge ). تحلیلگران میتوانند این سیستم را با زبان طبیعی فراخوانی کنند (مثلاً "خلاصه کردن تمام حوادث امنیتی در ۲۴ ساعت گذشته" ) و کمک خلبان خلاصهای مفید از روایت را ارائه میدهد. به طور مشابه، هوش مصنوعی هوش تهدید از یک مدل مولد به نام Gemini برای فعال کردن جستجوی مکالمهای از طریق پایگاه داده عظیم اطلاعات تهدید گوگل استفاده میکند، کد مشکوک را به سرعت تجزیه و تحلیل میکند و یافتهها را برای کمک به شکارچیان بدافزار خلاصه میکند ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ ۱۰ مثال در دنیای واقعی ). این مثالها پتانسیل را نشان میدهند: هوش مصنوعی مولد میتواند دادههای امنیت سایبری پیچیده و در مقیاس بزرگ را هضم کند و بینشها را به شکلی قابل دسترس ارائه دهد و تصمیمگیری را تسریع کند.
در عین حال، هوش مصنوعی مولد میتواند محتوای جعلی بسیار واقعگرایانهای ایجاد کند که برای شبیهسازی و آموزش (و متأسفانه برای مهاجمانی که مهندسی اجتماعی را طراحی میکنند) یک مزیت است. همانطور که به موارد استفاده خاص میپردازیم، خواهیم دید که توانایی هوش مصنوعی مولد در ترکیب و تجزیه و تحلیل اطلاعات، زیربنای بسیاری از کاربردهای امنیت سایبری آن است. در ادامه، به موارد استفاده کلیدی میپردازیم که همه چیز را از پیشگیری از فیشینگ گرفته تا توسعه نرمافزار امن، با مثالهایی از نحوه کاربرد هر یک در صنایع مختلف، پوشش میدهد.
کاربردهای کلیدی هوش مصنوعی مولد در امنیت سایبری
شکل: موارد استفاده کلیدی برای هوش مصنوعی مولد در امنیت سایبری شامل کمک خلبانان هوش مصنوعی برای تیمهای امنیتی، تجزیه و تحلیل آسیبپذیری کد، تشخیص تطبیقی تهدید، شبیهسازی حمله روز صفر، امنیت بیومتریک پیشرفته و تشخیص فیشینگ است ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثالها] ).
تشخیص و پیشگیری از فیشینگ
فیشینگ همچنان یکی از فراگیرترین تهدیدات سایبری است که کاربران را فریب میدهد تا روی لینکهای مخرب کلیک کنند یا اطلاعات کاربری خود را فاش کنند. هوش مصنوعی مولد برای شناسایی تلاشهای فیشینگ و تقویت آموزش کاربر برای جلوگیری از حملات موفق به کار گرفته میشود. در سمت دفاعی، مدلهای هوش مصنوعی میتوانند محتوای ایمیل و رفتارهای فرستنده را تجزیه و تحلیل کنند تا علائم ظریف فیشینگ را که فیلترهای مبتنی بر قانون ممکن است از دست بدهند، تشخیص دهند. با یادگیری از مجموعه دادههای بزرگ ایمیلهای قانونی در مقابل ایمیلهای جعلی، یک مدل مولد میتواند ناهنجاریها را در لحن، کلمات یا متن که نشان دهنده کلاهبرداری است، حتی زمانی که دستور زبان و املا دیگر آن را لو نمیدهند، علامتگذاری کند. در واقع، محققان Palo Alto Networks خاطرنشان میکنند که هوش مصنوعی مولد میتواند «نشانههای ظریف ایمیلهای فیشینگ را که در غیر این صورت ممکن است کشف نشوند» و به سازمانها کمک کند تا یک قدم جلوتر از کلاهبرداران باشند ( هوش مصنوعی مولد در امنیت سایبری چیست؟ - Palo Alto Networks ).
تیمهای امنیتی همچنین از هوش مصنوعی مولد برای شبیهسازی حملات فیشینگ برای آموزش و تجزیه و تحلیل استفاده میکنند. به عنوان مثال، Ironscales یک ابزار شبیهسازی فیشینگ مبتنی بر GPT معرفی کرد که به طور خودکار ایمیلهای فیشینگ جعلی متناسب با کارمندان یک سازمان تولید میکند ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). این ایمیلهای ساخته شده توسط هوش مصنوعی، جدیدترین تاکتیکهای مهاجم را منعکس میکنند و به کارکنان تمرین واقعبینانهای در تشخیص محتوای فیشینگ میدهند. چنین آموزش شخصیسازی شدهای بسیار مهم است زیرا خود مهاجمان از هوش مصنوعی برای ایجاد طعمههای قانعکنندهتر استفاده میکنند. نکته قابل توجه این است که در حالی که هوش مصنوعی مولد میتواند پیامهای فیشینگ بسیار شسته رفتهای تولید کند (روزهای انگلیسی شکسته که به راحتی قابل تشخیص بودند، گذشته است)، مدافعان دریافتهاند که هوش مصنوعی شکستناپذیر نیست. در سال 2024، محققان IBM Security آزمایشی را انجام دادند که ایمیلهای فیشینگ نوشته شده توسط انسان را با ایمیلهای تولید شده توسط هوش مصنوعی مقایسه میکرد و "به طرز شگفتآوری، ایمیلهای تولید شده توسط هوش مصنوعی با وجود دستور زبان صحیحشان، همچنان به راحتی قابل تشخیص بودند" ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثالها] ). این نشان میدهد که شهود انسانی همراه با تشخیص به کمک هوش مصنوعی هنوز هم میتواند ناسازگاریهای ظریف یا سیگنالهای فراداده را در کلاهبرداریهای نوشته شده توسط هوش مصنوعی تشخیص دهد.
هوش مصنوعی مولد به روشهای دیگری نیز به دفاع در برابر فیشینگ کمک میکند. میتوان از مدلها برای تولید پاسخهای خودکار یا فیلترهایی که ایمیلهای مشکوک را آزمایش میکنند، استفاده کرد. به عنوان مثال، یک سیستم هوش مصنوعی میتواند به یک ایمیل با پرسوجوهای خاص پاسخ دهد تا مشروعیت فرستنده را تأیید کند یا از یک LLM برای تجزیه و تحلیل لینکها و پیوستهای ایمیل در یک جعبه شنی استفاده کند، سپس هرگونه نیت مخرب را خلاصه کند. پلتفرم امنیتی NVIDIA، Morpheus، قدرت هوش مصنوعی را در این عرصه نشان میدهد - از مدلهای NLP مولد برای تجزیه و تحلیل سریع و طبقهبندی ایمیلها استفاده میکند و مشخص شد که تشخیص ایمیلهای فیشینگ هدفمند را در مقایسه با ابزارهای امنیتی سنتی 21٪ 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثالها] ). Morpheus حتی الگوهای ارتباطی کاربر را برای تشخیص رفتار غیرمعمول (مانند ارسال ناگهانی ایمیل توسط کاربر به آدرسهای خارجی متعدد) پروفایل میکند، که میتواند نشاندهنده یک حساب کاربری آسیبدیده باشد که ایمیلهای فیشینگ ارسال میکند.
در عمل، شرکتها در صنایع مختلف شروع به اعتماد به هوش مصنوعی برای فیلتر کردن ایمیل و ترافیک وب در برابر حملات مهندسی اجتماعی کردهاند. به عنوان مثال، شرکتهای مالی از هوش مصنوعی مولد برای اسکن ارتباطات جهت یافتن تلاشهای جعل هویت که میتواند منجر به کلاهبرداری شود، استفاده میکنند، در حالی که ارائه دهندگان خدمات درمانی از هوش مصنوعی برای محافظت از دادههای بیمار در برابر نقضهای مربوط به فیشینگ استفاده میکنند. هوش مصنوعی مولد با ایجاد سناریوهای واقعگرایانه فیشینگ و شناسایی نشانههای پیامهای مخرب، لایهای قدرتمند به استراتژیهای پیشگیری از فیشینگ اضافه میکند. نکته کلیدی: هوش مصنوعی میتواند به شناسایی و خنثیسازی سریعتر و دقیقتر حملات فیشینگ کمک کند ، حتی اگر مهاجمان از همان فناوری برای پیشرفت خود استفاده کنند.
تشخیص بدافزار و تحلیل تهدید
بدافزارهای مدرن دائماً در حال تکامل هستند - مهاجمان انواع جدیدی از بدافزارها را تولید میکنند یا کدها را مبهم میکنند تا از امضاهای آنتیویروس عبور کنند. هوش مصنوعی مولد تکنیکهای جدیدی را هم برای تشخیص بدافزار و هم برای درک رفتار آن ارائه میدهد. یک رویکرد، استفاده از هوش مصنوعی برای تولید "دوقلوهای شیطانی" بدافزار است : محققان امنیتی میتوانند یک نمونه بدافزار شناخته شده را به یک مدل مولد وارد کنند تا انواع جهشیافته زیادی از آن بدافزار ایجاد شود. با انجام این کار، آنها به طور مؤثر تغییراتی را که یک مهاجم ممکن است ایجاد کند، پیشبینی میکنند. سپس میتوان از این انواع تولید شده توسط هوش مصنوعی برای آموزش سیستمهای آنتیویروس و تشخیص نفوذ استفاده کرد، به طوری که حتی نسخههای اصلاحشده بدافزار نیز در عمل شناسایی شوند ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثالها] ). این استراتژی پیشگیرانه به شکستن چرخهای کمک میکند که در آن هکرها بدافزار خود را کمی تغییر میدهند تا از شناسایی فرار کنند و مدافعان باید هر بار برای نوشتن امضاهای جدید تلاش کنند. همانطور که در یک پادکست صنعتی ذکر شده است، کارشناسان امنیتی اکنون از هوش مصنوعی مولد برای "شبیهسازی ترافیک شبکه و تولید بارهای مخربی که حملات پیچیده را تقلید میکنند" میکنند و دفاع خود را در برابر کل خانواده تهدیدات به جای یک نمونه واحد، آزمایش میکنند. این تشخیص تهدید تطبیقی به این معنی است که ابزارهای امنیتی در برابر بدافزارهای چندریختی که در غیر این صورت از دسترس خارج میشدند، مقاومتر میشوند.
فراتر از تشخیص، هوش مصنوعی مولد در تحلیل بدافزار و مهندسی معکوس ، که به طور سنتی وظایف پرزحمتی برای تحلیلگران تهدید هستند، کمک میکند. مدلهای زبانی بزرگ میتوانند وظیفه بررسی کد یا اسکریپتهای مشکوک و توضیح به زبان ساده هدف کد را بر عهده داشته باشند. یک مثال در دنیای واقعی، VirusTotal Code Insight ، ویژگیای از VirusTotal گوگل که از یک مدل هوش مصنوعی مولد (Sec-PaLM گوگل) برای تولید خلاصههای زبان طبیعی از کدهای بالقوه مخرب استفاده میکند ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). این اساساً "نوعی ChatGPT است که به کدگذاری امنیتی اختصاص داده شده است" و به عنوان یک تحلیلگر بدافزار هوش مصنوعی عمل میکند که 24 ساعته و 7 روز هفته کار میکند تا به تحلیلگران انسانی در درک تهدیدها کمک کند ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثالها] ). به جای بررسی دقیق اسکریپت یا کد باینری ناآشنا، یک عضو تیم امنیتی میتواند توضیح فوری از هوش مصنوعی دریافت کند - به عنوان مثال، "این اسکریپت سعی میکند فایلی را از سرور XYZ دانلود کند و سپس تنظیمات سیستم را تغییر دهد، که نشان دهنده رفتار بدافزار است." این امر به طور چشمگیری سرعت پاسخ به حادثه را افزایش میدهد، زیرا تحلیلگران میتوانند بدافزارهای جدید را سریعتر از همیشه شناسایی و درک کنند.
هوش مصنوعی مولد همچنین برای شناسایی بدافزار در مجموعه دادههای عظیم . موتورهای آنتیویروس سنتی فایلها را برای یافتن امضاهای شناختهشده اسکن میکنند، اما یک مدل مولد میتواند ویژگیهای یک فایل را ارزیابی کند و حتی بر اساس الگوهای آموختهشده، مخرب بودن آن را پیشبینی کند. با تجزیه و تحلیل ویژگیهای میلیاردها فایل (مخرب و خوشخیم)، یک هوش مصنوعی ممکن است نیت مخرب را در جایی که هیچ امضای صریحی وجود ندارد، تشخیص دهد. به عنوان مثال، یک مدل مولد میتواند یک فایل اجرایی را به عنوان مشکوک علامتگذاری کند زیرا مشخصات رفتاری آن "شبیه" یک تغییر جزئی از باجافزاری است که در طول آموزش دیده است، حتی اگر فایل باینری جدید باشد. این تشخیص مبتنی بر رفتار به مقابله با بدافزارهای جدید یا روز صفر کمک میکند. طبق گزارشها، هوش مصنوعی هوش تهدید گوگل (بخشی از Chronicle/Mandiant) از مدل مولد خود برای تجزیه و تحلیل کد بالقوه مخرب استفاده میکند و "به طور مؤثرتر و کارآمدتری به متخصصان امنیتی در مبارزه با بدافزارها و سایر انواع تهدیدات کمک میکند." ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ).
از طرف دیگر، باید بپذیریم که مهاجمان میتوانند در اینجا نیز از هوش مصنوعی مولد استفاده کنند - برای ایجاد خودکار بدافزارهایی که خود را تطبیق میدهند. در واقع، کارشناسان امنیتی هشدار میدهند که هوش مصنوعی مولد میتواند به مجرمان سایبری کمک کند تا بدافزارهایی را توسعه دهند که تشخیص آنها دشوارتر است ( هوش مصنوعی مولد در امنیت سایبری چیست؟ - شبکههای پالو آلتو ). میتوان به یک مدل هوش مصنوعی دستور داد که یک بدافزار را بارها و بارها تغییر شکل دهد (ساختار فایل، روشهای رمزگذاری و غیره آن را تغییر دهد) تا زمانی که از همه بررسیهای آنتیویروس شناخته شده فرار کند. این استفاده خصمانه یک نگرانی رو به رشد است (که گاهی اوقات به عنوان "بدافزار مبتنی بر هوش مصنوعی" یا بدافزار چندریختی به عنوان یک سرویس شناخته میشود). ما بعداً در مورد چنین خطراتی بحث خواهیم کرد، اما این نشان میدهد که هوش مصنوعی مولد ابزاری در این بازی موش و گربه است که هم مدافعان و هم مهاجمان از آن استفاده میکنند.
به طور کلی، هوش مصنوعی مولد با قادر ساختن تیمهای امنیتی به تفکر مانند یک مهاجم - ایجاد تهدیدات و راهحلهای جدید در داخل سازمان - دفاع در برابر بدافزار را بهبود میبخشد. چه تولید بدافزار مصنوعی برای بهبود نرخ تشخیص باشد و چه استفاده از هوش مصنوعی برای توضیح و مهار بدافزار واقعی موجود در شبکهها، این تکنیکها در صنایع مختلف کاربرد دارند. یک بانک ممکن است از تجزیه و تحلیل بدافزار مبتنی بر هوش مصنوعی برای تجزیه و تحلیل سریع یک ماکرو مشکوک در یک صفحه گسترده استفاده کند، در حالی که یک شرکت تولیدی ممکن است برای تشخیص بدافزارهایی که سیستمهای کنترل صنعتی را هدف قرار میدهند، به هوش مصنوعی متکی باشد. با تقویت تجزیه و تحلیل بدافزار سنتی با هوش مصنوعی مولد، سازمانها میتوانند سریعتر و پیشگیرانهتر از قبل به کمپینهای بدافزار پاسخ دهند.
هوش تهدید و تحلیل خودکار
هر روز، سازمانها با دادههای هوش تهدید بمباران میشوند - از فیدهای شاخصهای تازه کشفشدهی سازش (IOC) گرفته تا گزارشهای تحلیلگران در مورد تاکتیکهای نوظهور هکرها. چالش تیمهای امنیتی، غربال کردن این سیل اطلاعات و استخراج بینشهای عملی است. هوش مصنوعی مولد در خودکارسازی تحلیل و مصرف هوش تهدید، . تحلیلگران میتوانند به جای خواندن دستی دهها گزارش یا ورودی پایگاه داده، از هوش مصنوعی برای خلاصهسازی و زمینهسازی اطلاعات تهدید با سرعت ماشین استفاده کنند.
هوش تهدید گوگل است که هوش مصنوعی مولد (مدل Gemini) را با گنجینه دادههای تهدید گوگل از Mandiant و VirusTotal ادغام میکند. این هوش مصنوعی «جستجوی محاورهای در مخزن عظیم هوش تهدید گوگل» و به کاربران اجازه میدهد تا سوالات طبیعی در مورد تهدیدها بپرسند و پاسخهای خلاصهشده دریافت کنند ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). به عنوان مثال، یک تحلیلگر میتواند بپرسد: «آیا بدافزاری مرتبط با گروه تهدید X دیدهایم که صنعت ما را هدف قرار دهد؟» و هوش مصنوعی اطلاعات مرتبط را استخراج میکند، شاید به این نکته اشاره کند که «بله، گروه تهدید X ماه گذشته با استفاده از بدافزار Y به یک کمپین فیشینگ مرتبط بوده است» و خلاصهای از رفتار آن بدافزار را ارائه میدهد. این امر به طور چشمگیری زمان جمعآوری بینشهایی را که در غیر این صورت نیاز به پرسوجو از چندین ابزار یا خواندن گزارشهای طولانی داشت، کاهش میدهد.
روندهای تهدید را مرتبط و . این هوش مصنوعی ممکن است هزاران پست وبلاگ امنیتی، اخبار نقض امنیتی و گفتگوهای وب تاریک را بررسی کند و سپس خلاصهای از «تهدیدهای سایبری برتر این هفته» را برای جلسه توجیهی یک مدیر ارشد امنیت اطلاعات (CISO) تهیه کند. به طور سنتی، این سطح از تحلیل و گزارشدهی به تلاش انسانی قابل توجهی نیاز داشت. اکنون یک مدل تنظیمشده میتواند آن را در عرض چند ثانیه تهیه کند و انسانها فقط خروجی را اصلاح میکنند. شرکتهایی مانند ZeroFox، FoxGPT ، یک ابزار هوش مصنوعی مولد که به طور خاص برای «تسریع تحلیل و خلاصهسازی اطلاعات در مجموعه دادههای بزرگ»، از جمله محتوای مخرب و دادههای فیشینگ طراحی شده است ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). هوش مصنوعی با خودکارسازی عملیات سنگین خواندن و ارجاع متقابل دادهها، تیمهای اطلاعاتی تهدید را قادر میسازد تا بر تصمیمگیری و پاسخ تمرکز کنند.
یکی دیگر از موارد استفاده، شکار تهدید مکالمهای . تصور کنید یک تحلیلگر امنیتی با یک دستیار هوش مصنوعی تعامل دارد: «نشانهای از خروج دادهها در ۴۸ ساعت گذشته به من نشان دهید» یا «مهمترین آسیبپذیریهای جدیدی که مهاجمان این هفته از آنها سوءاستفاده میکنند چیست؟» هوش مصنوعی میتواند پرسوجو را تفسیر کند، گزارشهای داخلی یا منابع اطلاعاتی خارجی را جستجو کند و با یک پاسخ روشن یا حتی فهرستی از حوادث مرتبط پاسخ دهد. این دور از ذهن نیست - سیستمهای مدرن مدیریت اطلاعات و رویدادهای امنیتی (SIEM) شروع به گنجاندن پرسوجو به زبان طبیعی کردهاند. به عنوان مثال، مجموعه امنیتی QRadar شرکت IBM در سال ۲۰۲۴ ویژگیهای هوش مصنوعی مولد را اضافه میکند تا به تحلیلگران اجازه دهد «[سوالات خاصی در مورد مسیر حمله خلاصه شده» یک حادثه بپرسند و پاسخهای دقیقی دریافت کنند. همچنین میتواند «اطلاعات تهدید بسیار مرتبط را تفسیر و خلاصه کند» ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ ۱۰ مثال در دنیای واقعی ). اساساً، هوش مصنوعی مولد، انبوهی از دادههای فنی را به بینشهایی در حد چت تبدیل میکند.
این موضوع در صنایع مختلف، پیامدهای بزرگی دارد. یک ارائهدهنده خدمات درمانی میتواند از هوش مصنوعی برای بهروز ماندن در مورد جدیدترین گروههای باجافزاری که بیمارستانها را هدف قرار میدهند، بدون اختصاص دادن یک تحلیلگر به تحقیقات تماموقت، استفاده کند. مرکز عملیات امنیت (SOC) یک شرکت خردهفروشی میتواند هنگام ارائه گزارش به کارکنان فناوری اطلاعات فروشگاه، به سرعت تاکتیکهای جدید بدافزارهای POS را خلاصه کند. و در دولت، جایی که دادههای تهدید از آژانسهای مختلف باید ترکیب شوند، هوش مصنوعی میتواند گزارشهای یکپارچهای تولید کند که هشدارهای کلیدی را برجسته میکند. با خودکارسازی جمعآوری و تفسیر اطلاعات تهدید ، هوش مصنوعی مولد به سازمانها کمک میکند تا سریعتر به تهدیدهای نوظهور واکنش نشان دهند و خطر از دست دادن هشدارهای حیاتی پنهان در میان نویز را کاهش میدهد.
بهینهسازی مرکز عملیات امنیتی (SOC)
مراکز عملیات امنیتی به دلیل حجم زیاد دادهها و هشدارهای خستهکننده، بدنام هستند. یک تحلیلگر SOC معمولی ممکن است هر روز هزاران هشدار و رویداد را بررسی کند و حوادث احتمالی را بررسی کند. هوش مصنوعی مولد با خودکارسازی کارهای روزمره، ارائه خلاصههای هوشمند و حتی هماهنگسازی برخی پاسخها، به عنوان یک عامل تقویتکننده نیرو در SOCها عمل میکند. هدف، بهینهسازی گردشهای کاری SOC است تا تحلیلگران انسانی بتوانند بر مهمترین مسائل تمرکز کنند، در حالی که کمکخلبان هوش مصنوعی بقیه را مدیریت میکند.
یکی از کاربردهای اصلی، استفاده از هوش مصنوعی مولد به عنوان «کمک خلبان تحلیلگر» . کمک خلبان امنیتی مایکروسافت، که قبلاً به آن اشاره شد، نمونهای از این مورد است: این کمک خلبان «برای کمک به کار تحلیلگر امنیتی طراحی شده است تا جایگزینی آن»، و به تحقیقات و گزارشدهی حوادث کمک میکند ( کمک خلبان امنیتی مایکروسافت یک دستیار هوش مصنوعی جدید GPT-4 برای امنیت سایبری است | The Verge ). در عمل، این بدان معناست که یک تحلیلگر میتواند دادههای خام - گزارشهای فایروال، جدول زمانی رویداد یا شرح حادثه - را وارد کند و از هوش مصنوعی بخواهد که آن را تجزیه و تحلیل یا خلاصه کند. کمک خلبان ممکن است روایتی مانند این را ارائه دهد: «به نظر میرسد که ساعت 2:35 بامداد، یک ورود مشکوک از IP X به سرور Y با موفقیت انجام شده و به دنبال آن انتقال دادههای غیرمعمول رخ داده است که نشاندهنده نقض احتمالی آن سرور است.» این نوع زمینهسازی فوری زمانی که زمان بسیار مهم است، بسیار ارزشمند است.
کمکخلبانان هوش مصنوعی همچنین به کاهش بار اولویتبندی سطح ۱ کمک میکنند. طبق دادههای صنعت، یک تیم امنیتی میتواند ۱۵ ساعت در هفته صرف مرتبسازی حدود ۲۲۰۰۰ هشدار و هشدارهای مثبت کاذب کند ( ۶ مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثالها] ). با هوش مصنوعی مولد، بسیاری از این هشدارها میتوانند به طور خودکار اولویتبندی شوند - هوش مصنوعی میتواند مواردی را که به وضوح بیخطر هستند (با استدلال ارائه شده) رد کند و مواردی را که واقعاً نیاز به توجه دارند برجسته کند، و گاهی اوقات حتی اولویت را پیشنهاد دهد. در واقع، قدرت هوش مصنوعی مولد در درک زمینه به این معنی است که میتواند هشدارهایی را که ممکن است به صورت جداگانه بیضرر به نظر برسند اما در کنار هم نشان دهنده یک حمله چند مرحلهای باشند، با هم مرتبط کند. این امر احتمال از دست دادن یک حمله به دلیل «خستگی هشدار» را کاهش میدهد.
تحلیلگران SOC همچنین از زبان طبیعی با هوش مصنوعی برای سرعت بخشیدن به شکار و تحقیقات استفاده میکنند. هوش مصنوعی Purple ، یک رابط مبتنی بر LLM را با دادههای امنیتی بلادرنگ ترکیب میکند و به تحلیلگران اجازه میدهد تا «سوالات پیچیده شکار تهدید را به زبان انگلیسی ساده بپرسند و پاسخهای سریع و دقیقی دریافت کنند» ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). یک تحلیلگر میتواند تایپ کند: «آیا در ماه گذشته هیچ نقطه پایانی با دامنه badguy123[.]com ارتباط برقرار کرده است؟» و Purple AI برای پاسخ دادن، لاگها را جستجو میکند. این امر تحلیلگر را از نوشتن پرسوجوها یا اسکریپتهای پایگاه داده نجات میدهد - هوش مصنوعی این کار را در پشت صحنه انجام میدهد. همچنین به این معنی است که تحلیلگران جوان میتوانند وظایفی را انجام دهند که قبلاً به یک مهندس باتجربه و ماهر در زبانهای پرسوجو نیاز داشت و به طور مؤثر تیم را از طریق کمک هوش مصنوعی ارتقا میدهد . در واقع، تحلیلگران گزارش میدهند که راهنمایی هوش مصنوعی مولد «مهارتها و کارایی آنها را افزایش میدهد» ، زیرا کارکنان جوان اکنون میتوانند از هوش مصنوعی پشتیبانی کدنویسی یا نکات تحلیلی را در صورت نیاز دریافت کنند و وابستگی به درخواست همیشگی کمک از اعضای ارشد تیم را کاهش دهند ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثالها] ).
یکی دیگر از بهینهسازیهای SOC، خلاصهسازی و مستندسازی خودکار حادثه . پس از رسیدگی به یک حادثه، شخصی باید گزارش را بنویسد - کاری که بسیاری آن را خستهکننده میدانند. هوش مصنوعی مولد میتواند دادههای پزشکی قانونی (گزارشهای سیستم، تجزیه و تحلیل بدافزار، جدول زمانی اقدامات) را دریافت کرده و یک گزارش اولیه از حادثه تولید کند. IBM در حال ایجاد این قابلیت در QRadar است تا با "یک کلیک" خلاصهای از حادثه برای ذینفعان مختلف (مدیران اجرایی، تیمهای فناوری اطلاعات و غیره) تهیه شود ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). این امر نه تنها در زمان صرفهجویی میکند، بلکه تضمین میکند که هیچ چیز در گزارش نادیده گرفته نمیشود، زیرا هوش مصنوعی میتواند تمام جزئیات مربوطه را به طور مداوم در بر بگیرد. به همین ترتیب، برای انطباق و حسابرسی، هوش مصنوعی میتواند فرمها یا جداول شواهد را بر اساس دادههای حادثه پر کند.
نتایج دنیای واقعی قانعکننده هستند. استفادهکنندگان اولیه از SOAR (هماهنگی، اتوماسیون و پاسخ امنیتی) مبتنی بر هوش مصنوعی Swimlane، از افزایش چشمگیر بهرهوری خبر میدهند - به عنوان مثال، Global Data Systems شاهد بود که تیم SecOps آنها حجم پروندههای بسیار بیشتری را مدیریت میکند؛ یکی از مدیران گفت اتوماسیون مبتنی بر هوش مصنوعی، 20 کارمند را درگیر میکند» . به عبارت دیگر، هوش مصنوعی در SOC میتواند ظرفیت را چند برابر کند . در صنایع مختلف، چه یک شرکت فناوری باشد که با هشدارهای امنیتی ابری سروکار دارد و چه یک کارخانه تولیدی که سیستمهای OT را رصد میکند، تیمهای SOC با پذیرش دستیاران هوش مصنوعی مولد، میتوانند تشخیص و پاسخ سریعتر، حوادث از دست رفته کمتر و عملیات کارآمدتر را به دست آورند. این در مورد کار هوشمندانهتر است - به ماشینها اجازه میدهد تا وظایف تکراری و سنگین داده را انجام دهند تا انسانها بتوانند شهود و تخصص خود را در جایی که بیشترین اهمیت را دارد، به کار گیرند.
مدیریت آسیبپذیری و شبیهسازی تهدید
شناسایی و مدیریت آسیبپذیریها - نقاط ضعف در نرمافزارها یا سیستمهایی که مهاجمان میتوانند از آنها سوءاستفاده کنند - یک عملکرد اصلی امنیت سایبری است. هوش مصنوعی مولد با تسریع کشف، کمک به اولویتبندی وصلهها و حتی شبیهسازی حملات به آن آسیبپذیریها برای بهبود آمادگی، مدیریت آسیبپذیری را بهبود میبخشد. در اصل، هوش مصنوعی به سازمانها کمک میکند تا سریعتر حفرههای امنیتی خود را پیدا و برطرف کنند و به طور فعال دفاعها را آزمایش کنند.
یکی از کاربردهای مهم، استفاده از هوش مصنوعی مولد برای بررسی خودکار کد و کشف آسیبپذیری . پایگاههای کد بزرگ (بهویژه سیستمهای قدیمی) اغلب دارای نقصهای امنیتی هستند که مورد توجه قرار نمیگیرند. مدلهای هوش مصنوعی مولد را میتوان بر اساس شیوههای کدنویسی ایمن و الگوهای رایج باگ آموزش داد، سپس آنها را روی کد منبع یا فایلهای باینری کامپایل شده پیادهسازی کرد تا آسیبپذیریهای بالقوه را پیدا کنند. به عنوان مثال، محققان NVIDIA یک خط لوله هوش مصنوعی مولد ایجاد کردند که میتواند کانتینرهای نرمافزار قدیمی را تجزیه و تحلیل کند و آسیبپذیریها را "با دقت بالا - تا 4 برابر سریعتر از متخصصان انسانی" شناسایی کند. ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثالها] ). هوش مصنوعی اساساً یاد گرفت که کد ناامن چگونه به نظر میرسد و توانست نرمافزارهای چند دههای را اسکن کند تا توابع و کتابخانههای پرخطر را علامتگذاری کند و روند معمولاً کند حسابرسی دستی کد را به میزان قابل توجهی سرعت بخشد. این نوع ابزار میتواند برای صنایعی مانند امور مالی یا دولتی که به پایگاههای کد بزرگ و قدیمی متکی هستند، یک عامل تغییر دهنده بازی باشد - هوش مصنوعی با کشف مسائلی که کارکنان ممکن است ماهها یا سالها برای یافتن آنها (اگر هرگز) زمان صرف کنند، به مدرنسازی امنیت کمک میکند.
هوش مصنوعی مولد همچنین با پردازش نتایج اسکن آسیبپذیری و اولویتبندی آنها، به گردشهای کاری مدیریت آسیبپذیری . ابزارهایی مانند ExposureAI از هوش مصنوعی مولد استفاده میکنند تا تحلیلگران بتوانند دادههای آسیبپذیری را به زبان ساده جستجو کنند و پاسخهای فوری دریافت کنند ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). ExposureAI میتواند «مسیر حمله کامل را در یک روایت خلاصه کند» برای یک آسیبپذیری بحرانی مشخص، توضیح دهد که چگونه یک مهاجم میتواند آن را با سایر نقاط ضعف مرتبط کند تا یک سیستم را به خطر بیندازد. این ابزار حتی اقداماتی را برای اصلاح توصیه میکند و به سؤالات بعدی در مورد خطر پاسخ میدهد. این بدان معناست که وقتی یک CVE بحرانی جدید (آسیبپذیریها و آسیبپذیریهای رایج) اعلام میشود، یک تحلیلگر میتواند از هوش مصنوعی بپرسد: «آیا هیچ یک از سرورهای ما تحت تأثیر این CVE قرار دارند و بدترین سناریو در صورت عدم بهروزرسانی چیست؟» و ارزیابی روشنی از دادههای اسکن خود سازمان دریافت کند. با زمینهسازی آسیبپذیریها (مثلاً این یکی در معرض اینترنت و روی یک سرور با ارزش بالا قرار دارد، بنابراین اولویت اصلی است)، هوش مصنوعی مولد به تیمها کمک میکند تا با منابع محدود، هوشمندانه بهروزرسانی کنند.
علاوه بر یافتن و مدیریت آسیبپذیریهای شناختهشده، هوش مصنوعی مولد در آزمایش نفوذ و شبیهسازی حمله - اساساً کشف ناشناخته یا آزمایش کنترلهای امنیتی - نقش دارد. شبکههای مولد تخاصمی (GAN)، نوعی هوش مصنوعی مولد، برای ایجاد دادههای مصنوعی که ترافیک شبکه واقعی یا رفتار کاربر را تقلید میکنند، استفاده شدهاند که میتواند شامل الگوهای حمله پنهان باشد. یک مطالعه در سال 2023 پیشنهاد کرد که از GANها برای تولید ترافیک حمله روز صفر واقعبینانه برای آموزش سیستمهای تشخیص نفوذ استفاده شود ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثالها] ). با تغذیه IDS با سناریوهای حمله ساخته شده توسط هوش مصنوعی (که خطر استفاده از بدافزار واقعی در شبکههای تولیدی را ندارند)، سازمانها میتوانند دفاع خود را برای شناسایی تهدیدات جدید بدون انتظار برای برخورد با آنها در واقعیت آموزش دهند. به طور مشابه، هوش مصنوعی میتواند یک مهاجم را در حال کاوش یک سیستم شبیهسازی کند - به عنوان مثال، به طور خودکار تکنیکهای مختلف بهرهبرداری را در یک محیط امن امتحان کند تا ببیند آیا موفق میشوند یا خیر. آژانس پروژههای تحقیقاتی پیشرفته دفاعی ایالات متحده (DARPA) در اینجا نویدبخش است: چالش سایبری هوش مصنوعی ۲۰۲۳ این آژانس، به صراحت از هوش مصنوعی مولد (مانند مدلهای زبانی بزرگ) برای «یافتن و رفع خودکار آسیبپذیریها در نرمافزارهای متنباز» به عنوان بخشی از یک مسابقه استفاده میکند ( DARPA قصد دارد هوش مصنوعی، برنامههای خودمختاری را توسعه دهد که جنگجویان میتوانند به آنها اعتماد کنند > وزارت دفاع ایالات متحده > اخبار وزارت دفاع ). این ابتکار تأکید میکند که هوش مصنوعی فقط به رفع حفرههای شناخته شده کمک نمیکند؛ بلکه به طور فعال حفرههای جدید را کشف کرده و راهحلهایی را پیشنهاد میدهد، وظیفهای که به طور سنتی محدود به محققان امنیتی ماهر (و پرهزینه) است.
هوش مصنوعی مولد حتی میتواند هانیپاتهای هوشمند و دوقلوهای دیجیتال را برای دفاع ایجاد کند. استارتاپها در حال توسعه سیستمهای طعمه مبتنی بر هوش مصنوعی هستند که به طور قانعکنندهای سرورها یا دستگاههای واقعی را تقلید میکنند. همانطور که یکی از مدیران عامل توضیح داد، هوش مصنوعی مولد میتواند «سیستمهای دیجیتال را شبیهسازی کند تا از سیستمهای واقعی تقلید کند و هکرها را به دام بیندازد» ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثالها] ). این هانیپاتهای تولید شده توسط هوش مصنوعی مانند محیط واقعی رفتار میکنند (مثلاً یک دستگاه اینترنت اشیا جعلی که تلهمتری معمولی ارسال میکند) اما صرفاً برای جذب مهاجمان وجود دارند. هنگامی که یک مهاجم طعمه را هدف قرار میدهد، هوش مصنوعی اساساً آنها را فریب داده است تا روشهای خود را آشکار کنند، که مدافعان میتوانند آنها را مطالعه کرده و برای تقویت سیستمهای واقعی استفاده کنند. این مفهوم، که توسط مدلسازی مولد پشتیبانی میشود، روشی آیندهنگر برای تغییر ورق به نفع مهاجمان ، با استفاده از فریب تقویتشده توسط هوش مصنوعی، ارائه میدهد.
در صنایع مختلف، مدیریت سریعتر و هوشمندانهتر آسیبپذیری به معنای نقضهای امنیتی کمتر است. به عنوان مثال، در فناوری اطلاعات مراقبتهای بهداشتی، هوش مصنوعی ممکن است به سرعت یک کتابخانه آسیبپذیر و قدیمی را در یک دستگاه پزشکی شناسایی کند و قبل از اینکه هر مهاجمی از آن سوءاستفاده کند، آن را برطرف کند. در بانکداری، هوش مصنوعی میتواند یک حمله داخلی به یک برنامه جدید را شبیهسازی کند تا اطمینان حاصل شود که دادههای مشتری تحت همه سناریوها ایمن باقی میمانند. بنابراین، هوش مصنوعی مولد هم به عنوان یک میکروسکوپ و هم یک آزمایشکننده استرس برای وضعیت امنیتی سازمانها عمل میکند: نقصهای پنهان را روشن میکند و سیستمها را به روشهای خلاقانهای تحت فشار قرار میدهد تا از انعطافپذیری اطمینان حاصل شود.
تولید کد امن و توسعه نرمافزار
استعدادهای هوش مصنوعی مولد به تشخیص حملات محدود نمیشود - آنها همچنین به ایجاد سیستمهای امنتر از ابتدا . در توسعه نرمافزار، مولدهای کد هوش مصنوعی (مانند GitHub Copilot، OpenAI Codex و غیره) میتوانند با پیشنهاد قطعه کد یا حتی کل توابع، به توسعهدهندگان کمک کنند تا سریعتر کد بنویسند. زاویه امنیت سایبری، تضمین میکند که این قطعات کد پیشنهادی هوش مصنوعی ایمن هستند و از هوش مصنوعی برای بهبود شیوههای کدنویسی استفاده میکنند.
از یک سو، هوش مصنوعی مولد میتواند به عنوان یک دستیار کدنویسی عمل کند که بهترین شیوههای امنیتی را در خود جای داده است . توسعهدهندگان میتوانند یک ابزار هوش مصنوعی را فعال کنند، "یک تابع تنظیم مجدد رمز عبور در پایتون ایجاد کنید" و در حالت ایدهآل کدی را دریافت کنند که نه تنها کاربردی است، بلکه از دستورالعملهای ایمن نیز پیروی میکند (مثلاً اعتبارسنجی ورودی مناسب، ثبت وقایع، مدیریت خطا بدون نشت اطلاعات و غیره). چنین دستیاری که بر روی نمونههای گسترده کد امن آموزش دیده است، میتواند به کاهش خطاهای انسانی که منجر به آسیبپذیری میشوند، کمک کند. به عنوان مثال، اگر یک توسعهدهنده فراموش کند که ورودی کاربر را پاکسازی کند (در را برای تزریق SQL یا موارد مشابه باز کند)، یک هوش مصنوعی میتواند آن را به طور پیشفرض در نظر بگیرد یا به آنها هشدار دهد. برخی از ابزارهای کدنویسی هوش مصنوعی اکنون با دادههای متمرکز بر امنیت تنظیم میشوند تا دقیقاً به همین هدف خدمت کنند - اساساً، برنامهنویسی جفتی هوش مصنوعی با وجدان امنیتی .
با این حال، یک روی دیگر سکه هم وجود دارد: هوش مصنوعی مولد اگر به درستی مدیریت نشود، میتواند به راحتی آسیبپذیریهایی را ایجاد کند. همانطور که بن ورشارن، متخصص امنیت سوفوس، اشاره کرد، استفاده از هوش مصنوعی مولد برای کدنویسی «برای کد کوتاه و قابل تأیید خوب است، اما وقتی کد بررسی نشده در سیستمهای تولیدی ادغام شود، خطرناک است». خطر این است که یک هوش مصنوعی ممکن است کد منطقی صحیحی تولید کند که به گونهای ناامن باشد که یک فرد غیرمتخصص ممکن است متوجه آن نشود. علاوه بر این، بازیگران مخرب میتوانند با قرار دادن الگوهای کد آسیبپذیر (نوعی مسمومیت داده) در مدلهای هوش مصنوعی عمومی، عمداً بر آنها تأثیر بگذارند، به طوری که هوش مصنوعی کد ناامن را پیشنهاد کند. اکثر توسعهدهندگان متخصص امنیت نیستند ، بنابراین اگر یک هوش مصنوعی یک راهحل مناسب پیشنهاد کند، ممکن است کورکورانه از آن استفاده کنند، بدون اینکه متوجه شوند که دارای نقص است ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثالها] ). این نگرانی واقعی است - در واقع، اکنون یک لیست 10 مورد برتر OWASP برای LLMها (مدلهای زبان بزرگ) وجود دارد که خطرات رایج مانند این را در استفاده از هوش مصنوعی برای کدنویسی مشخص میکند.
برای مقابله با این مشکلات، کارشناسان پیشنهاد میکنند که در حوزه کدنویسی، «با هوش مصنوعی مولد به جنگ هوش مصنوعی مولد بروید» بررسی و آزمایش کدی است که سایر هوشهای مصنوعی (یا انسانها) نوشتهاند. یک هوش مصنوعی میتواند کدهای جدید را بسیار سریعتر از یک بررسیکننده کد انسانی اسکن کند و آسیبپذیریهای بالقوه یا مشکلات منطقی را شناسایی کند. ما در حال حاضر شاهد ظهور ابزارهایی هستیم که در چرخه حیات توسعه نرمافزار ادغام میشوند: کد نوشته میشود (شاید با کمک هوش مصنوعی)، سپس یک مدل مولد که بر اساس اصول کد امن آموزش دیده است، آن را بررسی میکند و گزارشی از هرگونه نگرانی (مثلاً استفاده از توابع منسوخ شده، بررسیهای احراز هویت از دست رفته و غیره) تهیه میکند. تحقیقات NVIDIA که قبلاً به آن اشاره شد و به تشخیص آسیبپذیری ۴ برابر سریعتر در کد دست یافت، نمونهای از مهار هوش مصنوعی برای تجزیه و تحلیل کد امن است ( ۶ مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثالها] ).
علاوه بر این، هوش مصنوعی مولد میتواند در ایجاد پیکربندیها و اسکریپتهای امن . به عنوان مثال، اگر شرکتی نیاز به استقرار یک زیرساخت ابری امن داشته باشد، یک مهندس میتواند از یک هوش مصنوعی بخواهد اسکریپتهای پیکربندی (زیرساخت به عنوان کد) را با کنترلهای امنیتی (مانند تقسیمبندی مناسب شبکه، نقشهای IAM با حداقل امتیاز) که در آن گنجانده شده است، تولید کند. هوش مصنوعی، که بر روی هزاران پیکربندی از این دست آموزش دیده است، میتواند یک خط پایه ایجاد کند که سپس مهندس آن را تنظیم دقیق میکند. این امر راهاندازی ایمن سیستمها را تسریع میکند و خطاهای پیکربندی نادرست را کاهش میدهد - منبع مشترک حوادث امنیتی ابری.
برخی سازمانها همچنین از هوش مصنوعی مولد برای حفظ پایگاه دانش الگوهای کدنویسی امن استفاده میکنند. اگر یک توسعهدهنده مطمئن نیست که چگونه یک ویژگی خاص را به صورت ایمن پیادهسازی کند، میتواند از یک هوش مصنوعی داخلی که از پروژههای گذشته و دستورالعملهای امنیتی شرکت آموخته است، پرسوجو کند. هوش مصنوعی ممکن است یک رویکرد پیشنهادی یا حتی قطعه کدی را که هم با الزامات عملکردی و هم با استانداردهای امنیتی شرکت همسو است، بازگرداند. این رویکرد توسط ابزارهایی مانند اتوماسیون پرسشنامه Secureframe که پاسخها را از سیاستهای یک شرکت و راهحلهای گذشته استخراج میکند تا پاسخهای سازگار و دقیق (اساساً تولید مستندات امن) را تضمین کند ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). این مفهوم به کدنویسی ترجمه میشود: هوش مصنوعی که "به یاد میآورد" که چگونه قبلاً چیزی را به صورت ایمن پیادهسازی کردهاید و شما را راهنمایی میکند تا دوباره آن را به همان روش انجام دهید.
به طور خلاصه، هوش مصنوعی مولد با در دسترستر کردن کمک به کدنویسی امن، . صنایعی که نرمافزارهای سفارشی زیادی - فناوری، مالی، دفاعی و غیره - توسعه میدهند، از داشتن دستیاران هوش مصنوعی که نه تنها سرعت کدنویسی را افزایش میدهند، بلکه به عنوان یک بررسیکننده امنیتی همیشه هوشیار عمل میکنند، سود میبرند. این ابزارهای هوش مصنوعی، در صورت مدیریت صحیح، میتوانند ورود آسیبپذیریهای جدید را کاهش داده و به تیمهای توسعه کمک کنند تا به بهترین شیوهها پایبند باشند، حتی اگر تیم در هر مرحله یک متخصص امنیتی نداشته باشد. نتیجه، نرمافزاری است که از روز اول در برابر حملات مقاومتر است.
پشتیبانی واکنش به حوادث
وقتی یک حادثه امنیت سایبری رخ میدهد - چه شیوع بدافزار، نقض دادهها یا قطع سیستم در اثر حمله - زمان بسیار مهم است. هوش مصنوعی مولد به طور فزایندهای برای پشتیبانی از تیمهای واکنش به حادثه (IR) در مهار و اصلاح سریعتر حوادث و با اطلاعات بیشتر در دسترس، مورد استفاده قرار میگیرد. ایده این است که هوش مصنوعی میتواند بخشی از بار تحقیقات و مستندسازی را در طول یک حادثه بر عهده بگیرد و حتی برخی از اقدامات واکنشی را پیشنهاد یا خودکار کند.
یکی از نقشهای کلیدی هوش مصنوعی در بازیابی اطلاعات ، تحلیل و خلاصهسازی بلادرنگ حوادث . در بحبوحه یک حادثه، پاسخدهندگان ممکن است به پاسخهایی برای سؤالاتی مانند «مهاجم چگونه وارد شده است؟» ، «کدام سیستمها تحت تأثیر قرار گرفتهاند؟» و «چه دادههایی ممکن است به خطر افتاده باشند؟» . هوش مصنوعی مولد میتواند گزارشها، هشدارها و دادههای پزشکی قانونی را از سیستمهای آسیبدیده تجزیه و تحلیل کند و به سرعت بینشهایی ارائه دهد. به عنوان مثال، Microsoft Security Copilot به یک پاسخدهنده حادثه اجازه میدهد تا شواهد مختلفی (فایلها، URLها، گزارشهای رویداد) را ارائه دهد و یک جدول زمانی یا خلاصه درخواست کند ( Microsoft Security Copilot یک دستیار هوش مصنوعی جدید GPT-4 برای امنیت سایبری است | The Verge ). هوش مصنوعی ممکن است اینگونه پاسخ دهد: «احتمالاً این نقض امنیتی با یک ایمیل فیشینگ به کاربر JohnDoe در ساعت 10:53 به وقت گرینویچ حاوی بدافزار X آغاز شده است. پس از اجرا، بدافزار یک در پشتی ایجاد کرد که دو روز بعد برای انتقال جانبی به سرور مالی، جایی که دادهها را جمعآوری میکرد، استفاده شد.» داشتن این تصویر منسجم در عرض چند دقیقه به جای چند ساعت، تیم را قادر میسازد تا تصمیمات آگاهانهای (مانند اینکه کدام سیستمها باید ایزوله شوند) را بسیار سریعتر اتخاذ کند.
هوش مصنوعی مولد همچنین میتواند اقدامات مهار و اصلاح را پیشنهاد دهد . به عنوان مثال، اگر یک نقطه پایانی توسط باجافزار آلوده شود، یک ابزار هوش مصنوعی میتواند یک اسکریپت یا مجموعهای از دستورالعملها را برای ایزوله کردن آن دستگاه، غیرفعال کردن حسابهای خاص و مسدود کردن IP های مخرب شناخته شده در فایروال تولید کند - اساساً یک اجرای دستورالعمل. Palo Alto Networks خاطرنشان میکند که هوش مصنوعی مولد قادر به "تولید اقدامات یا اسکریپتهای مناسب بر اساس ماهیت حادثه" و مراحل اولیه پاسخ را خودکار میکند ( هوش مصنوعی مولد در امنیت سایبری چیست؟ - Palo Alto Networks ). در سناریویی که تیم امنیتی دچار مشکل شده است (مثلاً یک حمله گسترده در صدها دستگاه)، هوش مصنوعی حتی ممکن است مستقیماً برخی از این اقدامات را تحت شرایط از پیش تأیید شده اجرا کند و مانند یک پاسخدهنده جوان که خستگیناپذیر کار میکند، عمل کند. به عنوان مثال، یک عامل هوش مصنوعی میتواند به طور خودکار اعتبارنامههایی را که به نظر میرسد به خطر افتادهاند، بازنشانی کند یا میزبانهایی را که فعالیت مخربی مطابق با مشخصات حادثه نشان میدهند، قرنطینه کند.
در طول پاسخ به حادثه، ارتباطات حیاتی است - چه در داخل تیم و چه با ذینفعان. هوش مصنوعی مولد میتواند با تهیه گزارشهای بهروزرسانی حادثه یا خلاصههای فوری . به جای اینکه یک مهندس عیبیابی خود را برای نوشتن یک بهروزرسانی ایمیل متوقف کند، میتواند از هوش مصنوعی بپرسد: «خلاصهای از آنچه تاکنون در این حادثه اتفاق افتاده است را برای اطلاع مدیران ارائه دهید.» هوش مصنوعی، پس از دریافت دادههای حادثه، میتواند خلاصهای مختصر ارائه دهد: «تا ساعت 3 بعد از ظهر، مهاجمان به 2 حساب کاربری و 5 سرور دسترسی پیدا کردهاند. دادههای آسیبدیده شامل سوابق مشتری در پایگاه داده X است. اقدامات مهار: دسترسی VPN برای حسابهای آسیبدیده لغو شده و سرورها ایزوله شدهاند. مراحل بعدی: اسکن هرگونه مکانیسم پایداری.» سپس پاسخدهنده میتواند به سرعت این را تأیید یا اصلاح کند و آن را ارسال کند و اطمینان حاصل کند که ذینفعان با اطلاعات دقیق و بهروز در جریان امور قرار میگیرند.
پس از فروکش کردن گرد و غبار، معمولاً یک گزارش حادثه دقیق برای تهیه و درسهای آموخته شده برای گردآوری وجود دارد. این حوزه دیگری است که پشتیبانی هوش مصنوعی در آن میدرخشد. این فناوری میتواند تمام دادههای حادثه را بررسی کرده و یک گزارش پس از حادثه شامل علت اصلی، وقایعنگاری، تأثیر و توصیهها ایجاد کند. به عنوان مثال، IBM در حال ادغام هوش مصنوعی مولد است تا با فشار یک دکمه «خلاصههای سادهای از موارد امنیتی و حوادثی که میتوانند با ذینفعان به اشتراک گذاشته شوند» چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). با سادهسازی گزارشهای پس از اقدام، سازمانها میتوانند سریعتر بهبودها را پیادهسازی کنند و همچنین مستندات بهتری برای اهداف انطباق داشته باشند.
یکی از کاربردهای نوآورانه و آیندهنگر، شبیهسازیهای حادثه مبتنی بر هوش مصنوعی . مشابه نحوه اجرای مانور آتشنشانی، برخی از شرکتها از هوش مصنوعی مولد برای اجرای سناریوهای حادثه «چه میشود اگر» استفاده میکنند. هوش مصنوعی ممکن است شبیهسازی کند که چگونه یک باجافزار ممکن است با توجه به طرح شبکه گسترش یابد، یا چگونه یک نفوذی میتواند دادهها را استخراج کند، و سپس اثربخشی برنامههای واکنش فعلی را ارزیابی کند. این به تیمها کمک میکند تا قبل از وقوع یک حادثه واقعی، دستورالعملها را آماده و اصلاح کنند. مانند داشتن یک مشاور واکنش به حادثه است که دائماً آمادگی شما را آزمایش میکند.
در صنایع پرریسک مانند امور مالی یا مراقبتهای بهداشتی، که در آنها خرابی یا از دست دادن دادهها در اثر حوادث بسیار پرهزینه است، این قابلیتهای بازیابی اطلاعات مبتنی بر هوش مصنوعی بسیار جذاب هستند. بیمارستانی که دچار یک حادثه سایبری میشود، نمیتواند از پس قطعی طولانی مدت سیستم برآید - هوش مصنوعی که به سرعت در مهار آن کمک کند، میتواند به معنای واقعی کلمه نجاتبخش باشد. به طور مشابه، یک موسسه مالی میتواند از هوش مصنوعی برای رسیدگی به تریاژ اولیه یک حمله مشکوک به کلاهبرداری در ساعت ۳ بامداد استفاده کند، به طوری که تا زمانی که افراد حاضر در محل آنلاین میشوند، بسیاری از کارهای مقدماتی (خروج از حسابهای آسیبدیده، مسدود کردن تراکنشها و غیره) از قبل انجام شده باشد. با تقویت تیمهای واکنش به حادثه با هوش مصنوعی مولد ، سازمانها میتوانند زمان پاسخگویی را به میزان قابل توجهی کاهش داده و دقت رسیدگی خود را بهبود بخشند و در نهایت آسیبهای ناشی از حوادث سایبری را کاهش دهند.
تجزیه و تحلیل رفتاری و تشخیص ناهنجاری
بسیاری از حملات سایبری را میتوان با توجه به انحراف چیزی از رفتار «عادی» تشخیص داد - چه دانلود حجم غیرمعمولی از دادهها توسط یک حساب کاربری باشد و چه ارتباط ناگهانی یک دستگاه شبکه با یک میزبان ناآشنا. هوش مصنوعی مولد تکنیکهای پیشرفتهای را برای تحلیل رفتاری و تشخیص ناهنجاری ، الگوهای عادی کاربران و سیستمها را یاد میگیرد و سپس در صورت بروز هرگونه مشکل، آن را علامتگذاری میکند.
تشخیص ناهنجاری سنتی اغلب از آستانههای آماری یا یادگیری ماشینی ساده بر روی معیارهای خاص (افزایش ناگهانی مصرف CPU، ورود به سیستم در ساعات نامناسب و غیره) استفاده میکند. هوش مصنوعی مولد میتواند با ایجاد پروفایلهای رفتاری ظریفتر، این کار را فراتر ببرد. به عنوان مثال، یک مدل هوش مصنوعی میتواند ورودها، الگوهای دسترسی به فایلها و عادات ایمیل یک کارمند را در طول زمان دریافت کند و درک چندبعدی از «عادی» آن کاربر ایجاد کند. اگر آن حساب بعداً کاری به شدت خارج از هنجار خود انجام دهد (مانند ورود از یک کشور جدید و دسترسی به مجموعهای از فایلهای منابع انسانی در نیمهشب)، هوش مصنوعی انحراف را نه تنها در یک معیار، بلکه به عنوان یک الگوی رفتاری کلی که با نمایه کاربر مطابقت ندارد، تشخیص میدهد. از نظر فنی، مدلهای مولد (مانند رمزگذارهای خودکار یا مدلهای توالی) میتوانند آنچه را که «عادی» به نظر میرسد مدلسازی کنند و سپس طیف وسیعی از رفتار مورد انتظار را ایجاد کنند. وقتی واقعیت خارج از آن محدوده قرار میگیرد، به عنوان یک ناهنجاری علامتگذاری میشود ( هوش مصنوعی مولد در امنیت سایبری چیست؟ - شبکههای پالو آلتو ).
یکی از کاربردهای عملی آن در نظارت بر ترافیک شبکه . طبق یک نظرسنجی در سال ۲۰۲۴، ۵۴٪ از سازمانهای آمریکایی، نظارت بر ترافیک شبکه را به عنوان یکی از موارد استفاده برتر هوش مصنوعی در امنیت سایبری ذکر کردند ( آمریکای شمالی: موارد استفاده برتر هوش مصنوعی در امنیت سایبری در سراسر جهان در سال ۲۰۲۴ ). هوش مصنوعی مولد میتواند الگوهای ارتباطی عادی شبکه یک سازمان را یاد بگیرد - اینکه کدام سرورها معمولاً با یکدیگر صحبت میکنند، چه حجمی از دادهها در ساعات کاری در مقابل شب جابجا میشوند و غیره. اگر یک مهاجم شروع به استخراج دادهها از یک سرور کند، حتی به آرامی برای جلوگیری از شناسایی، یک سیستم مبتنی بر هوش مصنوعی ممکن است متوجه شود که "سرور A هرگز ۵۰۰ مگابایت داده را در ساعت ۲ بامداد به یک IP خارجی ارسال نمیکند" و هشداری را اعلام کند. از آنجا که هوش مصنوعی فقط از قوانین ایستا استفاده نمیکند، بلکه از یک مدل در حال تکامل از رفتار شبکه استفاده میکند، میتواند ناهنجاریهای ظریفی را که قوانین ایستا (مانند "هشدار اگر داده > X مگابایت") ممکن است از دست بدهند یا به اشتباه علامتگذاری کنند، تشخیص دهد. این ماهیت تطبیقی همان چیزی است که تشخیص ناهنجاری مبتنی بر هوش مصنوعی را در محیطهایی مانند شبکههای تراکنش بانکی، زیرساختهای ابری یا ناوگان دستگاههای IoT قدرتمند میکند، جایی که تعریف قوانین ثابت برای عادی در مقابل غیرعادی بسیار پیچیده است.
تجزیه و تحلیل رفتار کاربر (UBA) کمک میکند ، که کلید تشخیص تهدیدات داخلی یا حسابهای کاربری در معرض خطر است. با ایجاد یک خط پایه از هر کاربر یا نهاد، هوش مصنوعی میتواند مواردی مانند سوءاستفاده از اعتبارنامه را تشخیص دهد. به عنوان مثال، اگر باب از بخش حسابداری ناگهان شروع به پرس و جو از پایگاه داده مشتری کند (کاری که قبلاً هرگز انجام نداده بود)، مدل هوش مصنوعی برای رفتار باب، این را به عنوان غیرمعمول علامتگذاری میکند. ممکن است بدافزار نباشد - میتواند موردی از سرقت و استفاده از اعتبارنامههای باب توسط یک مهاجم باشد، یا باب در جایی که نباید، کاوش میکند. در هر صورت، تیم امنیتی برای بررسی، هشدار دریافت میکند. چنین سیستمهای UBA مبتنی بر هوش مصنوعی در محصولات امنیتی مختلف وجود دارند و تکنیکهای مدلسازی مولد با در نظر گرفتن زمینه (شاید باب در یک پروژه خاص است و غیره، که هوش مصنوعی گاهی اوقات میتواند از دادههای دیگر استنباط کند) دقت خود را افزایش داده و هشدارهای کاذب را کاهش میدهند.
در حوزه مدیریت هویت و دسترسی، تشخیص دیپفیک یک نیاز رو به رشد است - هوش مصنوعی مولد میتواند صداها و ویدیوهای مصنوعی ایجاد کند که امنیت بیومتریک را فریب میدهد. جالب اینجاست که هوش مصنوعی مولد همچنین میتواند با تجزیه و تحلیل مصنوعات ظریف در صدا یا تصویر که برای انسان دشوار است، به تشخیص این دیپفیکها کمک کند. ما نمونهای را با Accenture دیدیم که از هوش مصنوعی مولد برای شبیهسازی حالات و شرایط بیشماری از چهره برای آموزش سیستمهای بیومتریک خود برای تشخیص کاربران واقعی از دیپفیکهای تولید شده توسط هوش مصنوعی استفاده کرد. طی پنج سال، این رویکرد به Accenture کمک کرد تا رمزهای عبور را برای 90٪ از سیستمهای خود حذف کند (به سمت بیومتریک و سایر عوامل حرکت کند) و حملات را 60٪ کاهش دهد ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثالها] ). اساساً، آنها از هوش مصنوعی مولد برای تقویت احراز هویت بیومتریک استفاده کردند و آن را در برابر حملات مولد مقاوم ساختند (یک نمونه عالی از هوش مصنوعی در برابر هوش مصنوعی). این نوع مدلسازی رفتاری - در این مورد تشخیص تفاوت بین چهره زنده انسان در مقابل چهره مصنوعی ساخته شده توسط هوش مصنوعی - بسیار مهم است زیرا ما در احراز هویت بیشتر به هوش مصنوعی متکی هستیم.
تشخیص ناهنجاری که توسط هوش مصنوعی مولد ارائه میشود، در صنایع مختلف قابل اجرا است: در مراقبتهای بهداشتی، نظارت بر رفتار دستگاههای پزشکی برای یافتن نشانههای هک؛ در امور مالی، نظارت بر سیستمهای معاملاتی برای یافتن الگوهای نامنظم که میتواند نشاندهنده کلاهبرداری یا دستکاری الگوریتمی باشد؛ در انرژی/خدمات رفاهی، مشاهده سیگنالهای سیستم کنترل برای یافتن نشانههای نفوذ. ترکیب وسعت (نگاه کردن به تمام جنبههای رفتار) و عمق (درک الگوهای پیچیده) که هوش مصنوعی مولد ارائه میدهد، آن را به ابزاری قدرتمند برای تشخیص نشانههای یک حادثه سایبری تبدیل میکند. با پنهان شدن تهدیدات در میان عملیات عادی، این توانایی برای توصیف دقیق «عادی» و فریاد زدن هنگام انحراف، حیاتی میشود. بنابراین، هوش مصنوعی مولد به عنوان یک نگهبان خستگیناپذیر عمل میکند، همیشه در حال یادگیری و بهروزرسانی تعریف خود از عادی بودن است تا با تغییرات محیط همگام باشد و تیمهای امنیتی را از ناهنجاریهایی که نیاز به بررسی دقیقتر دارند، آگاه کند.
فرصتها و مزایای هوش مصنوعی مولد در امنیت سایبری
کاربرد هوش مصنوعی مولد در امنیت سایبری، فرصتها و مزایای برای سازمانهایی که مایل به پذیرش این ابزارها هستند، به ارمغان میآورد. در زیر، مزایای کلیدی که هوش مصنوعی مولد را به یک افزودنی جذاب برای برنامههای امنیت سایبری تبدیل میکند، خلاصه میکنیم:
-
تشخیص و پاسخ سریعتر به تهدید: سیستمهای هوش مصنوعی مولد میتوانند حجم عظیمی از دادهها را در زمان واقعی تجزیه و تحلیل کنند و تهدیدها را بسیار سریعتر از تجزیه و تحلیل دستی انسان تشخیص دهند. این مزیت سرعت به معنای تشخیص زودهنگام حملات و مهار سریعتر حادثه است. در عمل، نظارت امنیتی مبتنی بر هوش مصنوعی میتواند تهدیدهایی را که برای انسان بسیار طولانیتر است، شناسایی کند. با پاسخ سریع به حوادث (یا حتی اجرای خودکار پاسخهای اولیه)، سازمانها میتوانند زمان حضور مهاجمان در شبکههای خود را به طور چشمگیری کاهش دهند و آسیب را به حداقل برسانند.
-
بهبود دقت و پوشش تهدید: از آنجا که مدلهای مولد به طور مداوم از دادههای جدید یاد میگیرند، میتوانند با تهدیدهای در حال تکامل سازگار شوند و نشانههای ظریفتری از فعالیتهای مخرب را تشخیص دهند. این امر منجر به بهبود دقت تشخیص (کاهش منفی کاذب و مثبت کاذب) در مقایسه با قوانین ایستا میشود. به عنوان مثال، یک هوش مصنوعی که نشانههای یک ایمیل فیشینگ یا رفتار بدافزار را یاد گرفته است، میتواند انواعی را که قبلاً هرگز دیده نشده بودند، شناسایی کند. نتیجه، پوشش گستردهتری از انواع تهدید - از جمله حملات جدید - است که وضعیت کلی امنیت را تقویت میکند. تیمهای امنیتی همچنین از تجزیه و تحلیل هوش مصنوعی (مثلاً توضیحات رفتار بدافزار) بینش دقیقی به دست میآورند و امکان دفاع دقیقتر و هدفمندتر را فراهم میکنند ( هوش مصنوعی مولد در امنیت سایبری چیست؟ - شبکههای پالو آلتو ).
-
خودکارسازی وظایف تکراری: هوش مصنوعی مولد در خودکارسازی وظایف امنیتی روتین و پرزحمت - از بررسی لاگها و گردآوری گزارشها گرفته تا نوشتن اسکریپتهای پاسخ به حادثه - عالی عمل میکند. این خودکارسازی، بار تحلیلگران انسانی را کاهش میدهد و آنها را آزاد میکند تا بر استراتژی سطح بالا و تصمیمگیریهای پیچیده تمرکز کنند ( هوش مصنوعی مولد در امنیت سایبری چیست؟ - شبکههای پالو آلتو ). کارهای روزمره اما مهم مانند اسکن آسیبپذیری، حسابرسی پیکربندی، تجزیه و تحلیل فعالیت کاربر و گزارش انطباق را میتوان توسط هوش مصنوعی انجام داد (یا حداقل از ابتدا طراحی کرد). با انجام این وظایف با سرعت ماشین، هوش مصنوعی نه تنها کارایی را بهبود میبخشد، بلکه خطای انسانی (عامل مهمی در نقضها) را نیز کاهش میدهد.
-
دفاع و شبیهسازی پیشگیرانه: هوش مصنوعی مولد به سازمانها اجازه میدهد تا از امنیت واکنشی به امنیت پیشگیرانه تغییر کنند. از طریق تکنیکهایی مانند شبیهسازی حمله، تولید دادههای مصنوعی و آموزش مبتنی بر سناریو، مدافعان میتوانند تهدیدات را قبل از وقوع در دنیای واقعی پیشبینی و برای آنها آماده شوند. تیمهای امنیتی میتوانند حملات سایبری (کمپینهای فیشینگ، شیوع بدافزارها، DDoS و غیره) را در محیطهای امن شبیهسازی کنند تا پاسخهای خود را آزمایش کرده و هرگونه ضعف را برطرف کنند. این آموزش مداوم، که اغلب انجام کامل آن فقط با تلاش انسانی غیرممکن است، دفاعها را تیز و بهروز نگه میدارد. این شبیه به یک "تمرین آتش" سایبری است - هوش مصنوعی میتواند تهدیدهای فرضی زیادی را به سمت دفاع شما پرتاب کند تا بتوانید تمرین کرده و بهبود یابید.
-
افزایش تخصص انسانی (هوش مصنوعی به عنوان یک تقویتکننده نیرو): هوش مصنوعی مولد به عنوان یک تحلیلگر، مشاور و دستیار خستگیناپذیر در یک واحد عمل میکند. این هوش مصنوعی میتواند به اعضای کمتجربهتر تیم، راهنمایی و توصیههایی را که معمولاً از متخصصان باتجربه انتظار میرود، ارائه دهد و به طور مؤثر تخصص را در سراسر تیم دموکراتیزه کند ( 6 مورد استفاده برای هوش مصنوعی مولد در امنیت سایبری [+ مثالها] ). این امر به ویژه با توجه به کمبود استعداد در امنیت سایبری ارزشمند است - هوش مصنوعی به تیمهای کوچکتر کمک میکند تا با کمترین هزینه، کار بیشتری انجام دهند. از سوی دیگر، تحلیلگران باتجربه از مدیریت کارهای طاقتفرسا توسط هوش مصنوعی و آشکار کردن بینشهای غیرواضح بهرهمند میشوند که میتوانند آنها را اعتبارسنجی کرده و بر اساس آنها عمل کنند. نتیجه کلی، یک تیم امنیتی است که بسیار پربارتر و توانمندتر است و هوش مصنوعی تأثیر هر عضو انسانی را تقویت میکند ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد ).
-
پشتیبانی و گزارشدهی پیشرفته از تصمیمگیری: هوش مصنوعی مولد با ترجمه دادههای فنی به بینشهای زبان طبیعی، ارتباطات و تصمیمگیری را بهبود میبخشد. رهبران امنیتی از طریق خلاصههای تولید شده توسط هوش مصنوعی، دید واضحتری نسبت به مسائل پیدا میکنند و میتوانند بدون نیاز به تجزیه دادههای خام، تصمیمات استراتژیک آگاهانهای بگیرند. به همین ترتیب، ارتباطات بین بخشی (با مدیران، مسئولین انطباق و غیره) زمانی بهبود مییابد که هوش مصنوعی گزارشهای قابل فهمی از وضعیت امنیتی و حوادث تهیه کند ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). این امر نه تنها باعث ایجاد اعتماد و هماهنگی در مورد مسائل امنیتی در سطح رهبری میشود، بلکه با بیان واضح خطرات و شکافهای کشف شده توسط هوش مصنوعی، به توجیه سرمایهگذاریها و تغییرات نیز کمک میکند.
در مجموع، این مزایا به این معنی است که سازمانهایی که از هوش مصنوعی مولد در امنیت سایبری استفاده میکنند، میتوانند با هزینههای عملیاتی بالقوه پایینتر، به وضعیت امنیتی قویتری دست یابند. آنها میتوانند به تهدیدهایی که قبلاً طاقتفرسا بودند، پاسخ دهند، شکافهایی را که تحت نظارت نبودند، پوشش دهند و از طریق حلقههای بازخورد مبتنی بر هوش مصنوعی، به طور مداوم بهبود یابند. در نهایت، هوش مصنوعی مولد با تطبیق سرعت ، مقیاس و پیچیدگی حملات مدرن با دفاعهای به همان اندازه پیچیده، فرصتی برای پیشی گرفتن از دشمنان ارائه میدهد. همانطور که یک نظرسنجی نشان داد، بیش از نیمی از رهبران کسبوکار و سایبری پیشبینی میکنند که از طریق استفاده از هوش مصنوعی مولد، تشخیص سریعتر تهدید و افزایش دقت انجام شود ( [PDF] چشمانداز امنیت سایبری جهانی 2025 | مجمع جهانی اقتصاد ) ( هوش مصنوعی مولد در امنیت سایبری: بررسی جامع LLM ... ) - گواهی بر خوشبینی در مورد مزایای این فناوریها.
خطرات و چالشهای استفاده از هوش مصنوعی مولد در امنیت سایبری
اگرچه فرصتها قابل توجه هستند، اما بسیار مهم است که با چشمانی باز به خطرات و چالشهای موجود در امنیت سایبری به هوش مصنوعی مولد نزدیک شویم. اعتماد کورکورانه به هوش مصنوعی یا سوءاستفاده از آن میتواند آسیبپذیریهای جدیدی را ایجاد کند. در زیر، نگرانیها و مشکلات اصلی را به همراه زمینه برای هر یک شرح میدهیم:
-
استفاده خصمانه توسط مجرمان سایبری: همان قابلیتهای تولیدی که به مدافعان کمک میکند، میتواند مهاجمان را نیز توانمند سازد. عاملان تهدید در حال حاضر از هوش مصنوعی تولیدی برای ایجاد ایمیلهای فیشینگ قانعکنندهتر، ایجاد شخصیتهای جعلی و ویدیوهای دیپفیک برای مهندسی اجتماعی، توسعه بدافزارهای چندریختی که دائماً برای فرار از تشخیص تغییر میکنند و حتی خودکارسازی جنبههای هک استفاده میکنند ( هوش مصنوعی تولیدی در امنیت سایبری چیست؟ - شبکههای پالو آلتو ). تقریباً نیمی (46٪) از رهبران امنیت سایبری نگران این هستند که هوش مصنوعی تولیدی منجر به حملات خصمانه پیشرفتهتری شود ( امنیت هوش مصنوعی تولیدی: روندها، تهدیدها و استراتژیهای کاهش ). این «مسابقه تسلیحاتی هوش مصنوعی» به این معنی است که با پذیرش هوش مصنوعی توسط مدافعان، مهاجمان خیلی عقب نخواهند ماند (در واقع، آنها ممکن است در برخی زمینهها با استفاده از ابزارهای هوش مصنوعی تنظیم نشده، جلوتر باشند). سازمانها باید برای تهدیدات تقویتشده با هوش مصنوعی که مکررتر، پیچیدهتر و ردیابی آنها دشوار است، آماده باشند.
-
توهمات و عدم دقت هوش مصنوعی: مدلهای هوش مصنوعی مولد میتوانند خروجیهایی تولید کنند که قابل قبول اما نادرست یا گمراهکننده - پدیدهای که به عنوان توهم شناخته میشود. در زمینه امنیتی، یک هوش مصنوعی ممکن است یک حادثه را تجزیه و تحلیل کند و به اشتباه نتیجه بگیرد که یک آسیبپذیری خاص علت آن بوده است، یا ممکن است یک اسکریپت اصلاح ناقص ایجاد کند که نتواند حمله را مهار کند. اگر این اشتباهات به صورت ظاهری در نظر گرفته شوند، میتوانند خطرناک باشند. همانطور که NTT Data هشدار میدهد، "هوش مصنوعی مولد ممکن است به طور قابل قبولی محتوای نادرستی را تولید کند و این پدیده توهم نامیده میشود... در حال حاضر حذف کامل آنها دشوار است" ( خطرات امنیتی هوش مصنوعی مولد و اقدامات متقابل و تأثیر آن بر امنیت سایبری | گروه NTT DATA ). اتکای بیش از حد به هوش مصنوعی بدون تأیید میتواند منجر به تلاشهای نادرست یا احساس امنیت کاذب شود. به عنوان مثال، یک هوش مصنوعی ممکن است یک سیستم حیاتی را به اشتباه به عنوان ایمن علامتگذاری کند در حالی که اینطور نیست، یا برعکس، با "تشخیص" نقضی که هرگز اتفاق نیفتاده است، باعث ایجاد وحشت شود. اعتبارسنجی دقیق خروجیهای هوش مصنوعی و مشارکت دادن انسانها در تصمیمگیریهای حیاتی برای کاهش این خطر ضروری است.
-
مثبت و منفی کاذب: در رابطه با توهمات، اگر یک مدل هوش مصنوعی به طور ضعیف آموزش دیده یا پیکربندی شده باشد، ممکن است فعالیت خوشخیم را بیش از حد به عنوان فعالیت مخرب گزارش کند (مثبت کاذب) یا بدتر از آن، تهدیدهای واقعی را از دست بدهد (منفی کاذب) ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد ). هشدارهای کاذب بیش از حد میتواند تیمهای امنیتی را تحت الشعاع قرار دهد و منجر به خستگی ناشی از هشدار شود (که همان افزایش بهرهوری وعده داده شده توسط هوش مصنوعی را خنثی میکند)، در حالی که تشخیصهای از دست رفته، سازمان را در معرض خطر قرار میدهد. تنظیم مدلهای مولد برای تعادل مناسب چالش برانگیز است. هر محیط منحصر به فرد است و یک هوش مصنوعی ممکن است بلافاصله به طور بهینه و خارج از چارچوب عمل نکند. یادگیری مداوم نیز یک شمشیر دولبه است - اگر هوش مصنوعی از بازخوردی که منحرف شده یا از محیطی که تغییر میکند یاد بگیرد، دقت آن میتواند نوسان کند. تیمهای امنیتی باید عملکرد هوش مصنوعی را رصد کنند و آستانهها را تنظیم کنند یا بازخورد اصلاحی به مدلها ارائه دهند. در زمینههای حساس (مانند تشخیص نفوذ برای زیرساختهای حیاتی)، شاید عاقلانه باشد که پیشنهادهای هوش مصنوعی برای مدتی به موازات سیستمهای موجود اجرا شوند تا اطمینان حاصل شود که آنها به جای تضاد، با هم هماهنگ و مکمل هستند.
-
حریم خصوصی و نشت دادهها: سیستمهای هوش مصنوعی مولد اغلب برای آموزش و بهرهبرداری به حجم زیادی از دادهها نیاز دارند. اگر این مدلها مبتنی بر ابر باشند یا به درستی سیلو نشده باشند، خطر نشت اطلاعات حساس وجود دارد. کاربران ممکن است سهواً دادههای اختصاصی یا دادههای شخصی را به یک سرویس هوش مصنوعی وارد کنند (فکر کنید از ChatGPT بخواهید یک گزارش حادثه محرمانه را خلاصه کند) و آن دادهها میتوانند بخشی از دانش مدل شوند. در واقع، یک مطالعه اخیر نشان داد که ۵۵٪ از ورودیهای ابزارهای هوش مصنوعی مولد حاوی اطلاعات حساس یا قابل شناسایی شخصی هستند که نگرانیهای جدی در مورد نشت دادهها ایجاد میکند ( امنیت هوش مصنوعی مولد: روندها، تهدیدها و استراتژیهای کاهش ). علاوه بر این، اگر یک هوش مصنوعی بر اساس دادههای داخلی آموزش دیده باشد و به روشهای خاصی مورد پرسش قرار گیرد، ممکن است ارسال کند . سازمانها باید سیاستهای سختگیرانهای در مورد مدیریت دادهها (مثلاً استفاده از نمونههای هوش مصنوعی داخلی یا خصوصی برای مطالب حساس) اجرا کنند و به کارمندان در مورد عدم چسباندن اطلاعات محرمانه به ابزارهای هوش مصنوعی عمومی آموزش دهند. مقررات حفظ حریم خصوصی (GDPR و غیره) نیز وارد عمل میشوند - استفاده از دادههای شخصی برای آموزش هوش مصنوعی بدون رضایت یا حفاظت مناسب میتواند مغایر با قوانین باشد.
-
امنیت مدل و دستکاری: مدلهای هوش مصنوعی مولد خود میتوانند به هدف تبدیل شوند. دشمنان ممکن است در طول مرحله آموزش یا بازآموزی، با تغذیه دادههای مخرب یا گمراهکننده، مسموم کردن مدل چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد ). به عنوان مثال، یک مهاجم ممکن است به طور نامحسوس دادههای اطلاعاتی تهدیدآمیز را مسموم کند تا هوش مصنوعی نتواند بدافزار خود مهاجم را به عنوان مخرب تشخیص دهد. تاکتیک دیگر، تزریق سریع یا دستکاری خروجی است، جایی که یک مهاجم راهی برای صدور ورودی به هوش مصنوعی پیدا میکند که باعث میشود به روشهای ناخواسته رفتار کند - شاید برای نادیده گرفتن محافظهای ایمنی آن یا فاش کردن اطلاعاتی که نباید (مانند اعلانها یا دادههای داخلی) باشد. علاوه بر این، خطر فرار از مدل : مهاجمان ورودیهایی را ایجاد میکنند که به طور خاص برای فریب هوش مصنوعی طراحی شدهاند. ما این را در نمونههای خصمانه میبینیم - دادههای کمی آشفته که انسان آنها را طبیعی میبیند اما هوش مصنوعی آنها را به اشتباه طبقهبندی میکند. اطمینان از ایمن بودن زنجیره تأمین هوش مصنوعی (یکپارچگی دادهها، کنترل دسترسی مدل، آزمایش مقاومت خصمانه) بخش جدید اما ضروری امنیت سایبری هنگام استقرار این ابزارها است ( هوش مصنوعی مولد در امنیت سایبری چیست؟ - شبکههای پالو آلتو ).
-
اتکای بیش از حد و فرسایش مهارت: خطر ملایمتری وجود دارد که سازمانها میتوانند بیش از حد به هوش مصنوعی متکی شوند و اجازه دهند مهارتهای انسانی تحلیل بروند. اگر تحلیلگران جوان کورکورانه به خروجیهای هوش مصنوعی اعتماد کنند، ممکن است تفکر انتقادی و شهود لازم برای زمانی که هوش مصنوعی در دسترس نیست یا اشتباه میکند را توسعه ندهند. سناریویی که باید از آن اجتناب کرد، یک تیم امنیتی است که ابزارهای عالی دارد اما نمیداند در صورت از کار افتادن آن ابزارها چگونه عمل کند (شبیه به خلبانانی که بیش از حد به خلبان خودکار متکی هستند). تمرینهای آموزشی منظم بدون کمک هوش مصنوعی و پرورش این طرز فکر که هوش مصنوعی یک دستیار است، نه یک پیشگوی مصون از خطا، برای تیزهوش نگه داشتن تحلیلگران انسانی مهم است. انسانها باید تصمیمگیرندگان نهایی باقی بمانند، به خصوص برای قضاوتهای با تأثیر بالا.
-
چالشهای اخلاقی و انطباق: استفاده از هوش مصنوعی در امنیت سایبری، سوالات اخلاقی را مطرح میکند و میتواند منجر به مسائل مربوط به انطباق با مقررات شود. به عنوان مثال، اگر یک سیستم هوش مصنوعی به اشتباه یک کارمند را به دلیل یک ناهنجاری به عنوان یک عامل داخلی مخرب معرفی کند، میتواند به ناحق به اعتبار یا شغل آن شخص آسیب برساند. تصمیمات گرفته شده توسط هوش مصنوعی میتواند مبهم باشد (مشکل "جعبه سیاه")، و توضیح دلیل انجام برخی اقدامات را برای حسابرسان یا تنظیمکنندگان دشوار میکند. با رواج بیشتر محتوای تولید شده توسط هوش مصنوعی، اطمینان از شفافیت و حفظ پاسخگویی بسیار مهم است. تنظیمکنندگان شروع به بررسی دقیق هوش مصنوعی کردهاند - به عنوان مثال، قانون هوش مصنوعی اتحادیه اروپا الزاماتی را برای سیستمهای هوش مصنوعی "پرخطر" اعمال میکند و هوش مصنوعی امنیت سایبری ممکن است در آن دسته قرار گیرد. شرکتها باید این مقررات را مرور کنند و احتمالاً به استانداردهایی مانند چارچوب مدیریت ریسک هوش مصنوعی NIST پایبند باشند تا از هوش مصنوعی مولد به طور مسئولانه استفاده کنند ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). انطباق به صدور مجوز نیز گسترش مییابد: استفاده از مدلهای منبع باز یا شخص ثالث ممکن است شرایطی داشته باشد که کاربردهای خاصی را محدود کند یا نیاز به بهبود اشتراکگذاری داشته باشد.
به طور خلاصه، هوش مصنوعی مولد یک راه حل جادویی نیست - اگر با دقت اجرا نشود، میتواند نقاط ضعف جدیدی را حتی در حین حل نقاط ضعف دیگر ایجاد کند. یک مطالعه مجمع جهانی اقتصاد در سال 2024 نشان داد که تقریباً 47٪ از سازمانها پیشرفتهای هوش مصنوعی مولد توسط مهاجمان را به عنوان یک نگرانی اصلی ذکر میکنند، و آن را به "نگرانکنندهترین تأثیر هوش مصنوعی مولد" در امنیت سایبری تبدیل میکنند ( [PDF] چشمانداز امنیت سایبری جهانی 2025 | مجمع جهانی اقتصاد ) ( هوش مصنوعی مولد در امنیت سایبری: بررسی جامع LLM ... ). بنابراین، سازمانها باید یک رویکرد متعادل اتخاذ کنند: از مزایای هوش مصنوعی بهره ببرند و در عین حال این خطرات را از طریق حاکمیت، آزمایش و نظارت انسانی به طور دقیق مدیریت کنند. در ادامه در مورد چگونگی دستیابی عملی به این تعادل بحث خواهیم کرد.
چشمانداز آینده: نقش در حال تکامل هوش مصنوعی مولد در امنیت سایبری
با نگاهی به آینده، هوش مصنوعی مولد آماده است تا به بخش جداییناپذیری از استراتژی امنیت سایبری تبدیل شود - و به همین ترتیب، ابزاری که دشمنان سایبری همچنان از آن سوءاستفاده خواهند کرد. پویایی موش و گربه با هوش مصنوعی در هر دو طرف حصار، سرعت خواهد گرفت. در اینجا به برخی از بینشهای آیندهنگر در مورد چگونگی شکلگیری امنیت سایبری در سالهای آینده توسط هوش مصنوعی مولد اشاره میکنیم:
-
دفاع سایبری تقویتشده با هوش مصنوعی استاندارد میشود: تا سال ۲۰۲۵ و پس از آن، میتوانیم انتظار داشته باشیم که اکثر سازمانهای متوسط تا بزرگ، ابزارهای مبتنی بر هوش مصنوعی را در عملیات امنیتی خود بگنجانند. همانطور که امروزه آنتیویروسها و فایروالها استاندارد هستند، دستیارهای هوش مصنوعی و سیستمهای تشخیص ناهنجاری ممکن است به اجزای پایه معماریهای امنیتی تبدیل شوند. این ابزارها احتمالاً تخصصیتر خواهند شد - به عنوان مثال، مدلهای متمایز هوش مصنوعی که برای امنیت ابری، نظارت بر دستگاههای اینترنت اشیا، امنیت کد برنامه و غیره تنظیم شدهاند و همه با هم کار میکنند. همانطور که در یک پیشبینی ذکر شده است، "در سال ۲۰۲۵، هوش مصنوعی مولد بخش جداییناپذیر امنیت سایبری خواهد بود و سازمانها را قادر میسازد تا به طور پیشگیرانه در برابر تهدیدات پیچیده و در حال تکامل دفاع کنند" ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد ). هوش مصنوعی تشخیص تهدید در زمان واقعی را بهبود میبخشد، بسیاری از اقدامات واکنشی را خودکار میکند و به تیمهای امنیتی کمک میکند تا حجم بسیار بیشتری از دادهها را نسبت به آنچه که به صورت دستی میتوانستند، مدیریت کنند.
-
یادگیری و سازگاری مداوم: سیستمهای هوش مصنوعی مولد آینده در فضای سایبری، در یادگیری در لحظه از حوادث و اطلاعات تهدید جدید، بهتر عمل خواهند کرد و پایگاه دانش خود را تقریباً به صورت بلادرنگ بهروزرسانی خواهند کرد. این میتواند منجر به دفاعهای واقعاً تطبیقی شود - تصور کنید یک هوش مصنوعی که صبح از یک کمپین فیشینگ جدید که به شرکت دیگری حمله میکند، مطلع میشود و تا بعد از ظهر فیلترهای ایمیل شرکت شما را در پاسخ تنظیم کرده است. سرویسهای امنیتی هوش مصنوعی مبتنی بر ابر ممکن است این نوع یادگیری جمعی را تسهیل کنند، جایی که بینشهای ناشناس از یک سازمان به نفع همه مشترکین است (شبیه به اشتراکگذاری اطلاعات تهدید، اما خودکار). با این حال، این امر نیاز به مدیریت دقیق دارد تا از به اشتراک گذاشتن اطلاعات حساس جلوگیری شود و از ورود دادههای بد توسط مهاجمان به مدلهای مشترک جلوگیری شود.
-
همگرایی هوش مصنوعی و استعدادهای امنیت سایبری: مجموعه مهارتهای متخصصان امنیت سایبری به گونهای تکامل خواهد یافت که شامل مهارت در هوش مصنوعی و علوم داده شود. همانطور که تحلیلگران امروز زبانهای پرسوجو و اسکریپتنویسی را یاد میگیرند، تحلیلگران فردا ممکن است مرتباً مدلهای هوش مصنوعی را تنظیم کنند یا «کتابچههای راهنما» برای اجرای هوش مصنوعی بنویسند. ممکن است شاهد نقشهای جدیدی مانند «مربی امنیت هوش مصنوعی» یا «مهندس هوش مصنوعی امنیت سایبری» باشیم - افرادی که در تطبیق ابزارهای هوش مصنوعی با نیازهای یک سازمان، اعتبارسنجی عملکرد آنها و اطمینان از عملکرد ایمن آنها تخصص دارند. از طرف دیگر، ملاحظات امنیت سایبری به طور فزایندهای بر توسعه هوش مصنوعی تأثیر خواهد گذاشت. سیستمهای هوش مصنوعی از ابتدا با ویژگیهای امنیتی (معماری امن، تشخیص دستکاری، گزارشهای حسابرسی برای تصمیمات هوش مصنوعی و غیره) ساخته خواهند شد و چارچوبهایی برای هوش مصنوعی قابل اعتماد (منصفانه، قابل توضیح، قوی و ایمن) استقرار آنها را در زمینههای حساس امنیتی هدایت خواهد کرد.
-
حملات پیچیدهتر مبتنی بر هوش مصنوعی: متأسفانه، چشمانداز تهدید نیز با هوش مصنوعی تکامل خواهد یافت. ما پیشبینی میکنیم که استفاده مکرر از هوش مصنوعی برای کشف آسیبپذیریهای روز صفر، ایجاد فیشینگ هدفمند (مثلاً هوش مصنوعی که رسانههای اجتماعی را برای ایجاد یک طعمه کاملاً سفارشی اسکن میکند) و تولید صداها یا ویدیوهای جعلی عمیق قانعکننده برای دور زدن احراز هویت بیومتریک یا ارتکاب کلاهبرداری، افزایش یابد. ممکن است عوامل هک خودکاری ظهور کنند که بتوانند به طور مستقل حملات چند مرحلهای (شناسایی، بهرهبرداری، حرکت جانبی و غیره) را با حداقل نظارت انسانی انجام دهند. این امر مدافعان را تحت فشار قرار میدهد تا به هوش مصنوعی نیز تکیه کنند - اساساً اتوماسیون در مقابل اتوماسیون . برخی از حملات ممکن است با سرعت ماشین رخ دهند، مانند رباتهای هوش مصنوعی که هزاران تغییر ایمیل فیشینگ را امتحان میکنند تا ببینند کدام یک از فیلترها عبور میکند. دفاع سایبری برای همگام شدن با این روند باید با سرعت و انعطافپذیری مشابهی عمل کند ( هوش مصنوعی مولد در امنیت سایبری چیست؟ - شبکههای پالو آلتو ).
-
مقررات و هوش مصنوعی اخلاقی در امنیت: با نفوذ عمیق هوش مصنوعی در کارکردهای امنیت سایبری، بررسی دقیقتر و احتمالاً مقررات بیشتری برای اطمینان از استفاده مسئولانه از این سیستمهای هوش مصنوعی وجود خواهد داشت. میتوانیم انتظار چارچوبها و استانداردهای خاص هوش مصنوعی در امنیت را داشته باشیم. دولتها ممکن است دستورالعملهایی برای شفافیت تعیین کنند - مثلاً الزام کنند که تصمیمات مهم امنیتی (مانند قطع دسترسی یک کارمند به دلیل فعالیتهای مشکوک مخرب) نمیتواند به تنهایی توسط هوش مصنوعی و بدون بررسی انسانی گرفته شود. همچنین ممکن است گواهینامههایی برای محصولات امنیتی هوش مصنوعی وجود داشته باشد تا به خریداران اطمینان دهد که هوش مصنوعی از نظر سوگیری، استحکام و ایمنی ارزیابی شده است. علاوه بر این، همکاریهای بینالمللی ممکن است پیرامون تهدیدات سایبری مرتبط با هوش مصنوعی افزایش یابد. به عنوان مثال، توافقاتی در مورد مدیریت اطلاعات نادرست ایجاد شده توسط هوش مصنوعی یا هنجارهایی علیه برخی از سلاحهای سایبری مبتنی بر هوش مصنوعی.
-
ادغام با اکوسیستمهای گستردهتر هوش مصنوعی و فناوری اطلاعات: هوش مصنوعی مولد در امنیت سایبری احتمالاً با سایر سیستمهای هوش مصنوعی و ابزارهای مدیریت فناوری اطلاعات ادغام خواهد شد. به عنوان مثال، یک هوش مصنوعی که بهینهسازی شبکه را مدیریت میکند، میتواند با هوش مصنوعی امنیتی همکاری کند تا اطمینان حاصل شود که تغییرات، نقاط ضعف ایجاد نمیکنند. تجزیه و تحلیل کسبوکار مبتنی بر هوش مصنوعی ممکن است دادهها را با هوش مصنوعی امنیتی به اشتراک بگذارد تا ناهنجاریها (مانند افت ناگهانی فروش با مشکل احتمالی وبسایت به دلیل حمله) را مرتبط کند. در اصل، هوش مصنوعی در یک سیلو قرار نخواهد گرفت - بلکه بخشی از یک ساختار هوشمند بزرگتر از عملیات یک سازمان خواهد بود. این امر فرصتهایی را برای مدیریت ریسک جامع ایجاد میکند که در آن دادههای عملیاتی، دادههای تهدید و حتی دادههای امنیت فیزیکی میتوانند توسط هوش مصنوعی ترکیب شوند تا یک نمای ۳۶۰ درجه از وضعیت امنیتی سازمان ارائه دهند.
در درازمدت، امید است که هوش مصنوعی مولد به تغییر موازنه به نفع مدافعان کمک کند. هوش مصنوعی با مدیریت مقیاس و پیچیدگی محیطهای فناوری اطلاعات مدرن، میتواند فضای سایبری را قابل دفاعتر کند. با این حال، این یک سفر است و با اصلاح این فناوریها و یادگیری اعتماد مناسب به آنها، با مشکلات فزایندهای روبرو خواهیم شد. سازمانهایی که آگاه میمانند و در پذیرش مسئولانه هوش مصنوعی برای امنیت سرمایهگذاری میکنند، احتمالاً بهترین موقعیت را برای مقابله با تهدیدات آینده خواهند داشت.
همانطور که گزارش اخیر گارتنر در مورد روندهای امنیت سایبری اشاره کرده است، «ظهور موارد استفاده (و خطرات) هوش مصنوعی مولد، فشاری برای تحول ایجاد میکند» ( روندهای امنیت سایبری: تابآوری از طریق تحول - گارتنر ). کسانی که خود را وفق دهند، هوش مصنوعی را به عنوان یک متحد قدرتمند مهار خواهند کرد؛ کسانی که عقب میمانند، ممکن است خود را در برابر رقبای قدرتمند هوش مصنوعی عقب ببینند. چند سال آینده، زمان محوری در تعریف چگونگی تغییر شکل میدان نبرد سایبری توسط هوش مصنوعی خواهد بود.
نکات کاربردی برای بهکارگیری هوش مصنوعی مولد در امنیت سایبری
برای کسبوکارهایی که چگونگی استفاده از هوش مصنوعی مولد را در استراتژی امنیت سایبری خود ارزیابی میکنند، در اینجا چند نکته و توصیه عملی برای هدایت یک پذیرش مسئولانه و مؤثر ارائه شده است:
-
با آموزش و پرورش شروع کنید: اطمینان حاصل کنید که تیم امنیتی شما (و کارکنان فناوری اطلاعات گستردهتر) میدانند که هوش مصنوعی مولد چه کارهایی میتواند و چه کارهایی نمیتواند انجام دهد. آموزشهایی در مورد اصول اولیه ابزارهای امنیتی مبتنی بر هوش مصنوعی ارائه دهید و برنامههای آگاهیبخشی امنیتی را برای همه کارمندان بهروزرسانی کنید تا تهدیدات مبتنی بر هوش مصنوعی را پوشش دهند. به عنوان مثال، به کارکنان آموزش دهید که چگونه هوش مصنوعی میتواند کلاهبرداریهای فیشینگ بسیار قانعکننده و تماسهای جعلی عمیق ایجاد کند. همزمان، کارمندان را در مورد استفاده ایمن و تأیید شده از ابزارهای هوش مصنوعی در کارشان آموزش دهید. کاربران آگاه کمتر احتمال دارد که هوش مصنوعی را به اشتباه مدیریت کنند یا قربانی حملات تقویتشده با هوش مصنوعی شوند ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ).
-
سیاستهای استفاده از هوش مصنوعی را شفاف تعریف کنید: با هوش مصنوعی مولد مانند هر فناوری قدرتمندی رفتار کنید - با مدیریت. سیاستهایی را تدوین کنید که مشخص کند چه کسی میتواند از ابزارهای هوش مصنوعی استفاده کند، کدام ابزارها مجاز هستند و برای چه اهدافی. دستورالعملهایی را در مورد نحوه برخورد با دادههای حساس (مثلاً عدم ارسال دادههای محرمانه به سرویسهای هوش مصنوعی خارجی) برای جلوگیری از نشت اطلاعات درج کنید. به عنوان مثال، ممکن است فقط به اعضای تیم امنیتی اجازه دهید از یک دستیار هوش مصنوعی داخلی برای پاسخ به حوادث استفاده کنند و بازاریابی میتواند از یک هوش مصنوعی تأیید شده برای محتوا استفاده کند - هر کس دیگری محدود است. بسیاری از سازمانها اکنون به صراحت در سیاستهای فناوری اطلاعات خود به هوش مصنوعی مولد میپردازند و نهادهای استاندارد پیشرو، سیاستهای استفاده ایمن را به جای ممنوعیتهای آشکار تشویق میکنند ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). حتماً این قوانین و منطق پشت آنها را به همه کارمندان ابلاغ کنید.
-
کاهش «هوش مصنوعی سایه» و نظارت بر استفاده: مشابه فناوری اطلاعات سایه، «هوش مصنوعی سایه» زمانی ایجاد میشود که کارمندان بدون اطلاع فناوری اطلاعات شروع به استفاده از ابزارها یا خدمات هوش مصنوعی میکنند (مثلاً یک توسعهدهنده که از یک دستیار کد هوش مصنوعی غیرمجاز استفاده میکند). این میتواند خطرات نامرئی را ایجاد کند. اقداماتی را برای شناسایی و کنترل استفاده غیرمجاز از هوش مصنوعی اجرا کنید. نظارت بر شبکه میتواند اتصالات به APIهای محبوب هوش مصنوعی را علامتگذاری کند و نظرسنجیها یا ممیزیهای ابزار میتوانند آنچه را که کارکنان استفاده میکنند کشف کنند. جایگزینهای تأیید شده ارائه دهید تا کارمندان خوشنیت وسوسه نشوند که سرکش شوند (به عنوان مثال، اگر افراد آن را مفید بدانند، یک حساب رسمی ChatGPT Enterprise ارائه دهید). با آشکار کردن استفاده از هوش مصنوعی، تیمهای امنیتی میتوانند ریسک را ارزیابی و مدیریت کنند. نظارت نیز کلیدی است - فعالیتها و خروجیهای ابزار هوش مصنوعی را تا حد امکان ثبت کنید، بنابراین یک مسیر ممیزی برای تصمیماتی که هوش مصنوعی بر آنها تأثیر گذاشته است، وجود دارد ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ).
-
از هوش مصنوعی به صورت دفاعی استفاده کنید - عقب نمانید: بدانید که مهاجمان از هوش مصنوعی استفاده خواهند کرد، بنابراین دفاع شما نیز باید از آن استفاده کند. چند حوزه با تأثیر بالا را شناسایی کنید که هوش مصنوعی مولد میتواند بلافاصله به عملیات امنیتی شما کمک کند (شاید اولویتبندی هشدار یا تجزیه و تحلیل خودکار گزارشها) و پروژههای آزمایشی را اجرا کنید. دفاع خود را با سرعت و مقیاس هوش مصنوعی تقویت کنید تا با تهدیدهای سریع مقابله کنید ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). حتی ادغامهای ساده، مانند استفاده از هوش مصنوعی برای خلاصه کردن گزارشهای بدافزار یا ایجاد پرسوجوهای شکار تهدید، میتواند ساعتها در وقت تحلیلگران صرفهجویی کند. از کوچک شروع کنید، نتایج را ارزیابی کنید و تکرار کنید. موفقیتها، زمینه را برای پذیرش گستردهتر هوش مصنوعی فراهم میکنند. هدف، استفاده از هوش مصنوعی به عنوان یک عامل افزایش دهنده نیرو است - به عنوان مثال، اگر حملات فیشینگ بخش پشتیبانی شما را تحت الشعاع قرار داده است، یک طبقهبندی کننده ایمیل هوش مصنوعی را برای کاهش فعال آن حجم مستقر کنید.
-
سرمایهگذاری در شیوههای ایمن و اخلاقی هوش مصنوعی: هنگام پیادهسازی هوش مصنوعی مولد، از شیوههای توسعه و استقرار ایمن پیروی کنید. از مدلهای خصوصی یا خود-میزبانی شده تا کنترل دادهها را حفظ کنید. در صورت استفاده از سرویسهای هوش مصنوعی شخص ثالث، اقدامات امنیتی و حریم خصوصی آنها (رمزگذاری، سیاستهای نگهداری دادهها و غیره) را بررسی کنید. چارچوبهای مدیریت ریسک هوش مصنوعی (مانند چارچوب مدیریت ریسک هوش مصنوعی NIST یا راهنمای ISO/IEC) را برای رسیدگی سیستماتیک به مواردی مانند سوگیری، قابلیت توضیح و استحکام در ابزارهای هوش مصنوعی خود بگنجانید ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟ 10 مثال در دنیای واقعی ). همچنین برای بهروزرسانیها/وصلههای مدل به عنوان بخشی از نگهداری برنامهریزی کنید - مدلهای هوش مصنوعی میتوانند "آسیبپذیری" نیز داشته باشند (به عنوان مثال، اگر شروع به انحراف کنند یا نوع جدیدی از حمله خصمانه به مدل کشف شود، ممکن است نیاز به آموزش مجدد داشته باشند). با گنجاندن امنیت و اخلاق در استفاده از هوش مصنوعی خود، به نتایج اعتماد ایجاد میکنید و از رعایت مقررات نوظهور اطمینان حاصل میکنید.
-
انسانها را در جریان امور قرار دهید: از هوش مصنوعی برای کمک به قضاوت انسانی در امنیت سایبری استفاده کنید، نه اینکه کاملاً جایگزین آن شود. نقاط تصمیمگیری را که در آنها اعتبارسنجی انسانی مورد نیاز است، تعیین کنید (برای مثال، یک هوش مصنوعی ممکن است گزارشی از حادثه تهیه کند، اما یک تحلیلگر قبل از توزیع آن را بررسی کند؛ یا یک هوش مصنوعی ممکن است پیشنهاد مسدود کردن یک حساب کاربری را بدهد، اما یک انسان آن اقدام را تأیید کند). این کار نه تنها از بررسی نشدن خطاهای هوش مصنوعی جلوگیری میکند، بلکه به تیم شما کمک میکند تا از هوش مصنوعی و برعکس یاد بگیرد. یک گردش کار مشارکتی را تشویق کنید: تحلیلگران باید در زیر سوال بردن خروجیهای هوش مصنوعی و انجام بررسیهای سلامت احساس راحتی کنند. با گذشت زمان، این گفتگو میتواند هم هوش مصنوعی (از طریق بازخورد) و هم مهارتهای تحلیلگران را بهبود بخشد. اساساً، فرآیندهای خود را طوری طراحی کنید که هوش مصنوعی و نقاط قوت انسان مکمل یکدیگر باشند - هوش مصنوعی حجم و سرعت را مدیریت میکند، انسانها ابهام و تصمیمات نهایی را مدیریت میکنند.
-
اندازهگیری، نظارت و تنظیم: در نهایت، ابزارهای هوش مصنوعی مولد خود را به عنوان اجزای زنده اکوسیستم امنیتی خود در نظر بگیرید. به طور مداوم عملکرد آنها را اندازهگیری کنید - آیا آنها زمان پاسخ به حوادث را کاهش میدهند؟ تهدیدات را زودتر تشخیص میدهند؟ روند نرخ مثبت کاذب چگونه است؟ از تیم بازخورد بخواهید: آیا توصیههای هوش مصنوعی مفید است یا باعث ایجاد اختلال میشود؟ از این معیارها برای اصلاح مدلها، بهروزرسانی دادههای آموزشی یا تنظیم نحوه ادغام هوش مصنوعی استفاده کنید. تهدیدات سایبری و نیازهای تجاری در حال تکامل هستند و مدلهای هوش مصنوعی شما باید به صورت دورهای بهروزرسانی یا بازآموزی شوند تا مؤثر بمانند. برنامهای برای مدیریت مدل داشته باشید، از جمله اینکه چه کسی مسئول نگهداری آن است و چند وقت یکبار بررسی میشود. با مدیریت فعال چرخه عمر هوش مصنوعی، اطمینان حاصل میکنید که آن یک دارایی باقی میماند، نه یک بدهی.
در نتیجه، هوش مصنوعی مولد میتواند قابلیتهای امنیت سایبری را به طور قابل توجهی افزایش دهد، اما پذیرش موفقیتآمیز آن نیازمند برنامهریزی متفکرانه و نظارت مداوم است. کسبوکارهایی که افراد خود را آموزش میدهند، دستورالعملهای روشنی تعیین میکنند و هوش مصنوعی را به روشی متعادل و ایمن ادغام میکنند، از مزایای مدیریت سریعتر و هوشمندانهتر تهدیدات بهرهمند خواهند شد. این نکات کلیدی یک نقشه راه ارائه میدهند: تخصص انسانی را با اتوماسیون هوش مصنوعی ترکیب کنید، اصول اولیه حاکمیت را پوشش دهید و چابکی را همزمان با تکامل اجتنابناپذیر فناوری هوش مصنوعی و چشمانداز تهدیدات حفظ کنید.
با برداشتن این گامهای عملی، سازمانها میتوانند با اطمینان به این سوال پاسخ دهند که «چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد؟» - نه فقط در تئوری، بلکه در عمل روزمره - و از این طریق دفاع خود را در دنیای دیجیتال و هوش مصنوعی ما تقویت کنند. ( چگونه میتوان از هوش مصنوعی مولد در امنیت سایبری استفاده کرد ؟)
گزارشهای رسمی که ممکن است بعد از این یکی دوست داشته باشید بخوانید:
🔗 مشاغلی که هوش مصنوعی نمیتواند جایگزین آنها شود و هوش مصنوعی جایگزین چه مشاغلی خواهد شد؟
چشمانداز جهانی در مورد اینکه کدام نقشها از اتوماسیون در امان هستند و کدامها نیستند را بررسی کنید.
🔗 آیا هوش مصنوعی میتواند بازار سهام را پیشبینی کند؟
نگاهی دقیقتر به محدودیتها، پیشرفتها و افسانههای پیرامون توانایی هوش مصنوعی در پیشبینی حرکات بازار.
🔗 در چه مواردی میتوان بدون دخالت انسان به هوش مصنوعی مولد تکیه کرد؟
بفهمید که هوش مصنوعی در کجا میتواند مستقل عمل کند و در کجا نظارت انسانی همچنان ضروری است.