اثرات نامطلوب فناوری هوش مصنوعی (AI) در پی استفاده مجرمان از آن، که امکان ایجاد دیپفیکها و بدافزارها را فراهم کرده، ضرورت انجام اقدامات پیشگیرانه را تشدید کرده است. OpenAI، خالق ChatGPT و Dall-e، قصد ارائه یک کمک هزینه سایبری 1 میلیون دلاری برای افزایش و اندازهگیری تأثیر فناوریهای امنیت سایبری مبتنی بر هوش مصنوعی را دارد.
حمایت OpenAI از مدافعان امنیت سایبری
این شرکت هوش مصنوعی به طور مداوم بر اهمیت مقررات هوش مصنوعی برای خنثی کردن برنامههای بالقوه مخرب تأکید کرده است. به نظر میرسد OpenAI در حال انجام اقدامات پیشگیرانه برای اطمینان از عقب نماندن نیروهای مثبت است.
OpenAI طیف متنوعی از مفاهیم پروژه، از جمله ایجاد honeypot برای به دام انداختن مهاجمان، کمک به توسعهدهندگان در طراحی نرمافزار امن و بهبود روشهای مدیریت پچ برای اثربخشی بهینه را ارائه کرده است.
همانطور که OpenAI در پست وبلاگ رسمی خود بیان کرد، اهداف این برنامه آشکار است: هدف ما تقویت پیشرفت قابلیتهای امنیت سایبری مبتنی بر هوش مصنوعی برای مدافعان از طریق کمکهای مالی و سایر اشکال کمکها است. تمرکز بر ارزیابی کارآمدی مدلهای هوش مصنوعی و تعیین روشهایی برای ارتقای قابلیتهای امنیت سایبری آنها است.
این ابتکار پیشگامانه سه هدف کلیدی دارد. اولاً، این سازمان با استفاده از قابلیتهای هوش مصنوعی و تلاشهای مشترک برای تغییر تعادل به نفع افرادی که به افزایش ایمنی و امنیت کلی اختصاص دارند، به دنبال «توانمندسازی مدافعان سایبری» است.
تمرکز دیگر این ابتکار، «اندازهگیری قابلیتها» است. OpenAI به دنبال ارائه پشتیبانی از پروژههایی با تمرکز بر توسعه روشهای کمیسازی برای ارزیابی اثربخشی مدلهای هوش مصنوعی در زمینه امنیت سایبری است. علاوه بر این، OpenAI قصد دارد با ایجاد بحثهای عمیق در مورد رابطه پیچیده بین هوش مصنوعی و امنیت سایبری، سطح کیفی متخصصین را بالا ببرد.
این شرکت قدرت همکاری در راستای هدف مشترک تضمین امنیت افراد را میشناسد. مصمم است نشان دهد که با کمک هوش مصنوعی، مدافعان میتوانند دینامیک را تغییر دهند و دست برتر را به دست آورند.
منبع: Cointelegraph

پاسخها