به گزارش خبرنگار ایمنا، بر اساس یادداشتی که کامران شماعی، دکترای جغرافیای سیاسی در اختیار خبرگزاری ایمنا، قرار داده است:
«در حوزه دفاع سایبری همواره اهدافی نظیر محرمانه بودن، صداقت، در دسترس بودن، غیرقابل انکار و خروج از سیستم دوستانه مدنظر قرار میگیرد. درواقع عملیات سایبر تهاجمی و دفاعی عناصر کلیدی از جنگ اطلاعات هستند. این عوامل همواره برای حمایت از طیف کامل امور امنیت ملی در دسترس هستند، در زمان صلح عناصر قدرت ملی برای جلوگیری از بحران و درگیری کار میکنند و در زمان بحران، میتوانند به شکل دادن اوضاع به نفع کشور و کمک به جلوگیری از تشدید بالقوه خرابکاریها کمک کند.
عوامل مورد نظر در هنگام جنگ سایبری به عنوان افزاینده نیروی جنبشی مورد استفاده قرار دارد و در عملیات نیز میتوانند به زمان صلح کمک کنند. امروزه جنگ سایبری از جدیترین چالشهای امنیتی است که از طریق فضای مجازی به دولتها تحمیل میشود. تفاوت قائل شدن بین حالت تهاجمی و غیرتهاجمی در فضای مجازی بسیار حائز اهمیت است، زیرا زمانی که جنگ سایبری مطرح است، روابط بین حالات بسیار مهم است و طرفین جنگ نیز باید درباره ماهیت دقیق جنگ سایبری مطلع باشند.»
امروزه کلمه «هوش مصنوعی» را زیاد میشنویم؛ هوش مصنوعی شاخهای از علم کامپیوتر است که به ساخت ماشینهایی هوشمند میپردازد که مانند انسانها عمل میکنند و واکنش انجام میدهند. عامل هوشمند، سیستمی است که با شناسایی محیط اطراف شانس موفقیت خود را پس از تحلیل و بررسی افزایش میدهد. هوش مصنوعی در آیندهای نهچندان دور زندگی بشر را تحت تأثیر قرار خواهد داد. استفاده کسبوکارها از سیستمهای هوش مصنوعی برای مقابله با تهدیدهای سایبری در حال افزایش است.
امروزه با افزایش دیجیتالی شدن فعالیتها، attack level در سازمانهای سراسر دنیا بهطور قابل توجهی افزایش پیدا کرده است. افزایش دورکاری و نیاز سازمانها به متصل کردن شبکه داخلی به اینترنت نیز نقش قابل توجهی در افزایش سطح حمله داشته و فرصتهای زیادی برای هکرها ایجاد کرده است تا به زیرساختهای IT سازمانها حمله کنند.
با پیشرفت فناوری، تهدیدات سایبری نیز روز به روز در حال پیشرفتهتر شدن خواهند بود و هکرها از جدیدترین فناوریهای روز مثل هوش مصنوعی برای توسعه بدافزارهایی خطرناکتر و پیدا کردن روشهایی جدیدتر برای حملات سایبری بهره میبرند.
هوش مصنوعی یک ابزار همهکاره است که میتواند کاربردهای بیشماری داشته باشد؛ بهرهوری کارمندان را افزایش داده و زندگی را برای بسیاری آسانتر کند. با این حال، جنبه تاریکتری نیز وجود دارد و آن ترس از دست دادن شغل و انتشار محتوای نادرست است. برخی کارشناسان هوش مصنوعی هشدار دادهاند که ضرر این فناوری بسیار بیشتر از دستاوردهایی است که میتوان با استفاده از آن به دست آورد، بنابراین، ما باید توسعه آن را متوقف کنیم.
تهدیدهای هوشمصنوعی برای امنیت سایبری
هوش مصنوعی که بر اساس الگوریتمهای یادگیری عمیق عمل میکند، تواناییهای متعددی مانند تولید محتوای واقعی و غیرواقعی به صورت متن، تصویر و ویدئو را دارد. اگرچه هوش مصنوعی به افزایش امنیت سایبری کمک میکند، مخاطرات جدی برای این حوزه نیز ایجاد میکند. دولتها و شرکتها بهتر است برای مدیریت بهتر، مخاطرات و کاربردهای هوش مصنوعی را در امنیت سایبری بشناسند و روشهایی برای مقابله با چالشهای آن در نظر بگیرند. در ادامه به بررسی تهدیدهای هوش مصنوعی برای امنیت سایبری میپردازیم:
ارائه مطالب جعلی
هوش مصنوعی میتواند محتوای جعلی بسیار واقعی با فرمتهای تصویر، ویدئو و صدا تولید کند. افراد سوءاستفادهگر میتوانند با انتشار اطلاعات نادرست افکار عمومی را منحرف کنند و حتی هویت افراد را نیز جعل کنند. ارائه اطلاعات جعلی میتواند عواقب جدی مانند آسیب زدن به شهرت و آبروی افراد یا سوءاستفادههای دیگر داشته باشد. در نهایت این اتفاق باعث میشود به اعتماد عمومی خدشه جبرانناپذیری وارد شود.
فیشینگ یا حمله مهندسی اجتماعی
یکی از خطرات قابلتوجه هوش مصنوعی، ایجاد ایمیلهای فیشینگ، پیامها یا تماسهایی برای به دست آوردن اطلاعات از طریق جعل است. سوءاستفادهگران میتوانند از طریق فیشینگ اطلاعات حساس افراد و سازمانها را فاش کنند و دست به اقدامات مخرب بزنند. آموزش افراد در زمینه سواد سایبری و رسانه و آگاه کردن آنها نسبت به اصول مهندسی اجتماعی برای جلوگیری از فریب خوردن از ابزار فناورانه جدید، یکی از نیازهای اصلی دنیای مدرن است.
نقض حریم خصوصی افراد
استفاده از هوش مصنوعی باعث ایجاد نگرانیهایی در زمینه نقض حریم خصوصی افراد این ابزار شده است. علاوه بر این، هوش مصنوعی قادر است امنیت کاربران را در فضای سایبری تهدید کند. بنابراین لازم است قوانینی برای این ابزار جدید فناوری در نظر گرفته شود و همزمان با پیشرفتهای هوش مصنوعی بهروز شوند تا تعهدات آن با ایجاد هنجارها و ضوابط ضروری، افزایش پیدا کند.
از کار انداختن آنتیویروسها
مهاجمان میتوانند از طریق طراحی بدافزارهایی با سیستم پیچیده، ابزارهای امنیتی سنتی مانند آنتیویروسها را دور بزنند. همچنین، میتوانند با طراحی و تولید بدافزارهایی که به صورت مداوم در حال توسعه و تکامل هستند، حملات پیچیدهای انجام دهند.
فریب دادن کاربران
سوءاستفادهگران میتوانند از طریق نرمافزار تشخیص چهره و برنامهنویسی مکالمه برای تقلید زبان انسان استفاده کنند و کاربران را فریب دهند تا مطالب محرمانه را برای آنها ارسال کنند.
لزوم تدوین دستورالعمل برای هوش مصنوعی
استوارت راسل(Stuart Russell)، دانشمند مشهور رایانه در دانشگاه برکلی بر نیاز به اعمال دستورالعملهای معقول و اقدامات ایمنی برای تضمین توسعه ایمن این فناوری تاکید کرده است. راسل که به مدت ۴۵ سال در این زمینه فعالیت کرده است، میداند که تدوین دستورالعمل برای هوش مصنوعی زمانبر است، اما اگر میخواهیم فناوری هوش مصنوعی آینده عواقب فاجعهباری نداشته باشد، وضع قوانین الزامی خواهد بود.
وی توسعه فناوری هوش مصنوعی را به ساخت نیروگاه هستهای تشبیه کرده و معتقد است درست همانگونه که باید نشان داد یک نیروگاه هستهای میتواند در برابر زلزله مقاومت کند و مکانیسمهای ایمنی در آن وجود دارد، دستورالعملهای معقول نیز تضمین میکنند که فناوری هوش مصنوعی که به سرعت در حال توسعه است منجر به ایجاد «چرنوبیل در دنیای هوش مصنوعی» نمیشود.»
نظر شما