ما هوش مصنوعی را در مرورگرها صندوقهای ایمیل و سیستمهای مدیریت اسناد خود تعبیه میکنیم. ما به آن استقلال میدهیم تا از طرف ما به عنوان دستیار مجازی عمل کند. ما اطلاعات شخصی و شرکتی خود را با آن به اشتراک میگذاریم. همه اینها خطرات هوش مصنوعی و خطرات جدید امنیت سایبری را ایجاد کرده و خطر بازیهای هکرهای سنتی را افزایش میدهد.
خطرات جدید هوش مصنوعی مولد
ابتدا اجازه دهید پنج خطر جدید امنیت سایبری مرتبط با استفاده از ابزارهای هوش مصنوعی مولد را با هم مرور کنیم.
۱- روند توسعه ضعیف
سرعتی که شرکتها میتوانند برنامههای هوش مصنوعی مولد را به کار گیرند در دنیای توسعه نرمافزار بیسابقه است. کنترلهای معمولی روی توسعه نرمافزار و مدیریت چرخه عمر ممکن است همیشه وجود نداشته باشد.
به گفته آدریان ولنیک بنیانگذار aigear.io «پنهان کردن یک برنامه هوش مصنوعی در قالب یک محصول یا خدمات واقعی بسیار آسان است در حالی که در واقعیت با نظارت اندک یا بدون مراقبت یا اهمیت دادن به حریم خصوصی امنیت یا حتی ناشناس بودن کاربر اطلاعات او به راحتی قابل جمع آوری است.»
گرگ هچر بنیانگذار White Knight Labs یک شرکت مشاوره امنیت سایبری نیز با این نگاه موافق است: «تب طلا برای هوش مصنوعی به وجود آمده است. در سراسر توییتر و لینکدین هزاران پیام وجود دارد که برنامههای هوش مصنوعی جدیدی را که یک نفر در شب قبل نوشته است ارائه میکند. شما هم باید از آنها استفاده کنید وگرنه عقب خواهید ماند. اما واقعا آیا اتفاق خاصی رخ داده؟ این برنامهها فقط مقداری HTML و جاوا اسکریپت است که برای فرانت نوشته شده و صرفا چت جی پی تی در بک اند است.»
۲- افزایش خطر نقض دادهها و سرقت هویت
هنگامی که اطلاعات شخصی یا شرکتی خود را با هر برنامه نرم افزاری به اشتراک میگذاریم به این معنی است که آنقدر به آن برنامه اعتماد داریم که در برابر حملات سایبری از خود به شت محافظت میکند. با این حال با یکی از خطرات هوش مصنوعی و میزان دخالت آن همین است ممکن است ناخواسته بیش از آنچه که باید به اشتراک بگذاریم.
رایان فابر موسس و مدیر عامل Copymatic هشدار میدهد: «برنامههای هوش مصنوعی دادههای کاربر ما را مرور میکنند تا اطلاعات مهمی را برای بهبود تجربه کاربری دریافت کنند. فقدان رویههای مناسب در مورد نحوه جمع آوری استفاده و ریختن دادهها باعث ایجاد برخی نگرانیها درباره خطرات هوش مصنوعی میشود.»
۳- امنیت ضعیف در خود برنامه هوش مصنوعی
افزودن هر برنامه جدید به شبکه آسیبپذیریهای جدیدی ایجاد میکند که میتواند برای دسترسی به مناطق دیگر در شبکه شما مورد سوء استفاده قرار گیرد. برنامههای هوش مصنوعی مولد یک خطر منحصر به فرد هستند، زیرا حاوی الگوریتمهای پیچیدهای هستند که شناسایی نقصهای امنیتی را برای توسعه دهندگان دشوار میکند.
شان اوبراین موسس آزمایشگاه حریم خصوصی ییل و مدرس دانشکده حقوق ییل میگوید: «هنوز هوش مصنوعی به اندازه کافی پیچیده نیست تا تفاوتهای ظریف توسعه نرم افزار را درک کند و همین نکته کدهای آن را آسیب پذیر میکند. تحقیقات ارزیابی امنیت کد تولید شده توسط GitHub Copilot نشان داد که تقریبا چهل درصد از پیشنهادات برتر هوش مصنوعی و همچنین چهل درصد از کل پیشنهادات هوش مصنوعی منجر به آسیبپذیریهای کد میشود. محققان همچنین دریافتند که تغییرات کوچک و غیر معنایی مانند نظرات میتواند بر ایمنی کد تاثیر بگذارد.»
اوبراین نمونههایی را به اشتراک گذاشت که چگونه خطرات هوش مصنوعی میتوانند ظاهر شوند:
اگر بتوان مدلهای هوش مصنوعی را فریب داد و ورودیهای خطرناک را بهعنوان ایمن طبقهبندی کرد برنامهای که با این هوش مصنوعی توسعهیافته است میتواند بدافزار را اجرا کرده و حتی کنترلهای امنیتی را دور بزند تا به بدافزار امتیازات بالاتری بدهد.
مدلهای هوش مصنوعی که فاقد نظارت انسانی هستند میتوانند در برابر مسمومیت دادهها آسیب پذیر باشند. اگر از یک چت بات توسعه یافته با هوش مصنوعی منوی یک رستوران محلی خواسته را بخواهیم یا از او بخواهیم که یک مرورگر وب محافظ حریم خصوصی دانلود کند یا بپرسیم ایمنترین VPN برای استفاده چیست کاربر میتواند در عوض به وبسایتهایی که حاوی باجافزار هستند هدایت شود.
۴- نشت
دادههایی که اطلاعات محرمانه شرکت را افشا میکند
اگر اکنون مدتی است که با ابزارهای هوش مصنوعی کار میکنید احتمالا نقش نوشتن یک پرامپت خوب را در گرفتن نتایج خوب یاد گرفتهاید. شما به چت بات هوش مصنوعی اطلاعات پس زمینه و زمینه را برای دریافت بهترین پاسخ ارائه میدهید.
خب ممکن است اطلاعات اختصاصی یا محرمانه را با چت ربات هوش مصنوعی به اشتراک بگذارید – و این خوب نیست. تحقیقات انجام شده توسط Cyberhaven یک شرکت امنیت داده نشان داد که:
یازده درصد از دادههایی که کارمندان در چت جی پی تی قرار میدهند محرمانه است.
چهار درصد از کارمندان حداقل یک بار دادههای حساس را در آن قرار داده اند.
کارمندان دارایی معنوی اطلاعات استراتژیک حساس و دادههای مشتری را به اشتراک میگذارند.
دنیس بیکر مدیر عامل SignPost Six یک شرکت مشاوره و آموزش ریسک داخلی تاکید دارد:
«نگران کنندهترین خطرات هوش مصنوعی برای سازمانها حریم خصوصی دادهها و افشای مالکیت معنوی است. کارمندان ممکن است دادههای حساس را با ابزارهای مبتنی بر هوش مصنوعی مانند چت جی پی تی و بارد به اشتراک بگذارند. به اسرار تجاری احتمالی اطلاعات طبقه بندی شده و دادههای مشتری که در این ابزار داده میشود فکر کنید. این دادهها میتوانند توسط ارائهدهندگان خدمات ذخیره دسترسی یا سوء استفاده شوند.»
۵- استفاده مخرب از دیپ فیک
تشخیص صدا و چهره بیشتر به عنوان یک معیار امنیتی کنترل دسترسی استفاده میشود. طبق بسیاری از گزارشها هوش مصنوعی فرصتی برای بازیگران بد برای ایجاد دیپفیک است که امنیت را دور میزند.
فرید مستوفی- مجله شنبه