۳۰ تير ۱۴۰۲ - ۲۳:۴۳
هوش مصنوعی همه جا هست. هزاران برنامه جدید هوش مصنوعی هر روز راه اندازی می شوند و یک جریان پیام دائمی وجود دارد که به شما یادآوری می کند که اگر سوار قطار هوش مصنوعی نشوید عقب افتاده اید. اما اجازه ندهید فشار دنبال کردن قطار هوش مصنوعی شما را به نادیده گرفتن خطرات هوش مصنوعی و خطرات واقعی امنیت سایبری سوق دهد.
کد خبر: ۱۰۵

ما هوش مصنوعی را در مرورگر‌ها صندوق‌های ایمیل و سیستم‌های مدیریت اسناد خود تعبیه می‌کنیم. ما به آن استقلال می‌دهیم تا از طرف ما به عنوان دستیار مجازی عمل کند. ما اطلاعات شخصی و شرکتی خود را با آن به اشتراک می‌گذاریم. همه این‌ها خطرات هوش مصنوعی و خطرات جدید امنیت سایبری را ایجاد کرده و خطر بازی‌های هکر‌های سنتی را افزایش می‌دهد.

خطرات جدید هوش مصنوعی مولد

ابتدا اجازه دهید پنج خطر جدید امنیت سایبری مرتبط با استفاده از ابزار‌های هوش مصنوعی مولد را با هم مرور کنیم.

۱- روند توسعه ضعیف

سرعتی که شرکت‌ها می‌توانند برنامه‌های هوش مصنوعی مولد را به کار گیرند در دنیای توسعه نرم‌افزار بی‌سابقه است. کنترل‌های معمولی روی توسعه نرم‌افزار و مدیریت چرخه عمر ممکن است همیشه وجود نداشته باشد.

به گفته آدریان ولنیک بنیانگذار aigear.io «پنهان کردن یک برنامه هوش مصنوعی در قالب یک محصول یا خدمات واقعی بسیار آسان است در حالی که در واقعیت با نظارت اندک یا بدون مراقبت یا اهمیت دادن به حریم خصوصی امنیت یا حتی ناشناس بودن کاربر اطلاعات او به راحتی قابل جمع آوری است.»

گرگ هچر بنیانگذار White Knight Labs یک شرکت مشاوره امنیت سایبری نیز با این نگاه موافق است: «تب طلا برای هوش مصنوعی به وجود آمده است. در سراسر توییتر و لینکدین هزاران پیام وجود دارد که برنامه‌های هوش مصنوعی جدیدی را که یک نفر در شب قبل نوشته است ارائه می‌کند. شما هم باید از آن‌ها استفاده کنید وگرنه عقب خواهید ماند. اما واقعا آیا اتفاق خاصی رخ داده؟ این برنامه‌ها فقط مقداری HTML و جاوا اسکریپت است که برای فرانت نوشته شده و صرفا چت جی پی تی در بک اند است.»

۲- افزایش خطر نقض داده‌ها و سرقت هویت

هنگامی که اطلاعات شخصی یا شرکتی خود را با هر برنامه نرم افزاری به اشتراک می‌گذاریم به این معنی است که آنقدر به آن برنامه اعتماد داریم که در برابر حملات سایبری از خود به شت محافظت می‌کند. با این حال با یکی از خطرات هوش مصنوعی و میزان دخالت آن همین است ممکن است ناخواسته بیش از آنچه که باید به اشتراک بگذاریم.

رایان فابر موسس و مدیر عامل Copymatic هشدار می‌دهد: «برنامه‌های هوش مصنوعی داده‌های کاربر ما را مرور می‌کنند تا اطلاعات مهمی را برای بهبود تجربه کاربری دریافت کنند. فقدان رویه‌های مناسب در مورد نحوه جمع آوری استفاده و ریختن داده‌ها باعث ایجاد برخی نگرانی‌ها درباره خطرات هوش مصنوعی می‌شود.»

۵ خطر جدی هوش مصنوعی


۳- امنیت ضعیف در خود برنامه هوش مصنوعی

افزودن هر برنامه جدید به شبکه آسیب‌پذیری‌های جدیدی ایجاد می‌کند که می‌تواند برای دسترسی به مناطق دیگر در شبکه شما مورد سوء استفاده قرار گیرد. برنامه‌های هوش مصنوعی مولد یک خطر منحصر به فرد هستند، زیرا حاوی الگوریتم‌های پیچیده‌ای هستند که شناسایی نقص‌های امنیتی را برای توسعه دهندگان دشوار می‌کند.

شان اوبراین موسس آزمایشگاه حریم خصوصی ییل و مدرس دانشکده حقوق ییل می‌گوید: «هنوز هوش مصنوعی به اندازه کافی پیچیده نیست تا تفاوت‌های ظریف توسعه نرم افزار را درک کند و همین نکته کد‌های آن را آسیب پذیر می‌کند. تحقیقات ارزیابی امنیت کد تولید شده توسط GitHub Copilot نشان داد که تقریبا چهل درصد از پیشنهادات برتر هوش مصنوعی و همچنین چهل درصد از کل پیشنهادات هوش مصنوعی منجر به آسیب‌پذیری‌های کد می‌شود. محققان همچنین دریافتند که تغییرات کوچک و غیر معنایی مانند نظرات می‌تواند بر ایمنی کد تاثیر بگذارد.»

اوبراین نمونه‌هایی را به اشتراک گذاشت که چگونه خطرات هوش مصنوعی می‌توانند ظاهر شوند:

اگر بتوان مدل‌های هوش مصنوعی را فریب داد و ورودی‌های خطرناک را به‌عنوان ایمن طبقه‌بندی کرد برنامه‌ای که با این هوش مصنوعی توسعه‌یافته است می‌تواند بدافزار را اجرا کرده و حتی کنترل‌های امنیتی را دور بزند تا به بدافزار امتیازات بالاتری بدهد.
مدل‌های هوش مصنوعی که فاقد نظارت انسانی هستند می‌توانند در برابر مسمومیت داده‌ها آسیب پذیر باشند. اگر از یک چت بات توسعه یافته با هوش مصنوعی منوی یک رستوران محلی خواسته را بخواهیم یا از او بخواهیم که یک مرورگر وب محافظ حریم خصوصی دانلود کند یا بپرسیم ایمن‌ترین VPN برای استفاده چیست کاربر می‌تواند در عوض به وب‌سایت‌هایی که حاوی باج‌افزار هستند هدایت شود.


۴- نشت

داده‌هایی که اطلاعات محرمانه شرکت را افشا می‌کند

اگر اکنون مدتی است که با ابزار‌های هوش مصنوعی کار می‌کنید احتمالا نقش نوشتن یک پرامپت خوب را در گرفتن نتایج خوب یاد گرفته‌اید. شما به چت بات هوش مصنوعی اطلاعات پس زمینه و زمینه را برای دریافت بهترین پاسخ ارائه می‌دهید.

خب ممکن است اطلاعات اختصاصی یا محرمانه را با چت ربات هوش مصنوعی به اشتراک بگذارید – و این خوب نیست. تحقیقات انجام شده توسط Cyberhaven یک شرکت امنیت داده نشان داد که:

یازده درصد از داده‌هایی که کارمندان در چت جی پی تی قرار می‌دهند محرمانه است.
چهار درصد از کارمندان حداقل یک بار داده‌های حساس را در آن قرار داده اند.

کارمندان دارایی معنوی اطلاعات استراتژیک حساس و داده‌های مشتری را به اشتراک می‌گذارند.

دنیس بیکر مدیر عامل SignPost Six یک شرکت مشاوره و آموزش ریسک داخلی تاکید دارد:

«نگران کننده‌ترین خطرات هوش مصنوعی برای سازمان‌ها حریم خصوصی داده‌ها و افشای مالکیت معنوی است. کارمندان ممکن است داده‌های حساس را با ابزار‌های مبتنی بر هوش مصنوعی مانند چت جی پی تی و بارد به اشتراک بگذارند. به اسرار تجاری احتمالی اطلاعات طبقه بندی شده و داده‌های مشتری که در این ابزار داده می‌شود فکر کنید. این داده‌ها می‌توانند توسط ارائه‌دهندگان خدمات ذخیره دسترسی یا سوء استفاده شوند.»

۵- استفاده مخرب از دیپ فیک

تشخیص صدا و چهره بیشتر به عنوان یک معیار امنیتی کنترل دسترسی استفاده می‌شود. طبق بسیاری از گزارش‌ها هوش مصنوعی فرصتی برای بازیگران بد برای ایجاد دیپ‌فیک است که امنیت را دور می‌زند.

 

فرید مستوفی- مجله شنبه

ارسال نظر